设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

AI 这样把 NB 写在脸上,它在玩一种很新的艺术

量子位 2023/7/16 21:27:51 责编:远洋
感谢IT之家网友 Sancu 的线索投递!

都说 AI 绘画来势汹汹,但论创意,还是人类玩得花。

不信来看看这张乍一看平平无奇,却在网上疯传的 AI 生成美女图片:

△ 图源:抖音账号 @麦橘 MAJIC

赶紧按下手机截图键,看看原图和缩略图的对比,你就能窥破玄机:

是的没错!

这张 AI 生成的图片里,偷摸在光影中融进去了两个汉字。

这两天,类似图片疯狂刷屏。各个平台上被争相讨论的,不仅有上面的🐮啤姐,还有下面这位 diao 哥。

△ 图源:抖音账号 @麦橘 MAJIC

以及这位把 AI“穿”在身上的的红毛衣小姐姐:

△ 图源:抖音账号 @麦橘 MAJIC

建议大家在手机上手动缩放一下这些图,缩得越小,图片夹带的文字能更清晰。

还有网友给了别的“认字”秘诀,比如摘下你的近视眼镜:

呼声最高的评论有两种,一种是“牛哇牛哇”的感叹,另一种是嗷嗷待哺的“蹲教程”。

所以,这些又牛又 diao 的图,是怎么做出来的?

ControlNet 又立大功

要让光影在图片甚至人物衣物上“写字”,利用的工具还是那套神奇的 AI 绘图组合:

Stable Diffusion+ControlNet。

作为最火爆的两个 AI 绘画工具之一,Stable Diffusion 已经风靡一年,热度不减,已经被大伙儿熟知和玩坏了。

所以今天想重点介绍一下 ControlNet,这家伙是 Stable Diffusion 的一个 AI 插件。

今年春天,ControlNet 因为能够搞定 AI 原本无法控制的手部细节、整体架构,一炮而红,被网友们戏称为“AI 绘画细节控制大师”。

Stable Diffusion 根据提示词生成图像显然太过随机,ControlNet 提供的功能,恰好是一种更精确地限制图像生成范围的办法。

究其原理,本质上是给予训练扩散模型增加一个额外的输入,从而控制它生成的细节。

“额外的输入”可以是各种类型的,包括草图、边缘图像、语义分割图像、人体关键点特征、霍夫变换检测直线、深度图、人体骨骼等。

Stable Diffusion 搭配 ControlNet 的整个过程中,第一步是预处理器生成图像,第二步让这些图像经过 ControlNet 模型的处理,第三步时,将图像输入到 Stable Diffusion 中,生成最后展现在用户面前的版本。

单说 ControlNet 的整体思路,就是先复制一遍扩散模型的权重,得到一个可训练副本(trainable copy)。

原本扩散模型经过几十亿张图片的预训练,参数处于被“锁定”的状态。但这个可训练副本,只需要在特定任务的小数据集上训练,就能学会条件控制。

而且就算数据量很少 —— 哪怕少于 5 万张 —— 模型经过训练后,条件控制生成的效果也贼拉棒。

比如 diao 哥和牛啤姐的那几张图中,它主要起到的作用,就是负责确保文字作为光影、衣服图案等,“放进”了图像中。

△ 图源:抖音账号 @麦橘 MAJIC

抖音原作者表示,最后还用上了 ControlNet tile 模型,这个模型主要负责增加描绘的细节,并且保证在增加降噪强度时,原图的构图也不会被改变。

也有 AI 爱好者“另辟蹊径”,表示要得到如图效果,可以用上 ControlNet brightness 模型(control_v1p_sd15_brightness)。

这个模型的作用,是控制深度信息,对稳定扩散进行亮度控制,即允许用户对灰度图像着色,或对生成的图像重新着色。

一方面,能让图片和文字融合得更好。

另一方面,能是让图片尤其是文字部分亮起来,这样光影写出的文字看起来会更加明显。

眼尖的小伙伴们可能已经发现了,给图片加汉字光影的整体思路,跟前几天同样爆火的图像风格二维码如出一辙。

不仅看起来不像个“正经”二维码,用手机扫扫还能真的跳转到有效网页。

不仅有动漫风,还有 3D 立体、水墨风、浮世绘风、水彩风、PCB 风格……

同样在 Reddit 等平台上引起“哇”声一片:

不过略有不同的是,这些二维码背后不仅需要用到 Stable Diffusion 和 ControlNet(包括 brightness 模型),还需要 LoRA 的配合。

感兴趣的旁友们,可以戳量子位之前的文章一探究竟《ControlNet 新玩法爆火》。

AI 大手子分享教程

光影效果爆火之后,推特上很快有 AI 大手子站出来表示愿意分享手把手教程。

大概思路非常简单,分为 3 个重要步骤:

第一步,安装 Stable Diffusion 和 ControlNet;

第二步,在 Stable Diffusion 中进行常规的文生图步骤;

第三步,启用 ControlNet,重点调整 Control Weight 和 Ending Control Step 两个参数。

运用这个方法,不仅可以完成人像和光影文字的融合,城市夜景什么的,也妥妥的。

大佬还在教程里温馨提示了一下:

写提示词时,尽量不要用一些例如特写人像之类的提示词,不然文字或者图案就会盖在人脸上,很难看.

(教程链接:https://mp.weixin.qq.com/s/rvpU4XhToldoec_bABeXJw

有了手把手教学,加上同思路的 AI 二维码制作秘籍早已公开,网友们已经玩嗨了:

△ 图源微博、抖音网友,为 AI 生成作品

你说说,这效果,这动手能力,谁看了不说一句 NB 呢?(doge)

如果你也动手 NB 了一下,欢迎在围脖平台 @量子位,投喂你的最终成品和我们互动嗷~

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关文章

关键词:AI人工智能

软媒旗下网站: IT之家 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 软媒手机APP应用 魔方 最会买 要知