【头部财经】最近,一组引人注目的AI生成美女图片在网络上疯传,展现出惊人的创意。这些图片初看平淡无奇,但仔细观察可以发现其中隐藏了两个汉字。这些图片成为各大社交平台热议的话题,其中包括不仅上半身的姐姐形象,还有下半身的"刁哥"和红毛衣小姐姐的形象。网友们纷纷按下手机截图键,缩小图片后,发现夹带的文字更加清晰。有些网友还给出一些识别文字的诀窍,例如拿下眼镜等。
那么,这些令人叹为观止的图片是如何制作出来的呢?关键在于“ControlNet”技术大放异彩。这套神奇的AI绘画组合由“Stable Diffusion”和“ControlNet”组成。作为最热门的AI绘画工具之一,“Stable Diffusion”已经风靡一年,并被人们所熟知和运用。而“ControlNet”是“Stable Diffusion”的一个AI插件。今年春天,由于它可以处理AI无法控制的手部细节和整体架构,一夜之间走红,并被网友们戏称为“AI绘画细节控制大师”。
“Stable Diffusion”根据提示词生成图像,但显然太过随机。而“ControlNet”提供了一种更精确限制图像生成范围的方法。原理就是给训练扩散模型增加一个额外的输入,从而控制生成图像的细节。这个额外输入可以是各种类型,包括草图、边缘图像、语义分割图像、人体关键点特征、深度图等。使用“Stable Diffusion”和“ControlNet”的组合技术,在预处理的第一步生成图像,然后通过“ControlNet”模型对图像进行处理,最后将图像输入到“Stable Diffusion”中生成最终呈现给用户的版本。
“ControlNet”的整体思路是复制一遍扩散模型的权重,形成一个可训练的副本。原本扩散模型经过数十亿张图片的预训练,参数被“锁定”。但训练副本只需要在特定任务的小数据集上进行训练,就能学会条件控制。即使数据量很少,如少于5万张,经过训练后,条件控制生成的效果也非常出色。在“刁哥”和姐姐的图片中,ControlNet的作用是确保文字融入光影和衣物图案中。
此外,抖音原作者表示在制作过程中还使用了ControlNet的tile模型,这个模型主要用于增加细节描绘,并确保提高降噪强度时,原图的构图不会改变。同时,一些AI爱好者也提出其他的“认字”技巧,比如使用ControlNet的brightness模型,用于控制深度信息,对稳定扩散进行亮度控制,使光影中的文字更加明显。这个方法不仅适用于光影文字的制作,也可以用于制作图像风格的二维码。
对于AI绘画的粉丝来说,这些惊人的效果和创意无疑使他们叹为观止。在推特上,一位AI大师站出来,表示愿意分享详细教程。教程简单明了,分为三个关键步骤:安装Stable Diffusion和ControlNet,使用Stable Diffusion进行常规的图像生成步骤,然后启用ControlNet,重点调整Control Weight和Ending Control Step两个参数。根据这个方法,不仅可以合成人像和光影文字,还能用于城市夜景等创作。