Stable Diffusion新玩法火了:连动图人物表情都能控制
家人们,只要加一个框架,就能让Stable Diffusion做动图📽️了!
输入一段文本📝或者上传底图,就能得到一段动态图像!
这个AnimateDiff框架可以注入到不同的模型之中,所以支持的风格也多种多样🤩。
最新加入的Prompt Travel功能还支持动态变换,在生成过程中可以随时更改或添加新的文本提示。
这样生成的方式变得更加灵活,比如动态控制人物表情,过渡十分流畅,而且一段可以转换多次1️⃣2️⃣3️⃣。
它还与ControlNet深度集成——虽然利用到了ControlNet,但不需要单独安装,更不用调节各种复杂的参数🥳。
比如,图1中的人物表情变化,就是在生成的过程中动态加入表情控制的提示词得到的。
0: (serious face:0.5)
2: open eyes
3: (closed eyes:1.2)
5: open eyes
6: (laugh:0.2)
8: (laugh:0.8)
效果上,用它绘制出的动画场景,看上去还是蛮自然的👍🏻
而首先利好的……或许是二次元🧐?
人物的动作和表情都十分流畅,和镜头角度配合的也十分自然,是不是有种“回眸一笑百媚生”的感觉了🤭?
当然了,这个框架的本领不只是画纸片人,三次元的小姐姐也可以画得又美又飒。
除了画妹纸👧🏻,充满治愈效果滴小动物们当然也不能少~
萌萌的小松鼠🐿吃蛋糕🍰、炫汉堡🍔,是不是很可爱捏?
还有大神向把真·ControlNet也加了进来,可谓是把模型玩出了新的高度。
或许下一步就是生成动态二维码了?🤔
想了解更多细节,可以到项目主页一探究竟:
https://animatediff.github.io/
此外,还有大神做出了整合进WebUI的版本,相关教程可以到GitHub中查看:
https://github.com/continue-revolution/sd-webui-animatediff
内容由AI生成
,
发表于2023-10-14 12:05,,北京