Midjourney发布新功能,网友直呼“不可思议”!
现在你可以让生成的图像几乎保持角色一致,belike:
所有超级英雄长一个模样盯着你。
甚至动漫风、写实风等跨风格生成也同样适用:
保持同一风格,感jio配上文字可以讲一个故事了:
面部、着装、发型可调控,换装玩法get:
新功能名为角色参照(Character Reference),和之前的风格参照类似,不过这次不是保持风格一致,而是保持生成图像的角色与给定的参照角色一致。
网友们已经玩嗨了,纷纷表示这是迄今为止Midjourney最大的更新:
还有网友认为生成式AI都应该来瞧一瞧、学一学:
更多网友是奔赴在测试的路上,觉都不睡了的那种:
话不多说,一起来康康使用方法及测试效果。
角色参照新功能适用于Midjourney V6、Niji6型号。
值得一提的是,由于Midjourney V6目前还处于alpha测试阶段,此后功能也可能会有所变化。官方表示不久后将推出V6 beta版。
新功能使用方法也很简单。
只需要在输入的prompt的后面加上“--cref URL”即可,URL指的是所选的参照角色图像的链接。
还可以“--cref URL1URL2”这样婶儿,混合多个图像的角色特征。
除此之外,在prompt最后再加上“--cw”可以调整参照的强度,范围为100到0。
默认强度为100,即“--cw 100”,生成的图像会参考人物的脸部、发型和着装;设置强度为0时,即“--cw 0”,则只会专注于参照脸部,也就是适合给特定角色换装、换发型。
效果方面,官方公告中也提示了,新功能更适合用Midjourney自己创作图像作为参考图像,用真人照片作为参考图像可能会产生扭曲。
而且新功能的运作方式和普通图像提示类似,只是更专注于角色的特征,所以参照精确度也是有限的。
无法复刻非常细节的特征,比如特定的酒窝、雀斑或T恤上的标志等。
在web alpha版本中操作方法如下:
将图片拖至或粘贴至imagine中,会出现三个图标,可以选择设置图片是作为图片提示、风格参考还是人物参考。按住Shift并选择一个选项,可以将一张图片用于多个类别。
我们也简单上手尝试了一把。
先用Midjourney生成了一张老马喝咖啡的图:
然后使用新功能,提示词为“一个探险家在北极探险”,后接—cref URL:
最后生成的图片是这样婶儿的:
可以明显看到保留了参考图像的脸部的部分特征,还有喝咖啡的行为。
下面来看一波网友的测试效果。
要不说还得是网友会玩,像下面这一组图,脸部特征基本一致:
还有网友设置了不同的参照强度,对比来看是这样婶儿的:
怼脸图也是几乎保持一致的那种:
动画风格轻松驾驭:
一张图中有多个角色也能处理:
感兴趣的家人们可以亲自上手玩一玩~
最近,有网友爆料在MidJourney工作时间里,有员工发现Stability AI的某员工在周六晚上偷偷地尝试抓取他们的提示-图片对数据,结果把他们的系统都给搞崩了。
随后,MidJourney立即禁止所有Stability AI的员工使用MidJourney。
这让网友想起了一年前Stability CEO发过的帖子:
鉴于种种迹象表明AI生成的图像不受版权保护,我们是不是可以考虑只用AI生成的图片训练一个模型。
我想知道用MidJourney V4生成的图训练出的V4.5会是什么样子?
网友也是不知道该怎么说这件事,于是让ChatGPT给描述描述,随后ChatGPT输出了个八卦标题:
Stability CEO年前的推文预言了Midjourney的午夜混乱——随着否认声浪起,Stability员工被禁止入内!
参考链接:
[1]https://twitter.com/Yampeleg/status/1767040473011556746
[2]https://twitter.com/XueFz/status/1767197476656709650
本文来自微信公众号“量子位”(ID:QbitAI),作者:西风,36氪经授权发布。