是一款开源免费的AI绘画工具,可以文生图,也可以图生图。
同类产品只关注 Midjourney、DALL-E2 就好了,其他的要么没开放,要么效果一般,要么基于SD二次开发。
那可以先不在本地安装,试下在线版本:
https://beta.dreamstudio.ai/generate?from=%2Fdream
https://dreamlike.art/create
Stable Diffusion 安装到本地的交互界面,开源免费,现在大部分用的就是这个,但这套界面技术大于设计,交互体验是有很大进步空间的。优势是拓展性很好,可以整合好多其他功能。
https://github.com/AUTOMATIC1111/stable-diffusion-webui
最好直接看开发者的Wiki:
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features
webui安装类教程很多,很容易找到;
如果懒得自己安装,可以选整合包,比如秋叶同学的,解压即用,还无私免费。
安好webui之后,记得还要自己安装模型,之后才能正常使。
1、显卡要好,显存要大;
2、硬盘自然也是固态的好,但是机械的问题也不大,无非是读盘慢点儿;
3、对MAC用户不太友好。
文字转化为图像的核心模块,生成图片主要靠它,不同的模型生成的类型会不一样。
简单贴几个网站,模型看好了最好下载到本地,因为搞不好作者就删库跑路了
1、https://huggingface.co/models
2、https://civitai.com/
3、http://www.123114514.xyz/
简单流程就是:选好模型,输入正反描述词,然后点击生成就可以了,抽卡似的,抽到满意的为止。
潜空间扩散模型,就是对着一团噪声图,不断的降噪,最后获得清晰图像。好像一两句也说不清,为此专门出了一期视频:
影响力排序:描述词 > 模型选择 > 随机种子 > 画面尺寸 > CFG > 采样方法 > 采样步数
1、描述词控制生成的内容:要画什么东西;
2、模型影响生成的风格、类型:照片、插画、动漫;
3、随机种和尺寸影响生成的画面结构:主要是构图,姿势,样貌等;
4、CFG影响描述词的相关性大小:是让AI放飞自我,还是言听计从;
5、采样方法和步骤影响生成画面的细节:影响较小。
1、从前往后,权重递减;
2、加括号可以单独控制权重,以下为简单示例:
Prompt = (Prompt:1)
(Prompt) = (Prompt:1.1)
[Prompt] = (Prompt:0.9)
1、官方模型
Stable AI 花几十万美刀,从数亿图片上训练的大模型,范围非常广,但不太易用,如:SD 1.5、SD 2.1等;
2、微调模型
用Dreambooth技术在官方模型基础上,继续训练的第三方模型,一般有着明确的创作类型,如:摄影、插画、动漫;
3、小模型
Lora、Embedding(Textual Inversion)、Hypernetwork等,需要和大模型配合使用,一般有着更明确的图像特征,如:各类角色,风格的小模型;
4、VAE
潜空间图像编码的解码器,一般内置,也可以替换,单说结果的话,对色彩倾向的影响大一点儿;
对使用来说,没啥区别,但safetensors格式可以防止Pickle反序列化攻击,更安全一点。
体积大不一定效果好,但一定会增加电脑负担。
一般是更新了训练集,微调了细节表现,但目前不一定新版就比旧版的效果好,可能时间跨度再大一点,新版和旧版的差距会更明显吧。
自己弄,挺耗电脑性能的。
练微调模型,搜Dreambooth插件;练Lora,搜kohya_ss;练Embedding,webui就可以。
最快的学习方法依然是模仿,搜罗一些优秀的作品,看人家是怎么写提示词,设置参数的。
很难,虽然有插件帮忙,但也很难。
AI总有自己的想法,咱们或许可以转变下身份,从执行者,转变为决策者,给它自由度,只保留最终决策权。
新技术了解下自然是好的,但:千万不要被割韭菜!千万不要被割韭菜!千万不要被割韭菜!
目前来看,AI是懵懂的,依靠训练时图像的文字标签来识别画面,自己是不太理解美丑,对错的。
可以用来找灵感;可以用来出草稿;可以用来生成素材;
如果直接用于最终结果的生产,目前来说仍然有些激进。
如果明确的去复刻真人的样貌,那指定是侵犯人家肖像权;
如果对着别人原作,在内容,风格,色彩等多方面,1:1的抄,那也会侵权;
但如果只是参考借鉴,应该就很难构成侵权了;
抄袭和参考的界限,就还挺模糊的,需要自己把控,对得起职业操守。
1、使用反向提示词,排除错误的结构;
2、使用controlnet插件,再引入一张图片,来纠正结构比例;
3、不管这个了,再多生成几张
勾上Restore faces。
如果报错,估计是人脸修复模型没安好,可以找到对应文件夹,把下一半儿的模型删了,再点击生成,就会重新下了,要视网速等待一段时间。
模型文件夹:stable-diffusion-webui\models\Codeformer
1、反向提示词写上:bad anatomy, bad proportions, 之类的,补救下;
2、修改画面比例,越接近正方形,越容易避免俩头的问题;
3、保持比例,但是输出全身像,再裁剪出需要的比例;
1、躺平,不画手了,手本来就很难画;
2、合上去一个正确的手,然后使用controlnet插件处理
3、在反向提示词中输入手的提示:extra limbs, bad hands,之类的;
抽卡模式很不可靠,精细处的调整还是需要人工;
难以预估,也有可能抽俩钟头都没满意的。
生成技术的廉价,必然会带来同类型产品的泛滥;
没练过的不会画,倒也不是不能画,而是会乱画;
如果用了来路不明的模型,可能会抄袭到某位原作者;
嗨,怪就怪冯 诺依曼老爷子是歪果仁;
不然,大家也不会管描述词叫“咒语”了,目前的描述词状态就很不智能。
连语言都难以描述,它自然也无能为力。