当前位置:首页|资讯|Stable Diffusion|Midjourney|AI绘画

Stable Diffusion 快问快答

作者:一点十六发布时间:2023-03-29


Stable Diffusion V2

01、Stable Diffusion 是什么?

是一款开源免费的AI绘画工具,可以文生图,也可以图生图。

02、Stable Diffusion 的同类产品还有哪些?

同类产品只关注 Midjourney、DALL-E2 就好了,其他的要么没开放,要么效果一般,要么基于SD二次开发。

03、想要简单的试用一下 Stable Diffusion

那可以先不在本地安装,试下在线版本:

https://beta.dreamstudio.ai/generate?from=%2Fdream

https://dreamlike.art/create

dreamstudio

04、stable-diffusion-webui 是什么?

Stable Diffusion 安装到本地的交互界面,开源免费,现在大部分用的就是这个,但这套界面技术大于设计,交互体验是有很大进步空间的。优势是拓展性很好,可以整合好多其他功能。

https://github.com/AUTOMATIC1111/stable-diffusion-webui

webui

05、stable-diffusion-webui 的主要功能?

最好直接看开发者的Wiki:

https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features

06、如何本地安装?

webui安装类教程很多,很容易找到;

如果懒得自己安装,可以选整合包,比如秋叶同学的,解压即用,还无私免费。

安好webui之后,记得还要自己安装模型,之后才能正常使。

很多教程

07、本地安装对电脑配置有啥要求?

1、显卡要好,显存要大;

2、硬盘自然也是固态的好,但是机械的问题也不大,无非是读盘慢点儿;

3、对MAC用户不太友好。

08、模型是啥?

文字转化为图像的核心模块,生成图片主要靠它,不同的模型生成的类型会不一样。

09、去哪儿下载模型?

简单贴几个网站,模型看好了最好下载到本地,因为搞不好作者就删库跑路了

1、https://huggingface.co/models

2、https://civitai.com/

3、http://www.123114514.xyz/

huggingface

10、stable-diffusion-webui怎么用?

简单流程就是:选好模型,输入正反描述词,然后点击生成就可以了,抽卡似的,抽到满意的为止。

11、Stable Diffusion 背后的工作原理是什么?

潜空间扩散模型,就是对着一团噪声图,不断的降噪,最后获得清晰图像。好像一两句也说不清,为此专门出了一期视频:

12、影响webui绘图结果的主要因素有哪些?

影响力排序:描述词 > 模型选择 > 随机种子 > 画面尺寸 > CFG > 采样方法 > 采样步数

webui

13、各个配置项都是什么意思?

1、描述词控制生成的内容:要画什么东西;

2、模型影响生成的风格、类型:照片、插画、动漫;

3、随机种和尺寸影响生成的画面结构:主要是构图,姿势,样貌等;

4、CFG影响描述词的相关性大小:是让AI放飞自我,还是言听计从;

5、采样方法和步骤影响生成画面的细节:影响较小。

14、怎么控制每个描述词的权重?

1、从前往后,权重递减;

2、加括号可以单独控制权重,以下为简单示例:

Prompt = (Prompt:1)

(Prompt) = (Prompt:1.1)

[Prompt] = (Prompt:0.9)

15、常见的模型有哪些种类?

1、官方模型

Stable AI 花几十万美刀,从数亿图片上训练的大模型,范围非常广,但不太易用,如:SD 1.5、SD 2.1等;

2、微调模型

用Dreambooth技术在官方模型基础上,继续训练的第三方模型,一般有着明确的创作类型,如:摄影、插画、动漫;

3、小模型

Lora、Embedding(Textual  Inversion)、Hypernetwork等,需要和大模型配合使用,一般有着更明确的图像特征,如:各类角色,风格的小模型;

4、VAE

潜空间图像编码的解码器,一般内置,也可以替换,单说结果的话,对色彩倾向的影响大一点儿;

Stable Diffusion V2

16、ckpt格式和safetensors格式的模型有啥区别?

对使用来说,没啥区别,但safetensors格式可以防止Pickle反序列化攻击,更安全一点。

17、模型越大越好吗?

体积大不一定效果好,但一定会增加电脑负担。

18、模型的不同版本差异?

一般是更新了训练集,微调了细节表现,但目前不一定新版就比旧版的效果好,可能时间跨度再大一点,新版和旧版的差距会更明显吧。

SD1.0 - SD1.5简介

19、如何自己训练模型

自己弄,挺耗电脑性能的。

练微调模型,搜Dreambooth插件;练Lora,搜kohya_ss;练Embedding,webui就可以。

https://github.com/bmaltais/kohya_ss

20、最快的上手方法?

最快的学习方法依然是模仿,搜罗一些优秀的作品,看人家是怎么写提示词,设置参数的。

https://prompthero.com/
https://lexica.art/

21、如何更精确的控制?

很难,虽然有插件帮忙,但也很难。

AI总有自己的想法,咱们或许可以转变下身份,从执行者,转变为决策者,给它自由度,只保留最终决策权。

22、要不要学一下AI生成?

新技术了解下自然是好的,但:千万不要被割韭菜!千万不要被割韭菜!千万不要被割韭菜!

23、AI有审美吗?是否会遵循形式美的法则?

目前来看,AI是懵懂的,依靠训练时图像的文字标签来识别画面,自己是不太理解美丑,对错的。

24、AI 绘画怎么应用到商业流程中去?

可以用来找灵感;可以用来出草稿;可以用来生成素材;

如果直接用于最终结果的生产,目前来说仍然有些激进。

25、会侵权吗?

如果明确的去复刻真人的样貌,那指定是侵犯人家肖像权;

如果对着别人原作,在内容,风格,色彩等多方面,1:1的抄,那也会侵权;

但如果只是参考借鉴,应该就很难构成侵权了;

抄袭和参考的界限,就还挺模糊的,需要自己把控,对得起职业操守。




故障、错误修复


01、整体结构、比例错乱

1、使用反向提示词,排除错误的结构;

2、使用controlnet插件,再引入一张图片,来纠正结构比例;

3、不管这个了,再多生成几张

controlnet插件

02、人脸部结构错误

勾上Restore faces。

如果报错,估计是人脸修复模型没安好,可以找到对应文件夹,把下一半儿的模型删了,再点击生成,就会重新下了,要视网速等待一段时间。

模型文件夹:stable-diffusion-webui\models\Codeformer

stable-diffusion-webui\models\Codeformer

03、生成了俩脑袋的问题

1、反向提示词写上:bad anatomy, bad proportions, 之类的,补救下;

2、修改画面比例,越接近正方形,越容易避免俩头的问题;

3、保持比例,但是输出全身像,再裁剪出需要的比例;

04、手指错乱

1、躺平,不画手了,手本来就很难画;

2、合上去一个正确的手,然后使用controlnet插件处理

3、在反向提示词中输入手的提示:extra limbs, bad hands,之类的;




目前SD技术上的不足


01、做不到精细的控制

抽卡模式很不可靠,精细处的调整还是需要人工;

难以预估,也有可能抽俩钟头都没满意的。

02、作品同质化

生成技术的廉价,必然会带来同类型产品的泛滥;

03、受限于训练集

没练过的不会画,倒也不是不能画,而是会乱画;

04、可能会不知觉的侵权

如果用了来路不明的模型,可能会抄袭到某位原作者;

05、描述词不支持中文输入

嗨,怪就怪冯 诺依曼老爷子是歪果仁;

06、描述词对自然语言的理解也不太好

不然,大家也不会管描述词叫“咒语”了,目前的描述词状态就很不智能。

07、画面之外的抽象感觉无法控制

连语言都难以描述,它自然也无能为力。





Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1