说到图像生成,大家首先会想到的是Mid Journey,stable diffution等。AI生产图片已经可以做到以假乱真的地步了,那么是不是设计的饭碗被端了呢? 其实不然。首先生成的图片需要一定的学习成本,其次生成出来的图片到实际预期的还是有一定的差距,需要二次开发。 那如果想尝试一下自己生成一张美丽的照片,那么你可以往下接着看看。
本机设备信息
安装python,版本大于3.9
如果发现没有brew环境,则先搜索一下mac 怎么安装brew环境,或者尝试以下命令
2. 安装git环境
3. 下载stable diffution项目工程
cd stable diffution项目工程,到该项目的根目录下
运行./webui.sh
然后会下载相关的依赖库,如果有超时就继续再次运行./webui.sh。运行成功后会看到如下内容:
4. 在浏览器中输入地址:127.0.0.1:7860
6. 选择模型
项目中是没有模型的,因此可以在以下网站下载一个你喜欢的模型,将其放在stable-diffusion-webui/models/Stable-diffusion/目录下
https://civitai.com/
https://www.liblibai.com/?bd_vid=11719361535012367531#/
https://tusi.art/
https://www.liandange.com/
7. 点击generate,在inter的mac电脑,会报错
Stable Diffusion checkpoint
选择模型
txt2img
文字生成图片
img2img
图片生成图片
Extras
这可“无损”放大图片
PNG info
sd生成的图片,通过这可以看到详细的信息,比如prop等
Checkpoint Merger
合并不同的模型,生成新的模型
Train
自己炼 embedding 或者 hypernetwork
Settings 设置
设置页面
Extensions
扩展
Prompt
正向提示词,用文字描述你想要生成的东西
negative Prompt
反向提示词
分隔:不同的关键词tag之间,需要使用英文逗号,分隔,逗号前后有空格或者换行是不碍事的
ex:1girl,loli,long hair,low twintails(1个女孩,loli,长发,低双马尾)
混合:WebUi 使用 | 分隔多个关键词,实现混合多个要素,注意混合是同等比例混合,同时混。
ex: 1girl,red|blue hair, long hair(1个女孩,红色与蓝色头发混合,长发)
增强/减弱:有两种写法
ex: ((loli)),((one girl)),(cat ears),[flower hairpin]和第一种写法等价
ex: ,(loli:1.21),(one girl:1.21),(cat ears:1.1),(flower hairpin:0.9)
第一种 (提示词:权重数值):数值从0.1~100,默认状态是1,低于1就是减弱,大于1就是加强
第二种 (((提示词))),每套一层()括号增强1.1倍,每套一层[]减弱1.1倍。也就是套两层是1.1*1.1=1.21倍,套三层是1.331倍,套4层是1.4641倍。
渐变:比较简单的理解时,先按某种关键词生成,然后再此基础上向某个方向变化。
ex:a girl with very long [white:yellow:16] hair 等价为开始 a girl with very long white hair,16步之后a girl with very long yellow hair
[关键词1:关键词2:数字],数字大于1理解为第X步前为关键词1,第X步后变成关键词2,数字小于1理解为总步数的百分之X前为关键词1,之后变成关键词2
交替:轮流使用关键词
[cow|horse] in a field比如这就是个牛马的混合物,如果你写的更长比如[cow|horse|cat|dog] in a field就是先朝着像牛努力,再朝着像马努力,再向着猫努力,再向着狗努力,再向着马努力
Sampling method
Euler a :富有创造力,不同步数可以生产出不同的图片
Euler:最最常见基础的算法,最简单的,也是最快的。
DDIM:收敛快,一般20步就差不多了
LMS:eular的延伸算法,相对更稳定一点,30步就比较稳定了
PLMS:再改进一点LMS
DPM2:DDIM的一种改进版,它的速度大约是 DDIM 的两倍
采样方法,采样器
Sampling steps
30~50
步数越多,时间越长
采样迭代步数
Hires. fix
放大算法:如果不知道选什么,一般无脑选“ ESRGAN_4x ”
重绘幅度:放大后修改细节的程度,从0到1,数值越大,AI创意就越多,也就越偏离原图。
Upscale by :放大倍数,在原有宽度和长度上放大几倍,注意这个拉高需要更高的显存的。
超分辨率,再通过算法提高图片到高分辨率
Width && Height
宽 && 高,单位像素
常见的模型基本在512×512和768X768
分辨率过高,图片质量会随着分辨率的提高而变差
CFG Scale
提示词相关性,图像与你的提示的匹配程度。
一般在5~15之间为好,7,9,12是3个常见的设置值。
Seed
随机种子
相同的种子可以多次生成(几乎)相同的图像。
如果你用某个种子在某tag下生成了很棒的图,保持种子数不变,而稍微改一点点tag,增减一点细节,一般得到的图也会不错。
Script
选择None