这次测试的模型是AbyssOrangeMix3模型(以下简称AOM3),文件名为abyssorangemix3AOM3_aom3a3,这个模型在文末附上网盘链接分享。
测评将从vae,clip跳过层,采样方法等几个重要参数出发,通过控制变量法进行模型测试,测评结果仅作参考,不代表实际结果。
这次测试改用了640*640的图,是因为在测试中发现大尺寸的图出图效果较差,因此改用小尺寸的图,同时增加了放大测试和尺寸测试两项新的测试内容。
masterpiece, best quality,extremely detailed CG unity 8k wallpaper,
1girl,( olive green hair:1.3),solo, very long hair, looking at viewer, yellow eyes, bare shoulders,smile, socks,hair between eyes, elbow gloves, ( huge horns:1.1), black gloves, closed mouth,torn clothes, high heels, (white dress), (white boots:1.2), cleavage,(small breasts:0.5|medium breasts),( white socks:1.2), (wavy hair:1.3),( wreath on the head:1.2),
(Forest:1.2), (sea of flowers:1.1), sunlight,
wet lips, shiny,(beautiful detailed eyes),Ultra-detailed,intricate details,{detailed clothing}, {detailed background}, {extremely beautiful and delicate}, (very detailed), (wallpaper), highlight eyes,blush,
(Highres), Amazing, intricate, illustration, (artgerm:1.2), (high contrast:1.2), (colorful), (an extremely detailed and beautiful:1.3), (cute:1.3),big round eyes,(detailed super oily shiny skin:1.2),(detailed hands and fingers:0.9),
负面tag同上期。
Steps: 30, Sampler: DPM++ 2M Karras, CFG scale: 7, Size: 640x640, Model hash: eb4099ba9c, Model: abyssorangemix3AOM3_aom3a3,
这次是想画艾丝黛尔来着……但小鳄鱼特征太明显了,不大好画……只能将就着看了……
AOM3自身并不没有像momoko一样融合了vae,因此不加vae时,画面会和其他模型一样明显发灰,使用了animevae后也没有得到和更好的改善。另外使用饱和度较高的vae时,klf8比其他两个有着更好的清晰度(虽然看不大出来),推荐使用。
最近读了几篇关于clip的论文,对clip是个什么玩意有了更进一步的认识。
简单来讲,clip就是把输入的tag分成几个层,clip跳过层值为几就跳过几个层,不使用那些tag,这也就是为什么clip跳过层越高,画面越和tag无关的原因。
理论上讲clip跳过层是Stable Diffusion自带的,分层逻辑和模型没什么关系,因此下次测试估计会把clip测试给撸了。
虽然clip的抽卡还挺有意思的。
这次迭代步数再次告诉我一件事——本来就烂的图,迭代步数再高都救不回来。
当然要是一些小问题说不定还是可以救一下的,但是迭代步数50步以上确实画面不会再产生变化(对于不收敛的采样方法除外)。
实际上大部分时候采样步数都在30步到50步之间,配置不够可以下放到20步,基本不会有什么意外。
那下次测试把这个测试也撸了。
LMS和PLMS有局部噪点无法去除,不推荐使用。
DPM fast需要高迭代步数,DPM adaptive生成时间极长,不推荐使用。
这次DPM fast发挥稍微好了一点,起码可以看出基本样子了。
实际上用来用去也就那几个采样方法用的多一点,比如Euler a, DPM++ 2M Karras, DPM++ SDE Karras, DDIM,其他几个都大同小异了。
这提示词相关性的意义都快成一个过曝区间检测器了……
AOM3在相关性20时仍有较好的效果,就是看着颜色鲜艳了一点。
推荐参数5—15。
进行这个测试的主要目的是为了测试什么样的参数和放大方法最适合模型,在高清测试中有提到过不是所有模型都适用同一套参数,而大家出图时一般也必开高清重绘,所以才有这个测试。
然而测试的结果还是令人失望,基本上和我在高清测试里得出来的结论是大差不差的,并没有得出什么新结论来。Latent系需要重绘0.6才能正常出图,Lanczos就算重绘了还是很糊,不推荐,其他几种效果都差不多。
将用于测试的模型增加到了30个,发现了几个很适合这个tag的模型
嗯……为什么又把尺寸测试加回来了呢?原先受于硬件原因没法跑大图,因此尺寸测试意义不大。但今时不同往日,我能跑大图了,欸,这时候尺寸测试就又有意义了,为什么呢,因为在高清修复里经常会遇到一个问题,是512尺寸放大三倍呢,还是768尺寸放大两倍呢,还是干脆1536不放大了。原图尺寸过大会导致画面畸形,太小又怕放大不出细节,因此才重新加入这个测试(Stable Diffusion没有尺寸宫格图一张一张拼累死我了)。
可以看到的是,随着尺寸变大,出图的效果确实极具下降,在1536以上的尺寸甚至看不见人形,一图右下角那个尺寸就算是3060也跑不出来。
可以得出三个结论:
1,大尺寸高清图多用高清修复,可以跑出直接跑跑不出的尺寸
2,长宽比不易超过1:3,否则竖图会出现图片分割,横图则会出现人物趴着,部分画面丢失
3,当尺寸达到1280时,甚至是1024时,图像就会开始崩坏。
因此尽量避免图片尺寸超过1024,生成1024以上的图时,使用相应比例的2倍高清修复会更好。
AOM3也是个人物特化模型,就算不写人物tag也能出人物,还出的挺好。
人物特写效果一般般,半身像和全身不错,男的能画,但是有点正太。
场景图也不错,但是因为人物特化的缘故,会出现妹子。
这北京烤鸭看起来就很好吃~~
snake也是比较困难的,另外两幅直接只剩妹子了
白背景画不了……黑白画不了……水彩画不了……输麻了,除了好看一无是处了。
在测试一组tag的时候发现,就算是2d模型通过tag也能画出2.5d的效果,这次把他加入了画风测试中,AOM3在画2.5D人物方面也有相当好的效果,甚至比他画2d更好。
AOM3在我看来是一个上限相当高的模型,它有着鲜艳的色彩,丰富的细节,广泛的画风。但是想要用好这个模型也有不小的难度,使用不当易出现多肢体,细节模糊等问题。总的来说还是相当值得推荐的。
另外这种测试专栏形式有很多测试类目在不断测试中已经失去了测试价值,这种列表格的测试形式做起来累,可能对于小伙伴们看起来也累,下期我打算尝试一下新的测评形式,努力让小伙伴们获得最佳的阅读体验。
本期测试表链接:
链接:https://pan.baidu.com/s/1v2Z-GZ2HBvT_cO5xyOu2SA?pwd=a3ja
提取码:a3ja
本期模型链接:
链接:https://pan.baidu.com/s/1ol6g4PyDMKvtk7HnKkJehA?pwd=ftmi
提取码:ftmi