这次测试的模型是merongmix模型(以下简称merong),文件名为merongmix_v11,这个模型在文末附上网盘链接分享。
测评将从vae,clip跳过层,采样方法等几个重要参数出发,通过控制变量法进行模型测试,测评结果仅作参考,不代表实际结果。
这次的merongmix是一个偏2D的2.5D模型,会有很多性质与普通的2D模型有出入。
masterpiece, best quality, masterpiece,best quality,official art,extremely detailed CG unity 8k wallpaper,
{beautiful detailed face},{beautiful detailed rainbow eyes},
1girl, solo, animal ears, full body, fur trim, pantyhose,{red pantyhose:1.5}, multicolored hair, skirt, boots, long hair,black footwear, streaked hair, open clothes, jacket, bangs, looking at viewer,bear ears,shirt,
{red hair:0.3}, fur-trimmed jacket,miniskirt, standing, brown hair, hair between eyes, cross-laced footwear, open jacket, long sleeves, black choker, choker, off shoulder, sidelocks, pleated skirt, red neckerchief, black skirt, breasts, neckerchief, black jacket, lace-up boots, cardigan, small breasts, white cardigan, coat, socks, brown skirt, sailor collar, black shirt, necktie, blue eyes, earphones, brown jacket, expressionless,grey eyes, closed mouth, white shirt, black sailor collar, open coat, school uniform,{upper,body:0.25},tree,snowing,snow,medium_breasts,winter,{angry:0.5}, fighting_stance,
Negative prompt:同上期
Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 7, Size: 768x1024, Clip skip: 2,
这次的模特是凛冬……嗯……其实一点也不像。
1,vae测试
在vae上,merong与cetusmix很相似,不加vae会导致画面的严重发灰,画面饱和度上autoencoder > kl-f8-anime2 = vae-ft-mse-84000 > animevae,推荐使用kl-f8-anime2以及饱和度更高的vae。
之前似乎有听说2D模型用clip2,3D模型用clip1的说法,不知道是否正确,但是从测试结果看来,merong还是用clip2会好一点,clip调高时,除了老生常谈的双人,丢tag外,merong的出图质量会比其他模型显著下降。其他模型虽然好不到哪去,但至少还是可以拿出来展示,merong嘛,clip9以上基本就不能看了。
这张clip11恐怖谷效应都要出来了
七步出图法已经好久没生效过了……理论的大厦再次倒塌……
这次把采样方法换回了DPM++ 2M Karras,果然又收敛了,看来确实是采样方法的原因。
就是例一最后几步的手在口袋中放了又拔,拔了又放,可能AI也在纠结到底放不放手吧。
推荐步数20步—40步,其实调高也无所谓,单纯就是费点时间而已,调低也无所谓,这个模型在15步左右就收敛了,只要不小于15步就行。
LMS和PLMS日常出不了图,最近不知道怎么回事,测试的几个模型都不支持LMS和PLMS,merong还好一点,只有局部会出现噪点无法消除的情况,但还是不建议使用。
DPM fast日常步数不足,DPM adaptive日常需要长时间,其他采样方法之间就并没有什么缺点了,除了DPM++ 2M Karras外,也可以试试DPM++ SDE Karras,Euler a,尝试一下另一种构图。
我还是没有理解这个值为什么叫提示词相关性……我觉得clip都比它和tag更有关系……
虽然merong在scale4时也不是不能看,但我更推荐将相关性拉到7—15,之前的模型在相关性值过高时会导致画面线条变粗,且饱和度过高,亮度过曝,但是merong由于是2.5D模型,本来就没有线稿这种概念,自然也没有线条变粗这一说,过曝和高饱和现象也要到差不多20才会影响画面,因此,将相关性拉高反而有助于提高画面质量。
但是在例二中,出现了提高相关性值而出现的画面局部缺失现象,值得注意。
这次模型对比测试是我带过最差的一届,各个模型都出现了或大或小的问题,少有能让我满意的(大概是我tag写的烂……还是我的锅),勉强挑了几张能看的:
相比之下,居然还是merong的质量出奇的高。
重新写了模板,这回能正常显示了。
从测试表可以看到的是,merong是个人体特化模型,在不加tag和仅质量tag的情况下,merong三个例子均画出了妹子,虽然人体结构都很奇怪。
但这并不代表merong就画不好场景,相反,merong画场景的水平也是一流的,并且由于是2.5D模型,merong的场景会有相当丰富的细节且贴近现实:
但是2.5D带来的影响也在另一个地方被反映出来:脸部特写
通过上图可以发现,脸部占画面的比例越大,人物的2.5D化就越明显,这种厚涂或者说游戏cg的画风最大的特点就是鼻子,如上图二,2D的鼻子一般只会用一点,或者一块高光来表示,即使是特写了脸部也是如此,一块高光表示立体感,两个黑点表示鼻孔,像merong这样有明显鼻梁鼻骨构造的就不属于2D范围而偏向2.5D甚至3D了。
但是merong这个2.5D的特点会在它脸部占比缩小时减弱甚至消失,上图三就完全看不出来是个2.5D的模型,而完完全全偏向二次元了,这个特性在使用merong时可以好好利用一下,或许有意料之外的出图效果。
男的也能画,但这也太弱受了……
另外,merong似乎理解不了北京烤鸭,给画成梅菜扣肉了……
多人的烧烤场景也能不错地生成:
但是merong对画人好像有很深的执念,画场景时表现不出来,但一旦具体到某个事物,即使不写与人相关的tag,merong也要强行加个人,比如:
之前的北京烤鸭中也是如此。
另外,merong画白背景有不错的表现,虽然也出现人物占比过大的问题,但应该可以通过tag调整:
画单色图就不怎么样了:
另外水彩的效果也不甚理想,毕竟是2.5D的模型:
其实以开始我并不是很喜欢这个模型,我拿它出的第一张图是这样的:
当时给了手上只有寥寥几个二次元模型的我一点小小2.5D震撼,然后我就再也没碰过这个模型,直到之后整理模型时,发现和其他一众2.5D的模型比起来,merong竟然是最贴近二次元的那个,遂决定做一期merong的推荐弥补之前对他的误解。
merongmix是个相当不错的模型,我觉得我还没发挥出它的全部实力,如果掌握得当,应该可以实现一种相当不错的2.5D偏二次元得画风,得益于merong得写实属性,在背景,光影,细节,服饰方面,merong的表现相当优秀,尤其是服饰,质感可以说相当真实,但这种写实的质感同样也会有人不大喜欢,见仁见智吧。
如果说缺点,就是在使用中,merong在某些tag组合上出现畸形的概率奇高,大概在70%—80%左右,然后就是写实的服饰有时候会有违和感。
另外说一句,我真的很认真地去还原凛冬了,熊耳朵吧,确实都有,棕发加红色挑染吧,确实难画,不是红发就是棕发,要不就是内衬红发,挑染的效果确实不容易画,更何况这发色还很容易被环境色带偏,真要画的话,还是用Lora吧。
本期测试表,图包链接:
链接:https://pan.baidu.com/s/1gW6GjuY694aYqtTPhe8DPQ?pwd=t96p
提取码:t96p
解压码:suye
模型链接:
链接:https://pan.baidu.com/s/1nq8nUKNz2y1inP-DOeviVw?pwd=vsnv
提取码:vsnv
如果有想测试的模型可以提供模型私聊哦(不测试真人模型哦)
下一期模型预告:momoko(不知道啥时候会写出来,有可能咕咕咕)