二次元AI绘画又一个重量级模型发布了。今天给大家带来新鲜热辣的anything4.X模型测评。
之前我们讲过,大量使用768+高清训练的SD1.5模型令整体模型水平大幅提升。之前号称比NovalAI更强大的Anything系列,以anything3.0一鸣惊人,成为国内二次元模型系列的扛把子。
这两天最新发布的anything4.0版本,其实不仅仅是4.0版本,还有一个类似beta版的4.5版本,它们最大的改变应该是原生高清。有多高清呢?还是上图直接一点。
以下测试prompt来自元素法典1.5版。
直观的看,总体画风和之前大火的anything3.0是一致的。这里比较重要的提升有两点:
一是1280*768横屏下,几乎不会出现复制角色现象,值得称赞。
二是得益于模型高清输出,很多原本冗长的咒语都可以大幅度精简。
以上分辨率的输出,都是直接算法输出,还没有用到高分修复hires.fix功能,各位可能已经意识到了,只要稍微使用一点点高分修复,它就能实现壁纸级输出。
所以,我们也测试了这种可能性。
上面这张暗鸦法的测试图,在webui里面打开了hires.fix高分修正功能,使用latent算法,成功实现了1920*1152的输出。这已经是1080P壁纸级的水平了。
当然,根据我们的测试,目前的hires.fix算法经过了几次改进,但仍然会出现一些对原图不可预料的修改。需要使用者自行摸索参数组合。
实际上,我们也测试了1920*1152的直接输出性能(需要足够强的显卡),测试结果如下:
对于初学者来说,在日常应用之中,建议以下比较简单明了的放大(upscale)工作流。如下:
1、使用1280*768分辨率正常输出图像(细节损失最少)。然后,发送到extras。
2、使用extras功能,放大倍数调到2,使用swinIR模型放大。这样基础规格在1280*768的图片就无损放大,变成2560*1536的3K级别图片了。你也可以尝试把放大倍数提升到3.5以上,那样就能够输出真4K图片。
概况一下,在anything3.0的时代,因为出图质量限制在768*512规格,要达到2560*1536,需要出图以后3倍放大,这个时候其实仍然会因为原图的质量不够高而导致细节的损失。
anything4.X时代,出图质量的提升目前看是非常巨大的,在1280*768这个规格上完全hold得住,这让后续通过upscale输出2X乃至4X实现4K壁纸级输出完全没有障碍了。
最后,正如anything3.0版本在问世之后一直被作为很好的融合模型基础素材一样,anything4.x版本也同样是一个非常好的再创作基础,在anything4.0之前,实际上还没有真正达到768+基础训练的二次元模型, 可以说,这是高分辨率时代的最后一块短板,补上之后,AI绘画的出图质量又是一波大跨越进步。