当前位置:首页|资讯|Stable Diffusion WebUI|Stable Diffusion

人脸修复哪家强?GPEN,GFPGAN和CodeFormer三大神器对比

作者:39856736200_bili发布时间:2024-04-04

我们都知道,AI人脸修复的三驾马车:GPEN,GFPGAN和CodeFormer。它们的实力也是有目共睹的,甚至模糊到不认识的照片也能高清还原,也是我们大家常用到的,效果那是相当哇塞的。

SD出图经过CodeFormer修复

最常见的就是GFPGAN和CodeFormer,它们已经被集成到了Stable Diffusion WebUI中,至于SD为何不用GPEN,我猜是效率的问题,批量处理会很慢。那么,它们三者有何不同,具体效果如何,我们来探讨一下。

SD生图经过GFPGAN修复

GPEN (Generative Prior Embedded Network)、GFPGAN (GFP-Guided Photo Face Restoration) 和 CodeFormer 是三个在图像处理和修复领域具有代表性的深度学习模型。它们虽然都涉及图像恢复和增强,但在具体应用、方法论和技术细节上有显著的不同点。以下是对它们的相同点、不同点以及各自优势与劣势的对比分析:


相同点

1. 基于深度学习:GPEN、GFPGAN 和 CodeFormer 都是基于深度神经网络的模型,利用神经网络的强大表征学习能力来处理图像任务。

2. 图像恢复与增强:这三个模型都致力于改善图像的质量,无论是去除噪声、恢复细节、提升分辨率还是修复损坏部分,都是为了提升图像的视觉效果和可用性。

3. 应用领域:尽管各自侧重略有不同,但它们都可以应用于照片修复、老照片恢复、低质量图像增强等相似的场景,服务于数字媒体、档案修复、社交媒体等领域。

总的来说,都能用来修复老照片,使模糊图片清晰化,同样能修复视频。


不同点

GPEN :

- 任务焦点:GPEN 主要用于超分辨率(SR)任务,特别是基于单幅低分辨率图像生成高分辨率图像。

- 技术特点:GPEN 引入了一种新颖的“生成性先验嵌入”(Generative Prior Embedding, GPE)模块,通过学习一个潜在空间,将低分辨率图像映射到高维空间,再通过解码器生成高分辨率图像。这种方法结合了传统超分辨率方法中的先验知识与生成对抗网络(GAN)的优势。

- 优势:GPEN 能够有效地捕捉图像的结构和纹理信息,生成细节丰富、自然逼真的高分辨率图像。其生成性先验嵌入模块有助于提高模型的泛化能力和鲁棒性。对于图像中人脸很小的情况,GPEN的表现最优秀。还有就是GPEN背景增强的效果最好。

- 劣势:可能在处理极端退化或非常规分辨率提升比例的任务时,性能不如专门为此设计的模型。此外,GPEN 的训练可能比其他模型更为复杂,需要对生成性先验嵌入模块进行细致调整。也就是说,当图像中人脸极不清晰的时候,GPEN的保真度很差,与原人脸相差太大。


GFPGAN :

- 任务焦点:GFPGAN 特别专注于人脸照片的恢复,尤其是老照片、低分辨率或损坏人脸的修复。

- 技术特点:GFPGAN 利用预训练的生成对抗网络(GAN)模型(如StyleGAN)作为先验知识,通过引导滤波器预测网络(Guided Filter Prediction Network, GFPNet)来指导人脸修复过程。它还引入了感知损失、身份保持损失等多任务损失函数,确保恢复的人脸既保留原始身份特征,又具有高清晰度和自然外观。

- 优势:GFPGAN 在人脸恢复任务上表现出色,能够恢复极高细节的人脸图像,同时保持身份一致性。其利用预训练GAN模型作为先验知识的方法有效利用了大规模无监督数据,提高了恢复效果。经过长期使用,个人感觉GFPGAN的面部增强效果和保真度之间的平衡,是把握的最好的,而且速度最快。

- 劣势:GFPGAN 专注于人脸修复,对于非人脸或非人脸主导的图像恢复任务可能效果不佳。此外,由于涉及到复杂的多任务损失和预训练模型引导,其训练和应用可能较为复杂。

背景增强效果很差,修复后的脸部过渡处理不好,有明显边界。


CodeFormer:

- 任务焦点:CodeFormer 主要面向图像修复、去噪、超分辨率等更广泛的图像恢复任务,尤其擅长处理含有结构信息的图像(如文本、线条、边缘)。

- 技术特点:CodeFormer 结合了Transformer架构与编解码器结构,通过自注意力机制捕获全局依赖关系,并通过局部卷积保持局部细节。它使用多层感知机(MLP)作为解码器,生成图像补丁的像素值。

- 优势:CodeFormer 由于采用了Transformer架构,能够有效地处理长距离依赖关系,特别适合于恢复含有明显结构信息的图像。其通用性强,能够在多种图像恢复任务上取得良好效果。CodeFormer修复后的面部过渡自然,无明显边界。

- 劣势:相较于专门为特定任务(如人脸恢复)设计的模型,CodeFormer 可能需要更多的训练数据和计算资源才能达到最佳性能。对于高度专业化的任务(如人脸恢复中的身份保持),可能需要额外的技术调整或损失函数来增强针对性。速度相比GFPGAN略显慢。


测试:

下面我们举个栗子,对比一下三者效果,我随便找一张美女图,让三者分别修复一下。

分别展示三者修复前后对比,左边为原图,右边为修复后的图:

可以看到,三者脸部修复效果都不错,GPEN背景增强效果强于另两位。

放大看脸部:

GPEN脸部细节优于另两者,GFPGAN脸部边缘头发部位有明显分界线,GPEN和CodeFormer边缘过渡自然。再放大看:

为什么会这样?我用的GFPGAN和CodeFormer是单独部署的,GFPGAN的脸部处理模块是facexlib,CodeFormer的脸部处理模块是facelib,结果证明facelib边缘处理比facexlib好,我的GFPGAN如果脸部处理模块换成facelib,边缘问题就解决了。然而,实际使用中SD集成的GFPGAN和CodeFormer,它们共用facexlib,都会出现硬边缘的问题,facexlibfacelib的代码大致相同,有一些小差别,反正我看不懂,也不会改,就直接把facexlib换成了facelib


另外,要吐槽的是,这三个神器,虽然都有照片上色和划痕修复功能,但我测试过,效果没法看,除了GPEN上色还勉强。照片上色还是用deoldify,或者ControlNet的recolor;划痕修复用微软的Bringing-Old-Photos-Back-to-Life。


综上所述,GPEN、GFPGAN 和 CodeFormer 在图像恢复与增强方面各有侧重点和优势。GPEN 专攻超分辨率,GFPGAN 针对人脸照片修复,而 CodeFormer 更通用,适合处理包含结构信息的图像恢复任务。选择哪个模型取决于具体的任务需求、数据性质和资源限制。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1