当前位置:首页|资讯|AI绘画|编程|ChatGPT

【AI绘画】在Colab平台部署LoRA训练模型

作者:WSH032发布时间:2023-02-19


摘要

        阅读本专栏,你可以学会免费云平台Colab的使用并在其上面部署你的AI绘画训练模型。通过阅读详细的操作教程,使用傻瓜式的操作方法,你将获得自己原创的lora模型。

关键词:免费云平台、AI绘画训练、LoRA模型


序言

基于Bilibili UP主[秋葉aaaki]发布[保姆式LoRA模型一键包文件]修改而来。

最核心的文件的整合与代码均由UP主作者[秋葉aaaki]完成

本人只是完成Colab下的依赖安装,notebook内使用的下载源不保证长期有效(失效了自行对着注释修改连接)。本人未学习过python与linux的使用,代码在ChatGPT的指导下完成,不足部分,有兴趣者可修改并分享。

---分享的责任与获取的自由---


2月20日21点更新:按照秋葉aaaki的建议进行了部分的修改

内容:更换aria2下载工具、精简了依赖安装的代码、加入下载模型的交互、更换默认底模为 animefull-final-pruned、添加了修改模型输出路径至谷歌硬盘的教程。


正文

首先Colab需要科学上网

——————————————————————————————

(一)操作:

打开Colab分享连接:

https://colab.research.google.com/drive/1_f0qJdM43BSssNJWtgjIlk9DkIzLPadx?usp=sharing

操作前强烈建议观看[保姆式LoRA模型一键包文件],视频详细的介绍了图片准备工作和训练参数的设置。

按照notebook内的指导操作就行!除了图片上传和参数设置其余均为傻瓜式操作。

  1. 在谷歌硬盘(点左上角的黄色CO图标)创建并命名文件夹,上传处理后训练图片到硬盘

  2. 按步骤运行代码块完成硬盘挂载和依赖安装

  3. 选择你的模型(可以用默认的animefull-final-pruned模型)

    注意不要选择过大模型,会爆系统ram(见下文QA1)

  4. 开始训练

  5. 训练完成后去谷歌硬盘下载输出的lora模型

    训练完后从右上角断开并删除运行时,长时间闲置GPU会被Colab强行下线并冷却12h以上不分配GPU资源

如果你使用不了谷歌硬盘,按notebook内步骤(四)的指导在Colab环境中建立同名文件夹并上传文件即可,但是要注意Colab一旦重启就会清空所有文件,要及时下载保存。

(Colab环境中直接操作,稳定性和网速均不好,不推荐)

——————————————————————————————

(二)提示:

如果出现什么报错,看看输出信息,将其复制给ChatGPT然后结合注释自行修改下。

notebook中使用的Lora训练环境来源于[秋葉aaaki]的github,默认提供的底模来源于抱脸站,不保证资源长久有效,若出错了自行对照注释找到相关代码块修改下(2023年2月19日实测Colab的Tesla T4 GPU可运行)。

常见问题:

  1. Q:输出代码的最后出现(kill:9)字样

    A:你使用的底模过大,加载训练时候爆ram了,更换5G以下的模型(实测  Anything-v4.5-原版-7G模型 会爆ram)。

  2. Q:训练时间过长,担心中途奔溃怎么办

    A:按照notebook内七)、2更改输出路径至谷歌硬盘,输出的模型会被长期保存

  3. Q:无法挂载谷歌硬盘怎么办

    A:请看notebook内文末教程

长时间训练的建议:

  1. 使用秋葉aaaki推荐的云平台训练AutoDL

  2. 挂载谷歌硬盘,按照notebook内七)、2修改模型输出路径至谷歌硬盘

  3. 注意免费Colab用户连续GPU运行时间最长为12h,超时会被强行下线,请确保在这之前已从Colab环境中下载你需要的文件。

——————————————————————————————

(三)实测:


2023年2月19日实测

环境为Tesla T4 GPU

底模Anything-v4.5 f32精度剪枝 5G模型

7_tag

76张512*768图片,共计29.1M

在开始的瞬间系统ram峰值会达到10G/12.9G(也就是说使用更大的底模就会爆ram),训练正常开始后系统ram会降下来,稳定在5.7G/12.9G。

开启xformers后,上述参数条件下,显存占用9.6G/12G,耗时1:20:36完成训练

不开启xformers,显存占用会明显变大(上述条件下,没测试过,很可能就爆显存了)。


(四)经验:

LoRA模型的拟合效果非常好。

但是注意,训练并不是模型文件越大,batch、epoch越大,步长越小越好,因为十分容易导致过拟合,相关参数的设置要依靠经验。有时候我训练15个epoch,但我最终可能用的是第8或10个epoch输出的模型,lora权重0.8~0.9,因为最终的模型很容易过拟合,当然也可能是我其他参数没设置好。

同时喂给LoRA的训练图片也要挑选好,比如你要训练人物,最好是经过图像处理后的图片能包含完整的人物(full boddy),或者完整的脸(detailed face),如果裁剪后的图片只有半边身体或者半张脸,那么后续模型的使用中也很容易出现生成的人物跑出图片或被奇怪的东西挡住情况。

错误(来源pixiv)

正确(来源pixiv)

如出现裁剪问题,建议先把同一尺寸的图片进行训练,再使用LoRA模型训练参数中提到的Q:如何从已有的 LoRA 模型上继续训练

方式来训练剩余图片


(五)分享

最后分享几张,训练材料从pixiv上下载的,小鸟游星野的Lora训练模型成果

可以看到训练效果还是很好的


结尾

        感谢[秋葉aaaki]的无私分享,所有的文件都是他整合的,我只是搬运

        看到最后,如果觉得此专栏对你有用,不妨三连分享,让更多人知道


by Happy_WSH


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1