当前位置:首页|资讯|AI绘画|Stable Diffusion WebUI|Stable Diffusion

轻薄本如何玩转AI绘画?Stable Diffusion WebUI OpenVINO加速方案 | 安装教程及整合包

作者:Nenly同学发布时间:2023-11-13



OpenVINO的全称是“Open Visual Inference and Neural network Optimization”(开放式视觉推理和神经网络优化),是由英特尔公司开发的一个免费工具包,有助于从框架优化深度学习模型,并使用推理引擎将其部署到英特尔硬件上。


它常被开发者使用,用于快速开发应用程序和解决方案,以解决各种与AI深度学习相关的任务(包括人类视觉模拟、自动语音识别、自然语言处理和推荐系统等),可扩展跨英特尔® 硬件的计算机视觉和非视觉工作负载,从而最大限度地提高性能。


这个工具套件有两个版本:OpenVINO 工具套件(由开源社区支持)和 Intel Distribution of OpenVINO 工具套件(由 Intel 支持)。该工具包是跨平台的,并且可以在Apache License 2.0 版本下免费使用,支持在英特尔平台上采用一次写入、随处部署的方法进行深度学习部署,包括CPU、集成GPU、英特尔Movidius VPU和FPGA。


来源:Wikipedia & OpenVINO™ 工具套件概述的官方文档



在AI绘图方面,大家应用最为广泛的由Automatic1111开发的Stable Diffusion WebUI,现在就可以通过英特尔® 分发的 OpenVINO™ 工具套件在英特尔 CPU 和 GPU(集成显卡和独立显卡)等硬件上加速运行,相较于以往只能依靠CPU出图的效率有非常大的提升。


这篇专栏里介绍的方案,便是旨在为使用英特尔硬件尤其是使用搭载英特尔处理器的轻薄本)的用户,提供更高效的部署、应用方式。


OpenVINO Toolkit 的 WebUI 分支


适用范围


使用英特尔(Intel)处理器且不含独立显卡的笔记本/台式机用户是OpenVINO加速的最大受益者。如果处理器搭载了高性能的集成显卡(如Xe锐炬核显),加速效果会更为明显。


轻薄本用户请出列!


根据实际上机测试的结果——


在移动端:使用OpenVINO加速后的i5-13500H(+Iris Xe核显)上,最快仅需24秒左右就可以完成一张512*512像素的图片绘制。作为对比,加速前使用纯CPU绘制需要花费约112秒


在桌面端:使用OpenVINO加速后的i9-13900K上,最快仅需32.5秒。作为对比,加速前使用纯CPU绘制需要花费约100秒


测试数据(使用视频中的英特尔轻薄本与自用台式机)


然而,目前阶段(2023年11月)OpenVINO的加速仍具有一定的局限性,例如需要独立调用脚本、单独编译模型时间较长,以及无法兼容LoRA、ControlNet等对U-Net进行操作的扩展。


除了这些以外,WebUI的大部分功能,如基本的文/图生图,后期处理,提示词语法等都是可以使用的。插件兼容性方面暂未做过多测试。

(如果没了LoRA和ControlNet就没有跑图的动力了,那就再等等吧!)



如果你使用的是Intel的独立显卡(如ARC锐炫独立显卡),可以使用IPEX(Intel Extension for PyTorch)提供的另一套方案进行加速。目前,已有开发者针对这一套方案制作了使用体验非常完善的本地整合包,可以查看Up主 @Nuullll 的这一期视频:


想要使用OpenVINO加速AI绘图,你需要在你的电脑上完整安装“OpenVINO版”的Stable Diffusion WebUI,并在进行文生图、图生图时,调用脚本中的“Accelerate with OpenVINO”。下面是详细的操作步骤:


整合包

如果你是一位对AI绘画了解不多的个人用户,推荐使用整合包在Intel设备上运行Stable Diffusion WebUI。


这里,感谢@英特尔中国 的工程师提供的WebUI封装应用程序。你可以通过下面的链接下载一个包含.exe文件的安装程序。


链接:https://pan.baidu.com/s/1b2OTj6L7sogcJ_tuKhsD8A

提取码:0tld 

除了Stable Diffusion,还有一个大语言模型的包,感兴趣的朋友也可以下来玩玩


完成以后,双击 SD_Setup.exe 进行安装。选择一个空间较大的盘符进行安装即可。



安装完毕后,桌面上会出现一个快捷方式,打开即可运行程序。完成加载以后,点击“立即交互”,即可进入WebUI界面。



开启OpenVINO加速脚本


使用WebUI即可正常出图作画。然而,此时WebUI仍是在使用纯CPU进行计算(CPU:我顶不住啦!),和正常WebUI并无太大区别。


如果想要通过OpenVINO释放它的潜力,你需要在文生图/图生图界面的最下方,开启“通过OpenVINO加速”的脚本——



开启脚本后,会出现如下所示的一系列选项。



选择一个模型参数(config)。一般基于SD1.5的微调模型选择V1-inference.yaml,图生图重绘则选择V1-inpainting-inference.yaml



选择加速设备。如CPU带有核显(比如Iris Xe),优先选择用GPU加速;如CPU无核显(比如后缀为KF的处理器),则选择用CPU加速



下方两个复选框建议全部勾选。下面的一系列采样方式是经过OpenVINO验证较适合的,在其中选择的采样方式会覆盖WebUI里的参数选项。


上:覆盖主UI中的采样选择(建议使用以下采样方法,因为OpenVINO只验证了以下采样方法)
下:将编译后的模型缓存到磁盘上,以便在随后的启动中更快地加载模型(推荐)


设置完毕后,点击生成即可。


真 · CPU加速


一些注意事项


使用OpenVINO脚本加速时,它会将你在WebUI里设置的大模型进行一次“编译”来获取最佳的运行性能。这个编译会在第一次运行时进行,因此切换模型/采样方式后的第一次推理(或预热推理)会比随后的推理慢。

(根据实测,第一次编译一般需要花2~3分钟)


为了精确的性能测量,建议排除这种较慢的第一次推断,因为它不能反映正常的运行时间。

(完成一次编译以后,后续只要不改变参数,跑图的速度都是正常水平)


当分辨率、批量大小、设备或采样器(如DPM++或Karras)发生变化时,将重新编译模型。在重新编译之后,以后的推断将重用新编译的模型并实现更快的运行时间。因此,在设置更改后的第一个推理较慢是正常的,而随后的推理使用优化的编译模型并运行得更快。


另外(注意!),模型编译的缓存被保存在根目录下的cache文件夹内。长期使用会产生非常大的存储空间占用,推荐定期清理。


太大了……



代码部署


如果你有较为熟练的自主安装部署经验与一定的代码基础,可以参考Automatic官方的Intel设备部署流程,在Windows/Linux上部署OpenVINO加速的WebUI分支。


原项目地址:https://github.com/openvinotoolkit/stable-diffusion-webui/wiki/Installation-on-Intel-Silicon


Automatic 1111 Intel芯片部署流程:https://github.com/openvinotoolkit/stable-diffusion-webui/wiki/Installation-on-Intel-Silicon


原安装文档


我对相关页面做了一个完整翻译,因包含较多的Markdown格式不方便在专栏里呈现,感兴趣的朋友可以参阅:https://nenly.notion.site/Automatic-1111-4d9d2c51e83e44869a78d9003b320268?pvs=4


中文版文档


通过代码部署后,同样需要开启OpenVINO加速脚本,具体操作和上方讲解一致。




Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1