当前位置:首页|资讯|Stable Diffusion WebUI|Stable Diffusion|GitHub

stable diffuson webui flash-attention2 性能测试

作者:无节操の网管发布时间:2023-10-18

stable diffusion webui 目前还不正式支持flash-attention2,需要手动合并 flash-attention2 的 PR:github.com/AUTOMATIC1111/stable-diffusion-webui/pull/11902

xformers-0.0.23版本也添加了flash-attention2的支持,安装flash-attention2后速度与纯flash-attention2差不多

仅在大分辨率图像上有明显加速,小图像上与xformers、sdp方法差不多


仅flash-attention2:

xformers-0.0.23 + 安装flash-attention2:

xformers-0.0.23 未安装flash-attention2:




Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1