stable diffusion webui 目前还不正式支持flash-attention2,需要手动合并 flash-attention2 的 PR:github.com/AUTOMATIC1111/stable-diffusion-webui/pull/11902
xformers-0.0.23版本也添加了flash-attention2的支持,安装flash-attention2后速度与纯flash-attention2差不多
仅在大分辨率图像上有明显加速,小图像上与xformers、sdp方法差不多
仅flash-attention2:
xformers-0.0.23 + 安装flash-attention2:
xformers-0.0.23 未安装flash-attention2:
桃桃仁_ 2024-04-11
SoRaOtO@SYD 2023-03-10
莫咕哩 2023-05-24