当前位置:首页|资讯

flash_attn-2.6.3-cp311-win_amd64.whl下载

作者:若有神祇发布时间:2024-09-17

flash-attention 2是一个AI加速库,很多AI推理都能用它来进行加速。但是对windows平台兼容性不太好。之前尝试编译,各种环境问题导致编译不成功,最近偶然编译成功了,我估计可能是因为没使用ninja进行加速编译,导致反倒误打误撞使用了正确的环境参数设置。 该预编译文件是在python3.11下,环境有torch2.4.1+cu124的这个版本下编译的。 需要的进群自取:369072404...【查看原文】


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1