flash-attention安装

在https://github.com/Dao-AILab/flash-attention/releases找到对应pytorch和cuda版本进行下载whl文件,然后通过pip install xxx.whl进行安装。
posted @ 2024-06-04 14:57  Shiyu_Huang  阅读(3193)  评论(0)    收藏  举报