摘要: 参考: https://blog.csdn.net/weixin_39589455/article/details/135995424 https://github.com/keras-team/autokeras/issues/1475 引入环境变量: export LD_PRELOAD=$LD_ 阅读全文
posted @ 2024-12-18 23:30 Cold_Chair 阅读(175) 评论(0) 推荐(0)
摘要: 某些 LLM 需要 flash-attention 库来训练/推理,一些 LLM 可用可不用,但用了会快点。 flash attention 官网: https://github.com/Dao-AILab/flash-attention 检查版本: ldd --version 如果 < 2.32, 阅读全文
posted @ 2024-12-18 16:57 Cold_Chair 阅读(5617) 评论(0) 推荐(0)