摘要:
参考: https://blog.csdn.net/weixin_39589455/article/details/135995424 https://github.com/keras-team/autokeras/issues/1475 引入环境变量: export LD_PRELOAD=$LD_ 阅读全文
posted @ 2024-12-18 23:30
Cold_Chair
阅读(175)
评论(0)
推荐(0)
摘要:
某些 LLM 需要 flash-attention 库来训练/推理,一些 LLM 可用可不用,但用了会快点。 flash attention 官网: https://github.com/Dao-AILab/flash-attention 检查版本: ldd --version 如果 < 2.32, 阅读全文
posted @ 2024-12-18 16:57
Cold_Chair
阅读(5617)
评论(0)
推荐(0)

浙公网安备 33010602011771号