摘要:
$ pip install flash-attn --no-build-isolation 报错 RuntimeError: FlashAttention is only supported on CUDA 11.7 and above. Note: make sure nvcc has a sup 阅读全文
摘要:
在QA环节,有位同学问了第六章的predict函数在哪,书中没有给出,使用predict_ch3稍作更改可得。 def predict_ch6(net, test_iter, device, n=6): #@save """预测标签(定义见第3章)""" for X, y in test_iter: 阅读全文