llama实验

尝试在实验室服务器上本地运行llama,看看llama可以干什么?

然后按照官网运行时报错:
…………
File "/defaultShare/archive/zhangyang/llama3/llama/model.py", line 288, in forward
mask = torch.triu(mask, diagonal=1)

通过new bing的回答进行如下尝试
在model文件的288行左右添加

mask = mask.to(torch.float32) # mask = torch.triu(mask, diagonal=1)

从而可以成功运行

细看代码参考:
https://www.cnblogs.com/xiangcaoacao/p/18173863
https://blog.csdn.net/weixin_43508499/article/details/132554559
https://zhuanlan.zhihu.com/p/679640407

细节问题:

  1. 缓存实现
  2. 旋转编码使用的函数

想法上:
为什么提示工程有效?
https://blog.csdn.net/2401_82469710/article/details/138614802

posted @ 2024-10-07 16:30  张扬zy  阅读(12)  评论(0)    收藏  举报