摘要:
How Do Large Language Models Acquire Factual Knowledge During Pretraining? 通常认为,LLM在预训练中学习知识。但是LLM对长尾知识的习得很差。有观点认为,Attention的qkv结构是对知识进行抽取(q*k计算attn_s 阅读全文
posted @ 2024-07-20 20:10
风生水起
阅读(302)
评论(0)
推荐(0)
摘要:
预处理知识库文件 阅读全文
posted @ 2024-07-20 09:58
风生水起
阅读(335)
评论(0)
推荐(0)
浙公网安备 33010602011771号