摘要: 摘要: 《检索增强生成(RAG)在知识密集型NLP任务中的应用》这篇论文提出了一种创新方法,通过结合检索与生成技术,解决了传统语言模型在知识密集型任务中的四大痛点:知识更新成本高、缺乏可解释性、容易产生幻觉以及知识存储效率低。RAG框架将预训练检索器(基于DPR)与生成器(基于BART)结合,并利用外部知识库(如维基百科),实现了端到端的“先检索后生成”流程。论文提出的两种变体——RAG-Sequence(固定文档生成)和RAG-Token(动态切换文档)——分别适用于不同任务场景。实验证明,RAG在开放域 阅读全文
posted @ 2025-11-18 14:04 TTGF 阅读(81) 评论(0) 推荐(0)
摘要: 本文解读OpenAI关键论文《Training Language Models to Follow Instructions with Human Feedback》,该研究提出了人类反馈强化学习(RLHF)框架,解决大模型与人类意图对齐的问题。论文通过三步法:有监督微调、奖励模型训练和强化学习优化,使1.3B的InstructGPT在人类评估中胜过175B的GPT-3,输出偏好率达85%。模型在真实性、安全性和指令遵循方面显著提升,幻觉率从41%降至21%,毒性输出减少25%。 阅读全文
posted @ 2025-11-18 14:03 TTGF 阅读(152) 评论(0) 推荐(0)