摘要:
复旦NLP团队2023年发表的综述《The Rise and Potential of Large Language Model Based Agents》系统构建了LLM智能体的通用框架,提出以"大脑(LLM决策)-感知(多模态理解)-行动(工具调用)"为核心的技术范式,突破传统智能体的任务局限性。文章涵盖单智能体、多智能体协作、人机交互及智能体社群四大应用场景,并指出工具SKMA体系、安全护栏、结果检查三大落地关键。通过效用、社交性、价值观、进化能力四维评估体系,以及AGI 阅读全文
摘要:
本文解读OpenAI关键论文《Training Language Models to Follow Instructions with Human Feedback》,该研究提出了人类反馈强化学习(RLHF)框架,解决大模型与人类意图对齐的问题。论文通过三步法:有监督微调、奖励模型训练和强化学习优化,使1.3B的InstructGPT在人类评估中胜过175B的GPT-3,输出偏好率达85%。模型在真实性、安全性和指令遵循方面显著提升,幻觉率从41%降至21%,毒性输出减少25%。 阅读全文
摘要:
摘要: 论文《LoRA: Low-Rank Adaptation of Large Language Models》提出了一种高效的大模型微调方法,通过冻结预训练权重并插入可训练的低秩矩阵($\Delta W = B \cdot A$),显著降低参数规模(仅为原模型的0.01%-0.2%)。实验表明,LoRA在GLUE和生成任务上性能媲美甚至超越全量微调,同时实现无推理延迟、显存占用降低2/3等优势。该技术解决了传统微调资源消耗大的问题,成为大模型适配的主流方案,兼容多种Transformer架构,推动了大 阅读全文
摘要:
摘要 《Attention Is All You Need》论文开创性地提出Transformer架构,彻底改变了自然语言处理领域的技术路径。该论文解决了传统RNN/CNN模型的三大痛点:通过自注意力机制实现全局语义捕捉,摆脱了序列处理的低效性;多头注意力设计支持并行计算,大幅提升训练效率;缩放点积注意力有效解决长距离依赖问题。Transformer的核心创新包括:1)完全基于注意力机制取代循环结构;2)编码器-解码器堆叠架构;3)残差连接和层归一化优化训练稳定性。这一架构为GPT、BERT等大模型奠定了基 阅读全文