大模型
大模型的演变

机器学习:

深度学习:

大模型演变:

大模型的使用与训练

预训练:

SFT(监督微调):

RLHF(基于人类反馈的强化学习):

大模型的特点与分类
特点:

分类:

大模型的工作流程
分词化(Tokenization) 与 词表映射:

大语言文本模型生成文本的过程:

大模型的应用
Agent
agent 流程图:


规划:

子任务拆解:


ReAct

ReAct(Reasoning + Acting)是一种结合推理与行动的框架,旨在提升大语言模型(LLM)处理复杂任务的能力。它通过交替进行内部推理和外部行动,模拟人类“思考-执行-调整”的问题解决方式。

为什么结合推理和行动,就会有效增强LLM完成任务的能力?

核心思想
推理(Reasoning)
模型分析任务、拆解步骤,生成解决问题的逻辑链(如:“需要先查天气,再推荐活动”)。
行动(Acting)
根据推理结果,调用外部工具或接口(如搜索API、数据库、计算器等)获取实时信息或执行操作。
循环迭代
结合行动结果重新推理,逐步逼近目标,直到任务完成。
工作流程示例(以订旅行计划为例)
推理:用户想周末去杭州,需确认天气和景点开放情况。
行动:调用天气API查询杭州周末天气。
推理:发现预报有雨,调整计划为室内活动。
行动:搜索杭州雨天推荐的博物馆并预订门票。
输出结果:生成包含雨天备选方案的旅行计划。
优势
减少幻觉:依赖外部数据而非纯内部知识,提升答案准确性。
动态适应:通过实时反馈调整策略,处理复杂、多步骤任务。
可解释性:推理过程透明化,便于追踪决策逻辑。
典型应用场景
复杂问答:需多来源数据整合的问题(如“比较A和B产品的优缺点”)。
自动化流程:结合工具调用完成订票、数据整理等任务。
交互式分析:通过持续对话细化需求(如商业报告生成)。
意义
ReAct推动语言模型从“静态应答”转向“动态问题解决”,为开发智能代理(如AutoGPT)奠定了基础,使AI更接近人类的问题处理能力。
本文来自博客园,作者:chuangzhou,转载请注明原文链接:https://www.cnblogs.com/czzz/p/18695087

 
                
            
         浙公网安备 33010602011771号
浙公网安备 33010602011771号