[agent] Agentic AI - Andrew NG
背景知识与前戏
[1]
Stanford CS230: Deep Learning I Autumn 2025
我们仅仅重点关注其中的agent系列。

Next, AI Agentic Workflow.

范式转变(Paradigm shift)
| 方面 | 传统软件 | Agentic AI 软件 |
|---|---|---|
| 数据处理 (Data Handling) | 使用结构化数据和预定义格式(如数据库、JSON);输入输出类型严格、固定 | 处理非结构化输入(如自由文本);需要动态理解,输入输出更模糊 |
| 逻辑与行为 (Logic and Behavior) | 遵循确定性的、基于规则的逻辑,行为可预测且可重复 | 运行在模糊逻辑和概率推理之上,结果不那么可预测 |
| 开发方式 (Development Approach) | 开发者明确地定义函数和工作流程 | 开发者通过 Prompt 设计、链式调用和外部工具(API、数据库等) 来组合工作流程 |
| 维护与更新 (Maintenance and Updates) | 稳定且可预测;修复一个问题通常不会影响其他功能 | 调整一个 prompt、工具或逻辑,可能意外影响多个工作流 |
| 用户交互 (User Interaction) | 功能和交互流程是静态、预定义的(如菜单、表单) | 支持动态对话式交互,能灵活响应不同用户意图 |
| 测试与调试 (Testing and Debugging) | 测试方法明确;相同输入会产生确定结果 | 因为行为具有不确定性和上下文依赖,需要迭代式、探索式测试 |
| 适应能力 (Adaptability) | 新场景或新任务需要重新编程实现 | 可以动态适应新的输入,但需要谨慎设计以保持系统稳定 |
| 系统设计 (Systems Design) | 通常是 单体架构或微服务架构 | 更像 “像经理一样思考”(协调多个工具、步骤和任务) |
企业工作流将从“人执行流程的软件系统” → 变成“AI执行流程的人类监督系统”。
Case 1 心得
因为传统软件:
input → output
测试非常简单。但 AI 系统:
input → reasoning → tool → reasoning → output
每一步都不确定;所以必须建立:多层 eval。
Case 2 Multi Agent workflow.
场景:Smart Home(智能家居),系统要管理很多事情:
-
-
温度
-
灯光
-
安防
-
能耗
-
娱乐设备
-
通知
-
如果只有 一个 AI agent,它要同时处理所有事情。
但这页 PPT 的思路是:
拆成多个专门 agent。
对比:
-
Single Agent
一个 AI 管所有事情。
问题:
| 问题 | 原因 |
|---|---|
| 系统复杂 | 所有逻辑堆一起 |
| 调试困难 | 出错不知道哪一步 |
| 扩展困难 | 加功能会影响整个系统 |
| 效率低 | 只能顺序执行 |
-
Multi-Agent
多个小 agent。
优点:
| 优势 | 原因 |
|---|---|
| 模块化 | 每个 agent 只做一件事 |
| 故障隔离 | 一个 agent 坏了不影响其他 |
| 优化更好 | 每个 agent 专精一个领域 |
| 调试简单 | 容易定位问题 |
| 并行处理 | 多个 agent 同时工作 |
| 灵活 | 可以接第三方工具 |
AI 的下一步 Since 2025.
Ilya Sutskever 提出的担忧
文中提到:
“more data might not always lead to better AI”
意思是:
继续增加数据,未必会让 AI 更强。
原因可能包括:
-
-
高质量数据已经接近耗尽
-
数据重复越来越多
-
新数据的信息量变小
-
所以 AI 的进步 可能变慢。
这就是:
Scaling plateau(规模瓶颈)
[2]
Link:硅谷坐标 x 田渊栋: 解析大模型护城河、记忆存储瓶颈与Agent对社会冲击
“算法”处于一个稳定的状态,但“数据”依然占据重要地位。
强化学习只是让预训练模型的潜在能力也得以发挥出来,让预训练模型的能力充分展示。
所以,强化学习能看到一个“上限”。 -- Ilya的观点一致?
implicit CoT 是“不说出来,但还在内部做推理”;
latent reasoning 是更大的总称,指“在隐空间里推理”;
Coconut 是 latent reasoning 下面一个非常具体、很有代表性的实现。
-
- 它让模型不必把每一步思路都翻译成自然语言(而是隐藏空间变量),因而有机会更高效地“想”,并减少被语言形式本身束缚。
DeepConf,达到置信度了 ,直接给结果。
AI时代,真正大的机会,不是卖“给专业人士用的工具”,而是直接替客户把工作做完?
-
- 平行世界专业模拟。
DeepLearning.AI 学习笔记
Build Agentic Workflow is valuable!
But how?
与上面的对比,下面的在细节步骤上也更为“自动化”。上面的有些仍然是 "predetermined",例如 web search as default tool。

Coding Skills of models are very important for Highly Autonomous.
因为 autonomy 往上走,不只是“会思考”,而是要:
-
发现当前工具不够用
-
自己补出缺口
-
把补出来的东西真正跑起来
-
根据运行结果继续修
-
而这 4 步里,最自然的媒介就是代码。
要学会引导大模型反复思考, write a draft and revise again and again.
Agentic Design Patterns:
- Reflection:先做,再检查,再改
- Tool Use:不会就查,算不准就调用程序/搜索/API
- Planning:先把任务拆步骤,再按顺序执行
- Multi-agent:一个人不够,就分角色协作
Module 1: Introduction to Agentic Workflows
👉 讲什么是 Agent + 基本工作流
-
- Agent vs 普通 LLM
- Workflow(多步执行)的核心概念
- 从“一次回答” → “持续决策系统”
Module 2: Reflection Design Pattern (从这里开始,看看有哪里还不太熟悉)
👉 核心:自我反思提升质量
-
- 先生成 → 再批判 → 再优化
- 类似:
- CoT + self-check
- 解决:
- 错误率高 / 不稳定

Module 3: Tool Use
👉 核心:调用外部能力
-
- API / 搜索 / 代码执行
- LLM ≠ 全能
- Agent = LLM + Tools
直接现编程解决问题,体现了Coding Skills在Agentic era的重大意义。

这节课花了不少篇幅讲:像 AISuite 这种库,会根据函数名、docstring、参数说明,自动生成 JSON schema,再把这个 schema 提供给模型,让模型知道“这个工具是干嘛的、什么时候该用、参数该怎么填”。

[Tool Syntax] aisuite 像是在给模型写函数说明书,JSON Schema = 给 LLM 的“工具说明书 / API 文档”。
[深远意义]:允许模型“自己写代码,再执行代码”,那这个工具会非常强,因为代码本身几乎可以变成一个 “通用工具层”。
。。。
MCP再深度理解下。
Module 4: Practical Tips for Building Agentic AI
👉 工程落地经验(很关键)
-
- Prompt设计
- 错误处理
- 状态管理
- 成本控制(token)
Module 5: Patterns for Highly Autonomous Agents
👉 高级Agent(重点)
-
- 多Agent协作
- 长期任务
- 动态决策
- 自动创建工具(重点趋势)
🧠 一句话总总结
👉
Agent = LLM + Workflow + Tools + Feedback(Reflection)

浙公网安备 33010602011771号