会员
周边
新闻
博问
闪存
赞助商
YouClaw
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
sirius_mchao
博客园
首页
新随笔
联系
订阅
管理
2026年3月17日
如果没有 Tools,Agent 什么都做不了
摘要: 很多人刚接触 Agent 时,会有一个很自然的想法: 只要模型够强,Agent 就能完成各种任务。 但在实际系统里,很快就会发现一件事: 没有 Tools,Agent 什么都做不了。 因为大模型本质上只会做一件事: 生成文本。 一、LLM 本身不会执行任何操作 举一个简单例子。 如果问模型: 北京现
阅读全文
posted @ 2026-03-17 10:10 秃头星AI
阅读(275)
评论(0)
推荐(0)
2026年3月16日
为什么 Agent 一定要“思考→行动→观察”?聊聊 ReAct 循环
摘要: 如果我们看过一些 Agent 框架,比如: LangChain AutoGen CrewAI 可能会发现一个有点奇怪的现象。 这些框架看起来功能很多: Tool 调用 Memory 多 Agent 协作 任务规划 但如果真的去翻源码或者架构,我们会发现一个事实: 很多 Agent 系统的核心逻辑其实
阅读全文
posted @ 2026-03-16 10:18 秃头星AI
阅读(173)
评论(0)
推荐(1)
2026年3月15日
当大模型开始控制设备:我是怎么理解 Agent 架构的
摘要: 最近两年 Agent 这个词越来越火。 一开始我其实是有点懵的。 RAG、Memory、Tool、Planning、Multi-Agent……各种概念一股脑冒出来,看起来像是很多新东西。 但如果你真的去做一些 Agent 系统,很快就会发现一件事: 这些概念看起来很多,但背后的逻辑其实并没有那么复杂
阅读全文
posted @ 2026-03-15 11:59 秃头星AI
阅读(233)
评论(0)
推荐(1)
2026年3月11日
AI 真正的突破,不是更聪明,而是开始能「行动」
摘要: 很多人都在讨论:GPT 什么时候变得更聪明。 但如果我们只把 AI 当成「更聪明的聊天机器人」,很可能就错过了这轮技术革命最重要的一件事—— AI 第一次,开始真正「行动」。 真正改变 AI 未来的,不是「大脑更强」,而是:AI 开始能自己干活了。 这就是 Agent 出现的根本原因。 理解这一点,
阅读全文
posted @ 2026-03-11 15:10 秃头星AI
阅读(290)
评论(0)
推荐(1)
2026年3月6日
Prompt 一旦超出上下文窗口,该怎么办?
摘要: 很多人第一次认真做大模型应用,都会遇到一个相似的时刻。 你把需求写得很完整:背景、目标、约束、参考材料,一条不落。结果模型的回答却开始变得奇怪: 有些关键点被忽略,有些结论前后打架,有些地方甚至像“没看到你的输入”。 直觉上我们会觉得:是不是 Prompt 还不够清楚? 但在不少场景里,真正的问题不
阅读全文
posted @ 2026-03-06 15:08 秃头星AI
阅读(220)
评论(0)
推荐(1)
2026年3月2日
别再把 RAG 当搜索:它本质上是在重构 Context
摘要: 我们可能听过很多对 RAG 的描述: “给 AI 接个知识库,它就能查资料了”; “加上 RAG,模型就不会胡说八道”; “RAG 就是让模型学会联网搜索”。 这些说法有一点道理,但都不够准确。 因为从系统机制上看,大语言模型本身并不会“查资料”。 它不会主动访问数据库,不会自己执行检索,更不会在推
阅读全文
posted @ 2026-03-02 09:11 秃头星AI
阅读(388)
评论(3)
推荐(2)
2026年2月28日
你以为AI记住了你,其实没有:大模型记忆机制拆解
摘要: 你可能有过这种体验: 昨天和 AI 聊过你的项目,它今天还能接着聊; 你让它“记住我的偏好”,它似乎也做到了; 在长对话里,它看起来像一个“有连续记忆”的协作者。 于是一个看似简单的问题出现了: 模型真的记住了吗? 这篇文章给一个清晰结论: 大模型本身并不“记忆”,它只是在每次推理时重新读取输入。所
阅读全文
posted @ 2026-02-28 11:09 秃头星AI
阅读(357)
评论(0)
推荐(1)
2026年2月27日
看见,才会回答:Context 如何重塑 AI 的能力边界
摘要: 如果必须用一句话概括大模型时代最重要的工程发现,那就是: 在模型参数固定的情况下,AI 的能力上限,主要由它在推理时能够同时访问的“有效信息量”所决定。 这不是比喻。而是一条在工程实践中反复被验证的系统规律。 理解这一点,几乎可以解释过去几年 AI 领域所有看似神奇的能力跃迁。 一、被忽略的事实 模
阅读全文
posted @ 2026-02-27 11:24 秃头星AI
阅读(241)
评论(0)
推荐(0)
2026年2月26日
你以为在给 AI 下命令,其实你在改写它的概率分布
摘要: 当人们第一次接触大语言模型时,最直观的体验是: 只要输入一句话,AI 就会按要求完成任务。 于是一个几乎本能的结论产生了: 👉 Prompt 就是在给 AI 下命令。 这听起来非常合理: “帮我写一篇文章” “总结以下内容” “翻译成英文” 这些表达方式与人类日常交流中的指令形式高度一致。 但如果
阅读全文
posted @ 2026-02-26 10:03 秃头星AI
阅读(523)
评论(2)
推荐(6)
2026年2月25日
AI真的会思考吗?当我们拆开大语言模型,看到的是一个完全反直觉的真相
摘要: 过去几十年,人类始终在追问一个问题: 机器能否真正思考? 当大语言模型出现后,这个问题第一次变得不再抽象—— 因为它们的表现确实像在思考。 它们能写代码、分析问题、总结复杂资料,甚至可以进行多步骤推理。 与之对话时,人们很容易产生一种直觉: 这不像工具,更像一个"理解世界的智能体"。 然而,如果我们
阅读全文
posted @ 2026-02-25 15:26 秃头星AI
阅读(1440)
评论(9)
推荐(14)
下一页
公告