1 2 3 4 5 ··· 153 下一页
摘要: 多智能体系统是 2026 年主流构建方式,Claude 的智能体团队功能、OpenAI 的 Swarm 框架、LangGraph 的编排层以及 CrewAI都指向同一个结论:复杂任务需要协调配合的专家,而非一个万能通才。 为什么单个智能体会失效 一个智能体包揽一切,就像一人创业公司——小规模时凑合, 阅读全文
posted @ 2026-03-14 22:00 deephub 阅读(2) 评论(0) 推荐(0)
摘要: 一旦模型能读完所有内容检索增强生成(RAG)就没有存在的必要了,开发者只需要把整个代码库或者多年的聊天记录塞进 prompt,让模型自行处理,所以AI行业花了好几年追逐更大的上下文窗口:4K → 32K → 128K → 1M tokens。 但是真正在生产环境里这么做的时候就出了问题,因为答案变差 阅读全文
posted @ 2026-03-13 22:00 deephub 阅读(2) 评论(0) 推荐(0)
摘要: 多数关于 LangGraph 和 Semantic Kernel 的比较文章已经过时。过去六个月里,两个框架分别进行了重大的更新,所以本文将梳理的是实际发生的变化、当前的代码形态,以及如何进行技术选型。 2026 年构建 Python AI Agent 的现实状况是:都足够成熟的可选框架有两个,多数 阅读全文
posted @ 2026-03-12 21:30 deephub 阅读(1) 评论(0) 推荐(0)
摘要: 传统统计方法在时间序列分析中既简洁又有力,但面对大规模时间序列集合时,扩展性往往不尽如人意。现实中的趋势变化往往微弱、带有噪声、数量也不止一个,靠肉眼判断既不可靠也不现实。一旦需要处理数十乃至数百条时间序列,人工识别就更不可行了。Figure 1: Identify the optimal numb 阅读全文
posted @ 2026-03-11 21:07 deephub 阅读(1) 评论(0) 推荐(0)
摘要: 多数开发者通过教程学Python,教程教的是语法——循环、类、字典。但有经验的Python工程师依赖一套完全不同的工具:惰性求值、描述符、动态类创建、函数式管道。 这些不是入门技巧,是架构层面的武器。 开始使用它们之后,项目体积缩小了,维护成本降低了,自动化也顺畅得多。以下是改变一切的七个技巧。 h 阅读全文
posted @ 2026-03-10 20:51 deephub 阅读(2) 评论(0) 推荐(0)
摘要: 把 AI agent 的逻辑拆分到多个独立运行的服务中,听起来复杂做起来也确实容易乱。LangGraph 的 RemoteGraph 特性算是一个干净的方案:本地编排器负责流程控制,远程图服务器承担具体计算,状态管理和控制流的职责边界清晰。 本文要构建的项目是一个循环数学引擎:本地图编排一个远程图: 阅读全文
posted @ 2026-03-09 20:57 deephub 阅读(3) 评论(0) 推荐(0)
摘要: 和 AI 对话超过 20 轮之后,看着它慢慢开始胡说八道,如果有过这种经历,那么你就应该看看这篇论文 跟 AI 聊天机器人对话时,用户输入的每一个字都会被保存,模型给出的每一条回复同样会被保存。所有历史内容在下一轮对话中被回传给模型,再下一轮,再下一轮,像河底的沉积物越堆越高。 每一个聊天机器人、每 阅读全文
posted @ 2026-03-08 21:43 deephub 阅读(5) 评论(0) 推荐(0)
摘要: Microsoft AutoGen 曾是构建 LLM 多智能体系统的标杆性开源框架。2023 年末由 Microsoft Research 发布后迅速成为研究人员和开发者的默认选择:智能体之间可以互相对话、调用工具、编写并执行代码、在流程中引入人类审批,以对话式的协调方式取代了单条长 Prompt 阅读全文
posted @ 2026-03-07 21:52 deephub 阅读(11) 评论(0) 推荐(0)
摘要: 训练集和测试集如果来自不同的分布,会怎样? 类似的问题不是没遇到过只是语境不同,比如说模型上次构建以来是否发生了数据漂移?销售分析中产品 A 和产品 B 的分布是否存在差异?归结下来问的都是同一件事,如何量化两个分布之间的差异。 https://avoid.overfit.cn/post/7e479 阅读全文
posted @ 2026-03-06 21:01 deephub 阅读(2) 评论(0) 推荐(0)
摘要: AI 和 LLM 的进步通常归因于三个方面的持续改进:模型、数据、计算。三者互相关联。要跑起那些参数量庞大的模型,就需要足够的计算资源来支撑。Llama 3 最大的模型超过 4000 亿参数在 16000 块 GPU 上训练了数周乃至数月,优化计算意味着在更低的成本下训练更大的模型。 本文将介绍 G 阅读全文
posted @ 2026-03-05 20:54 deephub 阅读(3) 评论(0) 推荐(0)
1 2 3 4 5 ··· 153 下一页