InfoQ AI、ML与数据工程趋势报告2025——技术采用周期全景分析

关联知识库:InfoQ AI、ML与数据工程趋势报告2025——技术采用周期全景分析

InfoQ AI、ML 与数据工程趋势报告 2025——技术采用周期全景分析

来源InfoQ - AI, ML and Data Engineering Trends Report - 2025
发布时间:2025年9月24日
作者团队:Srini Penchikala、Savannah Kunovsky、Anthony Alford、Daniel Dominguez、Vinod Goje
阅读时长:18分钟


执行摘要

本报告基于 Geoffrey Moore《跨越鸿沟》 的技术采用周期理论,将 AI/ML 技术分为四个阶段:创新者(Innovators)、早期采用者(Early Adopters)、早期大众(Early Majority)、晚期大众(Late Majority)。InfoQ 编辑团队通过播客访谈和专家研讨,梳理了 2025 年 AI 技术领域的关键趋势和未来 12 个月的技术走向。


核心洞察(Key Takeaways)

# 核心观点 影响程度
1 物理 AI(Physical AI) 是 AI 技术的下一个前沿 ⭐⭐⭐⭐⭐
2 RAG 已成为商品化技术,在企业应用中广泛采用 ⭐⭐⭐⭐⭐
3 AI 从"助手"转变为"共同创造者",整个应用可由 AI 参与开发、测试和交付 ⭐⭐⭐⭐⭐
4 AI 驱动的 DevOps 流程和实践受到广泛关注 ⭐⭐⭐⭐
5 人机交互(HCI) 需将技术目标与人类真实需求对齐 ⭐⭐⭐⭐
6 MCPA2A 等新协议提供 AI 应用与后端系统的互操作性 ⭐⭐⭐⭐⭐

技术采用周期全景图

2025 年趋势图变化亮点

创新者阶段新增:
├─ AI Agents
├─ 多模态语言模型
├─ 物理 AI
├─ MCP(模型上下文协议)
├─ 人机交互(HCI)
├─ 推理模型
└─ AI DevOps

早期采用者:
├─ 语言模型创新(LLM)
│   ├─ GPT-5
│   ├─ 视觉 LLM(VLM)
│   ├─ 小型语言模型(SLM)
│   └─ 状态空间模型(SSM)
└─ RAG(检索增强生成)

早期大众:
├─ Vector DBs(向量数据库)
├─ MLOps
└─ Synthetic Data(合成数据)

晚期大众:
├─ Lakehouses
├─ Stream Processing(流处理)
└─ Distributed Computation(分布式计算)

一、创新者阶段(Innovators)

1.1 AI Agents(人工智能代理)

重大进展

  • Anthropic:Claude Subagents 发布
  • Amazon:Bedrock Agents 发布
  • OpenAI:Generalist ChatGPT Agent(与电子表格、演示应用协同)
  • Amazon 开源:Strands Agents SDK
  • NVIDIA:Visual AI Agents(视频分析解决方案)

技术演进

过去:执行单一任务
现在:复杂系统级协同
├─ 工作流中的链式任务协调
├─ 基于情境的自主决策
└─ 跨服务/系统的集成能力

专家观点

Daniel Dominguez(SamXLabs 管理合伙人):

AI 代理不再只是与聊天机器人互动,现在它们可以帮助我们预订会议、更新数据库、启动云资源。Amazon Bedrock Agents 让我们能够在任何基础模型之上构建生产就绪的代理,无需管理基础设施。它们可以链接任务、AWS 服务并安全地解释数据。

Anthony Alford(Genesys 高级开发总监):

这些代理就像所有东西一样,是一把双刃剑,既强大又实用,但也有点危险。一个可以调用工具的 LLM,包括文件系统操作,可能会尝试 "rm -rf"。当 AI 可以擦除硬盘、访问银行账户时,AI 安全变得尤为重要。

实际应用案例

  • Amazon Q 命令行:自动生成 shell 脚本(例如:"找到这个文件夹中的所有图像文件,然后放大它们")
  • 生产级部署:AWS、Google、Azure 均提供代理创建平台

1.2 多模态语言模型(Multimodal LLMs)

核心能力

多模态 = 文本 + 图像 + 音频 + 视频

训练数据类型     →  能力提升
────────────────────────────────
文本 + 图像       →  视觉理解
文本 + 音频       →  语音交互
文本 + 视频       →  动态场景理解
全模态融合        →  跨模态关联推理

价值体现

  • 更深入的理解:跨数据类型关联
  • 更丰富的见解:多维度信息融合
  • 更相关的结果:情境感知增强

1.3 物理 AI(Physical AI)⭐⭐⭐⭐⭐

定义

物理 AI = AI 在机器人身上的体现

设备端语言模型 + 机器人技术 = 物理世界的智能交互

重大发布

公司 产品 特性
Google Gemma 3n 针对手机、笔记本、平板优化的生成式 AI 模型
Microsoft Mu Windows 设置的轻量级设备端 SLM,卸载到 NPU,每秒响应 >100 token
Google Gemini Robotics On-Device 视觉语言动作(VLA)模型,在机器人设备本地运行
NVIDIA 三机解决方案 DGX(训练)+ Omniverse/Cosmos(模拟)+ Jetson AGX Thor(推理)

NVIDIA 物理 AI 完整解决方案

训练阶段:NVIDIA DGX AI 超级计算机
    ↓
模拟阶段:NVIDIA RTX PRO 服务器 + Omniverse + Cosmos
    ↓
推理阶段:NVIDIA Jetson AGX Thor
    ↓
部署:完整的物理 AI 系统

专家洞察

Savannah Kunovsky(IDEO 新兴技术董事总经理):

边缘计算对于物理 AI 尤为重要。当我们开始在人们家中捕捉真正珍贵而私密的数据时,边缘技术让我们能够设计出值得信赖的体验。数据在本地处理,而不是发送到遥远的、用户不了解的地方。这对于物理 AI 在家庭中的普及至关重要。

Anthony Alford

推理语言模型是将 LLM 应用于机器人技术的一种途径。NVIDIA 机器人技术总监 Jim Fan 博士说,他相信机器人领域的 GPT-1 已经出现在某篇论文中了,我们只是不知道是哪一篇。他声称,如果没有机器人的实现,我们就不会拥有通用人工智能(AGI)。


1.4 模型上下文协议(MCP)⭐⭐⭐⭐⭐

基本信息

  • 发布方:Anthropic
  • 发布时间:2024年11月
  • 定位:开放标准

核心价值

传统方式:
LLM ←→ 自定义集成1
LLM ←→ 自定义集成2
LLM ←→ 自定义集成3
(碎片化、维护成本高)

MCP 方式:
LLM ←→ MCP 协议 ←→ 统一接口 ←→ 所有外部系统
(标准化、低成本、高复用)

作用机制

MCP 提供了一种 标准化协议,用于:

  • 外部工具与 LLM 的集成
  • 系统数据与 LLM 的共享
  • 数据源与 LLM 的连接

行业采用

OpenAI:集成 MCP 支持
Microsoft:产品中集成 MCP
Google:采用 MCP 标准
所有主流编码工具:支持 MCP

专家讨论

Anthony Alford

MCP 无疑已经起飞并被广泛采用。我们讨论的所有编码工具都支持 MCP。MCP 可能是实现代理的关键技术。它的实用性可能在某种程度上受到模型上下文窗口的限制,因为 MCP 中发生的所有事情——输入、输出——都会进入模型上下文。

像 Playwright(用于运行测试的 MCP 服务器)这个看起来是个大赢家。Figma 也有一个,你可以让编码代理在 Figma 中查看模型,然后开始创建。

Daniel Dominguez

MCP 最令人兴奋的部分在于其 互操作性。有了 MCP,你可以使用 Google 搜索的 Anthropic Claude 模型,或者让 OpenAI 使用你公司的数据。所以现在一切都将在同一个协议下运行。这使其具有可扩展性,也使多智能体系统成为可能——来自不同公司、不同来源的不同智能体协同工作。

实际应用

  • Playwright MCP 服务器:自动化测试
  • Figma MCP 集成:编码代理查看设计稿并生成代码
  • 企业数据访问:统一接口访问内部数据源

1.5 人机交互(HCI)

核心理念

将所有研究和工程目标与人类的真正需求对齐,理解这些技术如何融入人们的生活,并为此进行设计。

IDEO 的实践案例

Savannah Kunovsky 分享的设计创新:

案例 1:商业设计师的创新表达

设计师:Tomochini
项目:儿童可持续材料玩具研究

传统方式:
讲故事 → 描述想法 → 展示图片

创新方式:
制作预告片 → 视觉化呈现 → 更有力的表达
商业模式游戏化 → "振动编码"(vibecode) → 可比较的互动体验
案例 2:设计流程的转变
过去:拿出手机 → 停下来 → 靠边停车 → 回复信息
未来:继续日常生活 + 同时处理信息(流畅界面)

Apple Liquid Glass 设计系统

虽然被批评"进化而非革命",但其理念重要:

  • 流畅界面:信息可以在不同表面流动
  • 情境计算:在需要的地方访问信息(如烹饪台面上显示食谱)
  • 无缝交互:不需要专门拿出设备

麻省理工学院媒体实验室:流畅界面小组

研究方向:如何让技术嵌入到真正需要的地方

设计工具的 AI 应用

IDEO 团队的 AI 工具使用:

工种 AI 工具应用 价值
视觉图形设计师 快速原型、风格探索 提升表达速度
交互设计师 界面生成、交互模拟 快速迭代验证
商业设计师 商业模式游戏化、预告片制作 更有力的沟通
软件设计师 代码生成、架构探索 加速技术实现

共同点:让专注于某一工种的人能够 以前所未有的方式表达想法


1.6 其他创新者阶段技术

推理模型(Reasoning Models)

  • 从知识驱动到推理驱动的转变
  • 更强的逻辑推理和问题解决能力

AI DevOps

  • AI 驱动的流程自动化
  • 智能运维和性能优化
  • 代码审查和质量保证自动化

二、早期采用者阶段(Early Adopters)

2.1 语言模型创新(LLM Innovations)

OpenAI GPT-5

发布策略变化
传统方式:
用户选择模型 → GPT-4 / GPT-4 Turbo / GPT-4o / o1

GPT-5 创新:
AI 自主选择 → 自动判断用哪个版本(专业版/快速版)

Anthony Alford 的评价:

我其实挺喜欢这一点。OpenAI 在命名他们的模型时有点纠结。他们有一个模型叫 4o,还有另一个叫 o4。这有其逻辑性,但并不总是显而易见。GPT-5 的自主选择是一个有趣的发展。

Savannah Kunovsky 的洞察:

OpenAI 团队意识到,他们实际上需要简化界面,才能打造出真正能引起共鸣、对人们更有用的消费产品。随着大型语言模型的功能成为常态,界面层以及我们如何帮助人们与这些技术互动,将成为企业最重要的差异化因素。

视觉 LLM(VLM)

  • OpenAI Sora:生成视频的先驱
  • 从文本生成到视频生成的跨越

小型语言模型(SLM)

应用场景:

  • ✅ 设备端推理
  • ✅ 隐私保护应用
  • ✅ 成本敏感部署

其他发展

  • 状态空间模型(SSM)
  • 扩散模型(Diffusion Models)

2.2 检索增强生成(RAG)⭐⭐⭐⭐⭐

技术成熟度

2023:新兴技术
2024:快速增长
2025:商品化(Commodity)

企业采用现状

Anthony Alford

这些东西确实正在变得司空见惯。在企业软件领域确实正在逐渐普及。任何拥有大型文档数据库、大量知识文章的企业都会关注这一点。

创新应用:设计流程的变革

Savannah Kunovsky 分享 IDEO 的实践:

传统设计调研流程
1. 和企业内部一群人交谈
2. 在线搜索企业经营状况
3. 研究他们正在创造什么
4. 了解重点和 CEO 讯息
5. 从零开始设计
RAG 增强的设计流程
1. 构建 RAG 系统访问企业文档
2. 开始设计前就获得大量背景信息
3. 从丰富的信息库出发开展工作
4. 非技术人员也能轻松创建和使用

价值总结

RAG 让技术创新开始拥有更多适用于非技术人员的应用。它们不仅提供商业机会,还提供数据可用性。


2.3 自动化机器学习(AutoML)

  • 经历广泛开发和应用
  • 各组织的多个应用程序采用
  • 从创新者晋升到早期采用者

三、早期大众阶段(Early Majority)

技术已跨越鸿沟,进入主流应用

3.1 向量数据库(Vector DBs)

  • 应用场景:语义搜索、RAG 系统、推荐引擎
  • 代表产品:Pinecone、Weaviate、Milvus、Qdrant
  • 成熟标志:企业级部署广泛、工具链完善

3.2 MLOps

  • 定义:机器学习运维(ML + DevOps)
  • 核心能力
    • 模型版本管理
    • 自动化训练流水线
    • 模型监控和再训练
    • A/B 测试和灰度发布
  • 代表工具:MLflow、Kubeflow、SageMaker

3.3 合成数据(Synthetic Data)

  • 应用场景
    • 隐私保护训练
    • 数据增强
    • 边缘案例模拟
  • 价值:解决真实数据稀缺和隐私问题

四、晚期大众阶段(Late Majority)

技术已完全成熟,成为核心架构模式

4.1 数据湖仓(Lakehouses)

  • 代表产品:Databricks Lakehouse、Snowflake
  • 架构特点:数据湖 + 数据仓库的优势融合
  • 成熟标志:事实标准

4.2 流处理(Stream Processing)

  • 代表产品:Apache Kafka、Apache Flink、Apache Pulsar
  • 应用场景:实时数据处理、事件驱动架构
  • 成熟标志:大规模生产部署

4.3 分布式计算(Distributed Computation)

  • 代表技术:Apache Storm
  • 发展阶段:传统技术,已被新一代技术部分替代
  • 现状:仍在特定场景使用,但不再是主流选择

五、未来预测(团队展望)

5.1 技术趋势预测

预测 时间范围 可能性
AI 代理和 AI 编码工具持续发展 未来 12 个月 ⭐⭐⭐⭐⭐
对人们真正有用的技术成为互联网新基础 未来 2-3 年 ⭐⭐⭐⭐
视频 RAG 兴起,AI 生成视频难以分辨 未来 12-18 个月 ⭐⭐⭐⭐
开始讨论"AI 泡沫"(技术本身会留存) 未来 6-12 个月 ⭐⭐⭐
AI 成为生活中更微妙的一部分 持续进行中 ⭐⭐⭐⭐⭐

5.2 详细预测分析

预测 1:AI 代理和编码工具

现状:工具爆发期
趋势:整合与标准化
未来:无缝集成到开发流程

预测 2:实用性驱动

核心观点:真正解决问题的技术才会成为下一代互联网基础

预测 3:视频 RAG

技术演进

文本 RAG(当前)
    ↓
图像 RAG(开始普及)
    ↓
视频 RAG(下一阶段)
    ↓
挑战:区分人类生成 vs AI 生成

预测 4:AI 泡沫讨论

关键区分

  • ❌ 不是技术泡沫(技术已验证且持续发展)
  • ✅ 是行业泡沫(估值、投资、商业模式)

类似历史:

  • 2000 年互联网泡沫(技术留存,公司洗牌)
  • AI 可能重演类似模式

预测 5:无处不在的 AI

现在:显性交互(打开 ChatGPT 输入提示)
未来:隐性交互(情境感知、后台运行)

类似演进:
互联网早期:拨号上网,专门"上网"
互联网现在:永久在线,无感知连接

六、关键洞察与启示

6.1 技术选型建议

对于企业决策者

技术阶段 采用策略 风险程度
创新者 小范围试点,关注潜力 高风险高回报
早期采用者 战略性部署,建立优势 中等风险
早期大众 全面推广,标准化实施 低风险
晚期大众 基础设施化,优化成本 极低风险

对于技术团队

创新者阶段技术(如 AI Agents、MCP、物理 AI):

  • ✅ 建议:保持关注,参与开源贡献
  • ✅ 行动:POC 验证,积累经验
  • ⚠️ 注意:生产部署需谨慎评估

早期采用者技术(如 RAG、LLM):

  • ✅ 建议:积极采用,建立竞争优势
  • ✅ 行动:生产部署,积累最佳实践
  • ⚠️ 注意:技术仍在快速演进

早期大众技术(如 Vector DBs、MLOps):

  • ✅ 建议:全面应用,标准化流程
  • ✅ 行动:企业级部署,建立规范
  • ⚠️ 注意:技术成熟但需优化

6.2 人机交互的设计原则

原则 1:以人为中心

❌ 错误:技术驱动设计
✅ 正确:需求驱动设计

问自己:
- 这项技术解决了什么真实问题?
- 它如何融入用户的日常生活?
- 它让生活更简单还是更复杂?

原则 2:隐私与信任

Savannah Kunovsky 的洞察:

当我们开始在人们家中捕捉真正珍贵而私密的数据时,边缘技术让我们能够设计出值得信赖的体验。数据在本地处理,而不是发送到遥远的、用户不了解的地方。

实践建议

  • ✅ 边缘计算优先
  • ✅ 透明的数据处理流程
  • ✅ 用户可控的隐私设置

原则 3:流畅性与情境感知

理想状态:技术融入生活,而非打断生活

传统:拿出手机 → 解锁 → 打开应用 → 操作 → 锁屏 → 收起
未来:自然的、情境感知的、无感知的交互

6.3 AI 安全考量

代理系统的风险

Anthony Alford 的警告:

当 AI 可以擦除硬盘、访问银行账户时,AI 安全变得尤为重要。这些工具可以让我们的生活变得轻松,但也可能让生活变得非常不愉快。

安全实践框架

第一层:权限控制
├─ 最小权限原则
├─ 操作审计日志
└─ 关键操作人工确认

第二层:沙箱隔离
├─ 文件系统隔离
├─ 网络访问限制
└─ 资源使用限制

第三层:监控与回滚
├─ 实时操作监控
├─ 异常行为检测
└─ 快速回滚机制

MCP 安全问题

已知风险

  • MCP 服务器安全问题已被报道
  • 上下文窗口限制(所有 I/O 进入模型上下文)
  • 跨系统访问的权限管理

缓解措施

  • 严格的服务器认证
  • 细粒度的权限控制
  • 审计和监控机制

七、技术深度解析

7.1 物理 AI 的技术栈

NVIDIA 三机架构详解

┌─────────────────────────────────────────┐
│         训练阶段(Training)             │
│   NVIDIA DGX AI 超级计算机               │
│   - 大规模数据处理                       │
│   - 模型训练和优化                       │
│   - 迁移学习和微调                       │
└─────────────────┬───────────────────────┘
                  │
                  ↓
┌─────────────────────────────────────────┐
│        模拟阶段(Simulation)            │
│   NVIDIA RTX PRO 服务器                  │
│   + Omniverse(物理仿真平台)            │
│   + Cosmos(机器人仿真)                 │
│   - 虚拟环境测试                         │
│   - 边缘案例模拟                         │
│   - 安全性验证                           │
└─────────────────┬───────────────────────┘
                  │
                  ↓
┌─────────────────────────────────────────┐
│        推理阶段(Inference)             │
│   NVIDIA Jetson AGX Thor                 │
│   - 设备端实时推理                       │
│   - 低延迟决策                           │
│   - 能效优化                             │
└─────────────────────────────────────────┘

设备端 LLM 的技术挑战

挑战 技术方案 代表产品
模型尺寸 蒸馏、剪枝、量化 Gemma 3n、Mu
计算资源 NPU 加速、异构计算 Microsoft Mu (NPU)
延迟要求 本地推理、缓存优化 Mu(>100 token/s)
能耗限制 模型压缩、动态调度 Jetson AGX Thor

7.2 MCP 协议架构

协议层次

┌─────────────────────────────────────────┐
│         应用层(Application)            │
│   ChatGPT / Claude / 编码工具            │
└─────────────────┬───────────────────────┘
                  │
                  ↓
┌─────────────────────────────────────────┐
│      MCP 客户端层(MCP Client)          │
│   - 请求封装                             │
│   - 响应解析                             │
│   - 会话管理                             │
└─────────────────┬───────────────────────┘
                  │
                  ↓ MCP 协议
                  │
┌─────────────────────────────────────────┐
│      MCP 服务端层(MCP Server)          │
│   - 请求路由                             │
│   - 权限验证                             │
│   - 数据转换                             │
└─────────────────┬───────────────────────┘
                  │
                  ↓
┌─────────────────────────────────────────┐
│         数据源层(Data Sources)         │
│   文件系统 / 数据库 / API / 工具         │
└─────────────────────────────────────────┘

MCP vs 传统集成方案

维度 传统方案 MCP 方案
集成复杂度 O(n×m)
n个模型 × m个数据源
O(n+m)
统一协议
开发成本 每个集成独立开发 一次开发,处处可用
维护成本 多套代码维护 统一协议维护
扩展性 线性增长 指数级增长
互操作性

7.3 RAG 技术演进

三代 RAG 技术

第一代:Naive RAG(朴素 RAG)
├─ 向量检索
├─ 简单拼接
└─ 直接生成

第二代:Advanced RAG(高级 RAG)
├─ 混合检索(向量 + 关键词)
├─ 重排序(Reranking)
├─ 查询改写
└─ 上下文压缩

第三代:Modular RAG(模块化 RAG)
├─ 多路召回
├─ 多轮迭代
├─ 自适应检索
└─ 反思与修正

企业级 RAG 架构

用户查询
    ↓
查询理解(Query Understanding)
├─ 意图识别
├─ 实体抽取
└─ 查询扩展
    ↓
多路召回(Multi-Recall)
├─ 向量检索(语义相似)
├─ 关键词检索(精确匹配)
├─ 图检索(关系推理)
└─ SQL 查询(结构化数据)
    ↓
融合与重排序(Fusion & Reranking)
├─ 结果去重
├─ 相关性评分
└─ 多样性优化
    ↓
上下文构建(Context Building)
├─ 信息压缩
├─ 重要性排序
└─ Token 预算管理
    ↓
生成与验证(Generation & Validation)
├─ LLM 生成
├─ 事实核查
└─ 引用标注
    ↓
答案呈现

八、专家团队介绍

Srini Penchikala

职位:高级软件架构师
角色:InfoQ AI/ML/数据工程社区首席编辑
经验:软件架构、设计和开发超过 22 年
著作

  • 《使用 Apache Spark 进行大数据处理》
  • 《Spring Roo in Action》(合著)

演讲经历

  • Big Data Conference
  • Enterprise Data World
  • JavaOne
  • SEI 架构技术大会(SATURN)
  • No Fluff Just Stuff

Savannah Kunovsky

职位:IDEO 新兴技术董事总经理
专业领域

  • AI/ML
  • 扩展现实(XR)
  • 机器人技术
  • 互联网的未来

职业亮点

  • 与 John Gottman 博士合作开创情感 AI(Emotion AI)
  • 共同创办非洲科技教育连锁学校 Moringa School
  • 软件工程师出身

演讲平台

  • SxSW
  • Fast Company 创新节
  • 麻省理工学院媒体实验室
  • 哈佛大学

认可:麻省理工学院、《福布斯》、世界经济论坛

Anthony Alford

职位:Genesys 高级开发总监
专业领域:客户体验相关的 AI 和 ML 项目
经验:可扩展软件设计和构建超过 20 年
学历:电气工程博士(专攻智能机器人软件)
研究方向

  • 人机交互
  • SaaS 业务优化预测分析

Daniel Dominguez

职位:SamXLabs 管理合伙人
经验:为初创公司和财富 500 强企业开发软件产品超过 13 年
学历

  • 华盛顿大学工程学学位
  • 机器学习专业学位

身份:AWS 社区建设者(机器学习级别)
热情:利用 AI 和云计算打造创新解决方案

Vinod Goje

专业领域:金融领域的 AI 应用
经验

  • 高频、低延迟固定收益电子交易系统开发
  • 可扩展的云端 AI/ML 平台构建

定位:开源 AI 的支持者
方法论:数据驱动的方法推动金融科技创新


九、相关资源与扩展阅读

InfoQ 相关文章

  1. 架构与设计

    • "Scaling the BBC Design System: Tooling, Community, Governance and Gardening"
    • "Beyond the Hype: Architecting Systems with Agentic AI"
  2. AI/ML 深度

    • "Anthropic Reveals Three Infrastructure Bugs behind Claude Performance Issues"
    • "Hugging Face Launches mmBERT: 1,800+ Languages Support"
  3. DevOps 实践

    • "Microsoft Announces General Availability of AKS Automatic"
    • "Pulumi Launches Neo: Agentic AI Platform Engineer"

推荐会议

  • QCon San Francisco(2025年11月17-21日)
  • QCon AI New York(2025年12月16-17日)
  • QCon London(2026年3月16-19日)
  • InfoQ Dev Summit Munich(2025年10月15-16日)

开源项目


十、行动建议

对于技术领导者

短期(3-6个月)

中期(6-12个月)

长期(12-24个月)

对于开发者

技能提升路径

第一阶段:基础能力
├─ 掌握 1-2 个主流 LLM API
├─ 学习 RAG 基础架构
└─ 了解 Prompt Engineering

第二阶段:进阶能力
├─ MCP 协议开发
├─ AI Agent 构建
├─ Vector DB 应用
└─ MLOps 实践

第三阶段:专家能力
├─ 多模态模型应用
├─ 物理 AI / 机器人技术
├─ HCI 设计思维
└─ AI 安全与伦理

实践项目建议

  1. 初级项目:基于 OpenAI API 的 RAG 应用
  2. 中级项目:MCP 服务器开发(如 Notion、Jira 集成)
  3. 高级项目:多智能体协作系统
  4. 专家项目:边缘设备的 AI 应用

对于产品经理

产品设计原则

  1. AI 能力评估

    • 哪些功能适合 AI?
    • AI 的成本效益如何?
    • 用户信任度如何建立?
  2. 体验设计

    • 从显性交互到隐性交互
    • 情境感知和个性化
    • 错误处理和用户控制
  3. 价值度量

    • 效率提升指标
    • 用户满意度
    • ROI 计算

附录:技术对比矩阵

AI 代理平台对比

平台 开发语言 生态系统 生产就绪 成本
Amazon Bedrock Agents Python, Java AWS ⭐⭐⭐⭐⭐ 按使用付费
Anthropic Claude API 开放 ⭐⭐⭐⭐ 按 token 付费
OpenAI Agents Python OpenAI ⭐⭐⭐⭐ 按使用付费
Strands SDK 多语言 开源 ⭐⭐⭐ 免费(开源)

向量数据库对比

产品 性能 易用性 扩展性 生态 价格
Pinecone ⭐⭐⭐⭐⭐ ⭐⭐⭐⭐⭐ ⭐⭐⭐⭐⭐ ⭐⭐⭐⭐ $$
Weaviate ⭐⭐⭐⭐ ⭐⭐⭐⭐ ⭐⭐⭐⭐ ⭐⭐⭐⭐ $
Milvus ⭐⭐⭐⭐⭐ ⭐⭐⭐ ⭐⭐⭐⭐⭐ ⭐⭐⭐ Free
Qdrant ⭐⭐⭐⭐ ⭐⭐⭐⭐ ⭐⭐⭐⭐ ⭐⭐⭐ Free/$

重要链接


报告生成时间:2025-10-04
信息来源:InfoQ - AI, ML and Data Engineering Trends Report 2025
版权声明:内容版权归 InfoQ 和 C4Media Inc. 所有
报告作者:AI 辅助整理(基于原文内容)


结语

这份趋势报告为我们描绘了 AI/ML 技术的全景图。从创新者阶段的物理 AI 和 AI Agents,到已经商品化的 RAG 技术,再到成为基础设施的数据湖仓和流处理,技术的演进清晰可见。

关键要点回顾

  1. 物理 AI 是下一个前沿,将 AI 从数字世界带入物理世界
  2. MCP 协议 正在成为 AI 互操作性的事实标准
  3. RAG 已从创新技术变为企业标配
  4. 人机交互 需要从技术驱动转向需求驱动
  5. AI 安全 随着能力增强变得越来越重要

对于技术从业者而言,保持对创新者阶段技术的关注,同时深入掌握早期采用者和早期大众阶段的技术,是在 AI 时代保持竞争力的关键。

未来属于那些能够将技术与人类真实需求连接起来的人。

posted @ 2025-12-05 23:47  吾以观复  阅读(4)  评论(0)    收藏  举报