大模型mcp

在大模型领域,MCP 是指模型上下文协议(Model Context Protocol)1。以下是关于它的详细介绍1:

  • 起源与背景:2024 年 11 月 25 日由 Anthropic 公司发布。随着大模型的广泛应用,在处理长对话、多轮交互时面临上下文长度限制导致的信息丢失问题,以及不同模型 Function Call 的结构和参数格式不同,使得多模型集成、统一管理和标准化接入复杂繁琐,MCP 应运而生。
  • 核心作用:可以将其比喻为 “AI 扩展坞”。MCP Server 作为智能中枢平台,能动态接入各类专业能力模块,如知识库、计算工具、领域模型等。当大语言模型需要完成特定任务时,可像 “即插即用” 般调用这些模块,实时获得精准的上下文支持,实现能力的弹性扩展,打破了传统 AI 模型的封闭性。
  • 架构组成:遵循客户端 - 服务器架构。包括 MCP 主机,即发起请求的 AI 应用程序,如聊天机器人、AI 驱动的 IDE 等;MCP 客户端,在主机程序内部,与 MCP 服务器保持 1:1 的连接;MCP 服务器,为 MCP 客户端提供上下文、工具和提示信息,每个 MCP 服务器都专精于一类工作,如读写浏览器、读写本地文件、操作 Git 仓库等。
  • 功能特点:
    • 标准化交互:定义了一套通用的消息格式和交互流程,打破不同 AI 模型和工具之间的壁垒,实现 “跨平台” 协作。
    • 自动化工作流:AI 可通过 MCP 自动化访问和操作外部工具,无需人工干预,提升工作效率。
    • 场景化应用拓展:为 AI 在各种场景下的应用提供可能,如编程辅助、数据分析、智能助手等。
    • 开放生态构建:开源特性鼓励开发者共同构建丰富的 MCP Server 工具生态,加速 AI 应用创新。
  • 应用场景:在智能编程助手中,AI 助手利用 MCP Server 访问 IDE 的文件系统等,实现代码生成等功能;在智能文档处理中,AI 通过 MCP Server 访问文件系统等,自动化处理文档;在智能数据分析中,AI 借助 MCP Server 连接数据库等,进行数据分析;在智能助手场景中,结合多种 MCP Server,AI 助手可完成信息搜集等复杂任务。
posted @ 2025-06-16 22:48  m516606428  阅读(198)  评论(0)    收藏  举报