什么是踏马的 MCP

date
Mar 31, 2025
slug
what-is-the-model-context-protocol
status
Published
tags
AI
LLM
Dev
Agent
MCP
summary
type
Post
notion image
什么是踏马的 MCP?
这是不是又一个噱头,一堆搞 AI 的坏叔叔坏姐姐们炒出来的新概念?
可惜,当下不是,但未来不一定(因为基于我对开发协议的朴素理解,前浪很容易死在沙滩上)。
不过 MCP 还是值得关注或者研究一下的,因为这代表了人们对如何让 LLM 更好的链接物理世界的一个探索。
如果你曾经尝试过让真正有用的一个 LLM 驱动的 AI 应用,比如接入了支付体系、能同步数据到多维表格、又或者自动发送信息到聊天应用中,就一定会遇到如何集成 API 这个难题?
 
现在,想直接把 API 与 LLM 集成,是需要足够的技术底蕴,并且对特定的 API 功能和限制有深入的了解。诶,那有小伙伴就要问了,“现在 AI Coding 这么强,我直接把文档喂给 LLM,让它自己搞定就行了啊” 可惜,理想很丰满,现实很骨感。一个完整的 API 文档,可能包含多个层级目录或者跨组件调用,每个组件都有相应的参数结构,容易爆了 LLM 的上下文,也容易制造幻觉,做出错误的决定。
糟糕的是,每个模型调用 API 的方式是不同的,需要为每个模型单独做适配;
更糟糕的是,每集成一个新的 API,这些步骤都得重复来一遍。
 
这时候,天空一声巨响,MCP 闪亮登场。
就像 Type-C 一样,标准化了一个设备如何链接外部设备和配件
MCP,则是标准化了 LLM 如何链接不同数据源和工具。
 
本文,我将尽可能用通俗易懂的方式,解释 MCP 是什么,为什么值得关注,以及 MCP 是如何运行的。
 

什么是踏马的 MCP

MCP(Model Context Protocol, 模型上下文协议)是由 Anthropic 推出的一个全新的开放标准,旨在让 LLM 与 应用程序 更容易协作,从而解锁开发 AI 工具 和 工作流的更多方式。
而从本质上来说,MCP 是 LLM 和 应用程序 的翻译,帮助开发者构建由 LLM 驱动的 AI Workflow 或者 AI Agent。试想一下,我们每天会用到一些工具应用,比如飞书、钉钉、邮箱、缺德地图等,但同时也在用 ChatGPT、Claude、DeepSeek 这样的 LLM。
notion image
MCP 就是帮助串联应用和 LLM 的桥梁,让 LLM 在咱现有的工作流或技术栈中执行各种各样的任务。

为什么需要 MCP-SERVER

诶那为什么需要 MCP,为什么是现在?为什么不用传统的方式直接调用 API 来构建 LLM 应用?
嗯嗯看看咱那迷人的老祖宗,车同轨、书同文所带来的便利,MCP 则是能让开发者更轻松地创建跨模型、可扩展的 AI 应用,无需花大量的时间与 API 文档、集成 Bug 和 有着奇奇怪怪特性的 workflow 做斗争。
 
举个栗子。
我想构建一个 Research 应用,输入为我的看到微信公众号链接,这个应用能阅读我的内容,并且去自行探究里面的内容,然后产出研究报告,收录到我的飞书知识库里。
notion image
这里需要做哪些集成?
首先是集成LinkReader,它需要解析我输入的文章链接,提取出内容;
接着,LLMs 讨论出探究项,去网上,去 reddit、去 arxiv 或者去某个专业网站搜集相关资料,这里就需要集成 WebSearchReddit APIArxiv API 等等搜索框架;
然后写啊写啊,写出了一份不错的报告,要发送到我的飞书知识库,就需要 飞书 API
呵,那就意味着得阅读成百上千个文档,搞清楚我该用哪些接口、需要什么认证、如何写请求格式,
然后向 LLM 拜一拜,请求它能成功调用。
 
诶那我为什么不把文档喂给 AI,让它自己搞定嘞?毕竟大家都说「程序员下岗倒计时!」
notion image
哦看吧,飞书光关于知识库的 API 就有 16 个,很容易出现幻觉。LLM 可能不知道该调用哪个工具、何时调用、如何处理边缘情况。
最终,还是得靠咱这个聪明的开发者,深入理解集成逻辑,手把手引导 LLM 怎么做。
 
但如果,这个工具的开发者(比如飞书的工程师们),把 LLM 需要的信息打包成一个标准格式呢?这就是 MCP 的用武之地。
MCP 不再让 LLM 去翻阅冗长的文档,而是将工具的关键功能提炼成 LLM 能理解和交互的协议,提高开发效率,也带来了不少好处。
 

为啥 MCP 对所有人都有好处?

这里涉及哪仨方?AI 应用开发者、工具平台方、还有开源社区。
  • 对于 AI 应用开发者:不再需要为每个工具研究 API 调用方式,只需接入 MCP-Server,LLM 就能完成所有繁重工作。不仅开发速度够快,应用的可扩展性也更高,可以更方便的集成更多的新工具。
  • 对于平台方:提供 MCP-Server,能让平台更容易被集成,能带来更多使用场景、更高用户参与度,构建更强大的生态系统。
  • 对于开源社区:任何人都可以创建并托管自己的 MCP Server,帮助 LLM 更容易接入主流工具,共享的基础设施能让大家更快地构建应用。
简单来说,MCP 利好 AI 应用的开发,为 LLM 与软件工具的交互建立了新标准,减少了开发者的工作流,提高了 AI 应用的可扩展性,也帮助平台扩大了影响力。
 

MCP 是怎么运行的呢?

下面会比较技术向
前文一直在讲,MCP 是 LLM 和 软件工具 之间的“翻译”,让 LLM更容易且正确地调用 API。下面将简单介绍 MCP 的运行方式。

1. 托管的 MCP Servers

MCP 可以理解为以前的微服务架构。AI 应用不再直接调用 API,而是与 MCP Server「沟通」。
MCP Server 来决定该如何调用 API,来完成需求。
可以选择私有化部署自己的 MCP Server,也可以用他人托管的 MCP Server(软件工具官方 or 开源社区)

2. 为工具创建标准化协议

每个软件工具都可以发布自己的 MCP 接口——一个面向 LLM 理解和交互而设计的,简化的功能描述和标准数据模型接口,能够大大降低了集成复杂度,并在不同 LLM 应用之间建立了一致性。
理想情况下,工具的开发者自己创建并维护官方 MCP,当然开源社区也可以为该工具创建并共享 MCP 服务器。可以想象成以前的各类工具站

3. 不再需要构建时集成

传统的 LLM 驱动 AI 应用开发,需要在「构建阶段」集成 API,这意味着每个功能都要手动编写与工具 API 的链接代码。
但 MCP 可以让 AI 应用「运行时」扩展。
不再需要从头阅读 前言不搭后语 的 API 文档、不再需要面对琳琅满目触目惊心的报错代码哀嚎。
只需要链接到该工具的 MCP 服务器,AI 应用就可以立即使用,无需重构或重新部署,可以愉快的下班玩耍。

4. 更快的开发流程

MCP 引入了一种全新的交互流程,让 LLM 与工具 API 的通信更高效:
  1. LLM 向 MCP 服务器发送请求;
  1. MCP 服务器解析请求并与工具 API 交互;
  1. 工具返回的响应通过 MCP 服务器传回;
  1. MCP 服务器将结果返回给 LLM。
这种新范式将 LLM 应用与工具 API 解耦,使开发过程更快、更顺畅、更可靠。
notion image

总结

随着越来越多的开发者和公司采用 MCP,我们很可能看到 AI 应用的爆发式增长——这些应用更容易构建、更容易维护、更容易扩展。并且 MCP 是开源的,开发者社区将在塑造未来中扮演重要角色——从维护 MCP Server,到改进文档和协议标准。
MCP 正在改变我们链接 AI 与 现实世界应用的方式,通过 LLM 与 API 的交互建立标准,MCP 开启了一种全新的 LLM 应用开发范式。MCP 让应用更具扩展性,可以构建出用户真正需要的强大的 AI 应用。
随着越来越多的开发者和公司采用 MCP,我们很可能看到 AI 应用的爆发式增长——这些应用更容易构建、更容易维护、更容易扩展。并且 MCP 是开源的,开发者社区将在塑造未来中扮演重要角色——从维护 MCP Server,到改进文档和协议标准。
通过 LLM 与 API 的交互建立标准,MCP 开启了一种全新的 LLM 应用开发范式。MCP 让应用更具扩展性,可以构建出用户真正需要的强大的 AI 应用。
MCP 正在改变我们链接 AI 与 现实世界应用的方式
 
 

© 溪河 2021 - 2025