跳到主要内容

MCP 使用指南

版本说明:本文档旨在提供对 Model Context Protocol(MCP)的全面介绍及其实际使用方法,帮助开发者快速上手并将其集成至各类 AI 应用中。


什么是 MCP?

MCP(Model Context Protocol) 是一种开源协议,旨在以标准化方式为大语言模型(LLM)提供动态、丰富的上下文信息。通过 MCP,模型可以灵活接入外部数据源和服务,从而显著增强理解与推理能力。

类比理解

可以将 MCP 类比为 AI 世界的“U 盘”:
如同 U 盘支持灵活读取不同类型的数据文件,MCP Server 也可以挂载多种上下文插件,供语言模型按需调用,实现“即插即用”的能力拓展。

与 Function Tool 的区别

功能Function ToolMCP
接入目标特定功能或 API 接口任意结构化上下文资源
模型交互方式功能调用(Function Call)上下文接入(Context Injection)
模块化与扩展性较低高,支持插件化、多源并存
适用场景明确定义的任务模型需感知复杂上下文的智能应用场景

应用场景示例

MCP 可广泛应用于各种需动态上下文感知的智能代理系统中。以下为典型场景:

1. 智能旅行规划助手

  • 传统方式:需要单独对接日历、邮箱、航司 API,每个服务需独立实现认证、数据提取和错误处理。
  • MCP 集成:AI 助手通过 MCP Server 一键接入日历、邮箱、订票服务,显著简化接入流程。

2. 高级智能 IDE

  • 传统方式:需手动集成多个组件,如文件系统、Git、包管理器、代码文档等。
  • MCP 集成:通过统一协议访问所有开发环境模块,提升代码生成、自动补全等智能能力。

3. 数据分析与洞察平台

  • 传统方式:需分别维护数据库连接、数据清洗流程、可视化工具等逻辑。
  • MCP 集成:模型可自动接入多个数据源与工具,实现统一的数据访问与上下文处理。

快速开始:创建 MCP Server

步骤 1:填写基础信息

在创建 MCP Server 时,请输入唯一的 名称 及简洁 描述,用于识别该服务及其功能。

步骤 2:选择配置方式

您可以选择以下两种配置 MCP Server 的方式:

2.1 使用 JSON 配置(推荐)

通过 JSON 结构添加 MCP Server,可直接从以下 MCP 导航平台获取配置示例:

示例配置:

"mcpServers": {
"fetch": {
"command": "uvx",
"args": ["mcp-server-fetch"]
}
}

2.2 手动配置模式

手动配置支持两种运行模式:

2.2.1 本地运行(STDIO 模式)

适用于在本地机器上运行 MCP Server,需指定执行命令与可选的环境变量。

  • 执行命令示例
npx -y tavily-mcp@0.1.4
  • 环境变量(可选)
TAVILY_API_KEY=xxxxxxx
2.2.2 远程服务(SSE 模式)

适用于通过远程服务进行上下文交互,需提供服务地址及(可选)请求头。

  • 示例 URL
https://mcp.sentry.dev/sse
  • Headers 示例
Authorization: Bearer sk-xxxxxxx

步骤 3:保存并校验配置

点击“确定”按钮后,系统将自动验证命令或 URL 的合法性。配置验证通过后,MCP Server 将默认保持关闭状态,您可根据需求手动启用。

配置示意图


内置服务插件介绍

MCP 系统预置多个高价值插件,开箱即用:

插件名称功能说明
Playwright Automation提供浏览器自动化功能的模型上下文协议 (MCP) 服务器。此服务器使 LLM 能够通过结构化的可访问性快照与网页进行交互,而无需使用屏幕截图或视觉调整模型
Fetch专为网页内容获取和转换而设计,允许大型语言模型(LLMs)通过将 HTML 转换为 Markdown 来检索和处理网页内容,以便更容易地消费。
Pages Deploy能够将 HTML 内容快速部署到 EdgeOne Pages 并生成公开访问链接。这使您能够立即预览和分享 AI 生成的网页内容。
TavilyAI 助手能够与 Tavily 的高级搜索和数据提取功能无缝集成。这种集成使 AI 模型能够实时访问网络信息,并配有复杂的过滤选项和特定领域的搜索功能。
Desktop Commander使用 AI 搜索、更新、管理本地文件和运行终端命令。

校验 MCP Server 可用性

添加 MCP Server 后,可通过点击右上角“检查”按钮触发以下操作:

  1. 拉取依赖或远程验证配置有效性;
  2. 验证通过后自动启用服务;
  3. 展示该 Server 所挂载的所有上下文工具及其详细信息。

⚠ 若使用 STDIO 模式,校验时间可能略长,取决于依赖体积。

MCP Server 检查界面


将 MCP Server 应用于 Bot

在 Bot 页面中,您可以按如下步骤引入 MCP Server:

  1. 点击“添加工具”;
  2. 勾选所需 MCP Server(支持多选);
  3. 确认并保存配置。

绑定示意图
实际使用效果图


网络优化建议(国内环境)

为提升国内网络下的使用体验,推荐配置如下环境变量:

npx 镜像配置:

NPM_CONFIG_REGISTRY=[{ name: '淘宝 NPM Mirror', url: 'https://registry.npmmirror.com' }]

uv / uvx 镜像配置(国内 PyPI 源):

PIP_INDEX_URL=[{ name: '清华大学', url: 'https://pypi.tuna.tsinghua.edu.cn/simple' },{ name: '阿里云', url: 'http://mirrors.aliyun.com/pypi/simple/' },{ name: '中国科学技术大学', url: 'https://mirrors.ustc.edu.cn/pypi/simple/' },{ name: '华为云', url: 'https://repo.huaweicloud.com/repository/pypi/simple/' },{ name: '腾讯云', url: 'https://mirrors.cloud.tencent.com/pypi/simple/' }]

mcp镜像源配置


总结

MCP 不仅仅是一个协议,更是面向未来 AI 应用的上下文连接标准。通过统一的接入方式与模块化的插件体系,开发者可以快速构建具备上下文感知能力的智能应用,提升模型交互效率与整体系统智能水平。