带有 Cloudflare Workers 的 MCP 服务器
介绍
模型上下文协议 (MCP) 是一项开放标准,支持 AI 代理和助手与服务进行交互。通过设置 MCP 服务器,您可以允许 AI 助手直接访问您的 API。
Cloudflare Workers 与workers-mcp
包相结合,为构建 MCP 服务器提供了强大且可扩展的解决方案。
先决条件
在开始之前,请确保您已:
- Cloudflare 帐户
- Node.js 已安装
- 已安装 Wrangler CLI(
npm install -g wrangler
)
入门
步骤 1:创建新的 Cloudflare Worker
首先,初始化一个新的 Cloudflare Worker 项目:
然后,验证您的 Cloudflare 帐户:
步骤2:配置Wrangler
使用正确的帐户详细信息更新您的wrangler.toml
文件:
安装 MCP 工具
要启用 MCP 支持,请安装workers-mcp
包:
运行设置命令来配置 MCP:
这将:
- 添加必要的依赖项
- 设置本地代理进行测试
- 配置 Worker 以符合 MCP 要求
编写 MCP 服务器代码
更新您的src/index.ts
以定义您的 MCP 服务器:
关键组件:
- WorkerEntrypoint :管理传入的请求和方法暴露。
- ProxyToSelf :确保符合 MCP 协议。
- sayHello 方法:AI 助手可以调用的示例 MCP 函数。
添加 API 调用
您可以通过集成外部 API 来扩展您的 MCP 服务器。以下是获取天气数据的示例:
部署 MCP 服务器
设置好 Worker 后,将其部署到 Cloudflare:
部署后,您的 Worker 即可上线,并且 AI 助手可以发现并使用您的 MCP 工具。
要更新您的 MCP 服务器,请使用以下命令重新部署:
测试 MCP 服务器
要在本地测试您的 MCP 设置:
此命令启动本地代理,允许 MCP 客户端(如 Claude Desktop)连接。
安全
为了保护您的 MCP 服务器,请使用 Wrangler Secrets:
这增加了一个共享秘密认证机制来防止未经授权的访问。
结论
恭喜!您已成功使用 Cloudflare Workers 构建并部署 MCP 服务器。现在您可以扩展其功能,并为 AI 助手提供新的工具。
有关更多详细信息,请查看Cloudflare MCP 文档。
This server cannot be installed
一种开放标准服务器实现,使 AI 助手能够通过模型上下文协议直接访问 API 和服务,使用 Cloudflare Workers 构建以实现可扩展性。