MCP Server

Integrations

  • Provides global edge deployment for the MCP server, offering low-latency proxying of AI requests through Cloudflare's distributed network

  • Enables routing requests to OpenAI's models through the MCP server, providing access to OpenAI's AI capabilities via a unified proxy interface

MCP 服务器

使用 Cloudflare Workers 和 Hono 框架构建的现代 AI 服务代理,支持包括 Anthropic Claude 和 OpenAI 在内的多家 AI 提供商。

特征

  • 多供应商 AI 服务集成(Anthropic Claude、OpenAI)
  • 基于 Cloudflare Workers 构建,用于全球边缘部署
  • 使用 Hono 框架快速高效地处理请求
  • 使用 TypeScript 实现类型安全
  • CORS 对跨域请求的支持
  • 健康检查和提供商信息端点

先决条件

  • Node.js(推荐 LTS 版本)
  • npm 或 pnpm 包管理器
  • 用于部署的 Cloudflare 帐户
  • 受支持的 AI 提供商的 API 密钥

安装

  1. 克隆存储库
  2. 安装依赖项:
pnpm install

环境设置

  1. 复制示例环境文件:
cp .env.example .env
  1. 使用您的 API 密钥和首选项在.env中配置环境变量

发展

启动开发服务器:

pnpm run dev

服务器将以开发模式启动并启用热重载。

部署

部署到 Cloudflare Workers:

pnpm run deploy

API 端点

健康检查

  • GET /health
  • 返回服务器状态和配置

提供商信息

  • GET /api/provider
  • 返回当前 AI 提供商和模型配置

MCP API

  • POST /api/mcp
  • AI 服务请求的主要端点
  • 接受带有上下文、查询和选项的 JSON 负载

项目结构

├── src/ │ ├── controllers/ # Request handlers │ ├── models/ # Type definitions │ ├── services/ # AI service implementations │ └── index.ts # Main application entry ├── public/ # Static assets └── wrangler.jsonc # Cloudflare Workers configuration

执照

麻省理工学院

-
security - not tested
F
license - not found
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

一种现代 AI 服务代理,可通过统一的 API 与多个 AI 提供商(Anthropic Claude、OpenAI)进行交互,并使用 Cloudflare Workers 进行全球部署。

  1. 特征
    1. 先决条件
      1. 安装
        1. 环境设置
          1. 发展
            1. 部署
              1. API 端点
                1. 健康检查
                2. 提供商信息
                3. MCP API
              2. 项目结构
                1. 执照

                  Related MCP Servers

                  • -
                    security
                    A
                    license
                    -
                    quality
                    A proxy server that bridges AI agents and external APIs by dynamically translating OpenAPI specifications into standardized MCP tools, enabling seamless interaction without custom integration code.
                    Last updated -
                    29
                    Python
                    MIT License
                    • Linux
                    • Apple
                  • -
                    security
                    -
                    license
                    -
                    quality
                    An open standard server implementation that enables AI assistants to directly access APIs and services through Model Context Protocol, built using Cloudflare Workers for scalability.
                    Last updated -
                    TypeScript
                  • -
                    security
                    F
                    license
                    -
                    quality
                    A Model Context Protocol server implementation that runs on Cloudflare Workers, providing tool integration for AI assistants like Claude with OAuth login capability.
                    Last updated -
                    14
                    TypeScript
                  • -
                    security
                    F
                    license
                    -
                    quality
                    A Cloudflare Workers-based server implementing the Model Context Protocol that enables AI assistants like Claude to securely access external tools through OAuth authentication.
                    Last updated -
                    14
                    TypeScript

                  View all related MCP servers

                  ID: r91gnbf0gk