Skip to main content
Glama

MCP Server

MCPサーバー

Cloudflare Workers と Hono フレームワークで構築された最新の AI サービス プロキシで、Anthropic Claude や OpenAI などの複数の AI プロバイダーをサポートします。

特徴

  • マルチプロバイダー AI サービス統合 (Anthropic Claude、OpenAI)
  • グローバルエッジ展開のためのCloudflare Workers上に構築
  • Honoフレームワークによる高速かつ効率的なリクエスト処理
  • TypeScriptによる型安全な実装
  • クロスオリジンリクエストのCORSサポート
  • ヘルスチェックとプロバイダー情報エンドポイント

前提条件

  • Node.js (LTS バージョンを推奨)
  • npm または pnpm パッケージマネージャー
  • デプロイメント用のCloudflareアカウント
  • サポートされているAIプロバイダーのAPIキー

インストール

  1. リポジトリをクローンする
  2. 依存関係をインストールします:
pnpm install

環境設定

  1. サンプル環境ファイルをコピーします。
cp .env.example .env
  1. APIキーと設定を使用して.envの環境変数を設定します

発達

開発サーバーを起動します。

pnpm run dev

サーバーはホット リロードが有効になっている開発モードで起動します。

展開

Cloudflare Workers にデプロイする:

pnpm run deploy

APIエンドポイント

健康チェック

  • GET /health
  • サーバーのステータスと構成を返します

プロバイダー情報

  • GET /api/provider
  • 現在のAIプロバイダーとモデル構成を返します

MCP API

  • POST /api/mcp
  • AIサービスリクエストのメインエンドポイント
  • コンテキスト、クエリ、オプションを含む JSON ペイロードを受け入れます

プロジェクト構造

├── src/ │ ├── controllers/ # Request handlers │ ├── models/ # Type definitions │ ├── services/ # AI service implementations │ └── index.ts # Main application entry ├── public/ # Static assets └── wrangler.jsonc # Cloudflare Workers configuration

ライセンス

マサチューセッツ工科大学

-
security - not tested
F
license - not found
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Cloudflare Workers を使用してグローバルに展開された、統合 API を介して複数の AI プロバイダー (Anthropic Claude、OpenAI) とのやり取りを可能にする最新の AI サービス プロキシです。

  1. 特徴
    1. 前提条件
      1. インストール
        1. 環境設定
          1. 発達
            1. 展開
              1. APIエンドポイント
                1. 健康チェック
                2. プロバイダー情報
                3. MCP API
              2. プロジェクト構造
                1. ライセンス

                  Related MCP Servers

                  • -
                    security
                    A
                    license
                    -
                    quality
                    A proxy server that bridges AI agents and external APIs by dynamically translating OpenAPI specifications into standardized MCP tools, enabling seamless interaction without custom integration code.
                    Last updated -
                    43
                    Python
                    MIT License
                    • Linux
                    • Apple
                  • -
                    security
                    -
                    license
                    -
                    quality
                    An open standard server implementation that enables AI assistants to directly access APIs and services through Model Context Protocol, built using Cloudflare Workers for scalability.
                    Last updated -
                    TypeScript
                  • -
                    security
                    F
                    license
                    -
                    quality
                    A Model Context Protocol server implementation that runs on Cloudflare Workers, providing tool integration for AI assistants like Claude with OAuth login capability.
                    Last updated -
                    14
                    TypeScript
                  • -
                    security
                    F
                    license
                    -
                    quality
                    A Cloudflare Workers-based server implementing the Model Context Protocol that enables AI assistants like Claude to securely access external tools through OAuth authentication.
                    Last updated -
                    14
                    TypeScript

                  View all related MCP servers

                  MCP directory API

                  We provide all the information about MCP servers via our MCP API.

                  curl -X GET 'https://glama.ai/api/mcp/v1/servers/quang-pham-dev/my-mcp-server'

                  If you have feedback or need assistance with the MCP directory API, please join our Discord server