Skip to main content
Glama
JamesANZ

Cross-LLM MCP Server

🤖 Cross-LLM MCP サーバー

複数のLLM APIに一箇所からアクセス。 ChatGPT、Claude、DeepSeek、Gemini、Grok、Kimi、Perplexity、Mistral、およびHugging Face Inference Routerを、インテリジェントなモデル選択、設定、プロンプトログ機能と共に呼び出せます。

MCP (Model Context Protocol) サーバーであり、CursorやClaude DesktopのようなAIコーディング環境向けに、複数の大規模言語モデル(LLM)APIへの統合アクセスを提供します。

Trust Score

Cross-LLM MCP を選ぶ理由

  • 🌐 9つのLLMプロバイダー – ChatGPT、Claude、DeepSeek、Gemini、Grok、Kimi、Perplexity、Mistral、Hugging Face

  • 🎯 スマートなモデル選択 – タグベースの優先設定(コーディング、ビジネス、推論、数学、クリエイティブ、汎用)

  • 📊 プロンプトログ – 履歴、統計、分析機能による全プロンプトの追跡

  • 💰 コスト最適化 – 好みに応じてフラッグシップモデルや安価なモデルを選択可能

  • 簡単なセットアップ – Cursorでのワンクリックインストール、または簡単な手動セットアップ

  • 🔄 全LLMへの呼び出し – すべてのプロバイダーから同時に回答を取得

Related MCP server: URL Fetch MCP

クイックスタート

複数のLLMにアクセスする準備はできましたか?数秒でインストール可能です:

Cursorにインストール(推奨):

🔗 Cursorにインストール

または手動でインストール:

npm install -g cross-llm-mcp
# Or from source:
git clone https://github.com/JamesANZ/cross-llm-mcp.git
cd cross-llm-mcp && npm install && npm run build

機能

🤖 個別LLMツール

  • call-chatgpt – OpenAIのChatGPT API

  • call-claude – AnthropicのClaude API

  • call-deepseek – DeepSeek API

  • call-gemini – GoogleのGemini API

  • call-grok – xAIのGrok API

  • call-kimi – Moonshot AIのKimi API

  • call-perplexity – Perplexity AI API

  • call-mistral – Mistral AI API

  • call-huggingface – Hugging Face Inference Router (OpenAI互換のHubモデル)

🔄 統合ツール

  • call-all-llms – 同じプロンプトですべてのLLMを呼び出す

  • call-llm – 名前を指定して特定のプロバイダーを呼び出す

⚙️ 設定とモデル選択

  • get-user-preferences – 現在の設定を取得

  • set-user-preferences – デフォルトモデル、コスト設定、タグベースの優先設定を行う

  • get-models-by-tag – タグでモデルを検索(コーディング、ビジネス、推論、数学、クリエイティブ、汎用)

📝 プロンプトログ

  • get-prompt-history – フィルター付きでプロンプト履歴を表示

  • get-prompt-stats – プロンプトログの統計を取得

  • delete-prompt-entries – 条件を指定してログエントリを削除

  • clear-prompt-history – すべてのプロンプトログを消去

インストール

Cursor (ワンクリック)

上記のインストールリンクをクリックするか、以下を使用してください:

cursor://anysphere.cursor-deeplink/mcp/install?name=cross-llm-mcp&config=eyJjcm9zcy1sbG0tbWNwIjp7ImNvbW1hbmQiOiJucHgiLCJhcmdzIjpbIi15IiwiY3Jvc3MtbGxtLW1jcCJdfX0=

インストール後、Cursorの設定でAPIキーを追加してください(以下の「設定」を参照)。

手動インストール

要件: Node.js 18以上およびnpm

# Clone and build
git clone https://github.com/JamesANZ/cross-llm-mcp.git
cd cross-llm-mcp
npm install
npm run build

Claude Desktop

claude_desktop_config.json に追加してください:

macOS: ~/Library/Application Support/Claude/claude_desktop_config.json Windows: %APPDATA%\Claude\claude_desktop_config.json

{
  "mcpServers": {
    "cross-llm-mcp": {
      "command": "node",
      "args": ["/absolute/path/to/cross-llm-mcp/build/index.js"],
      "env": {
        "OPENAI_API_KEY": "your_openai_api_key_here",
        "ANTHROPIC_API_KEY": "your_anthropic_api_key_here",
        "DEEPSEEK_API_KEY": "your_deepseek_api_key_here",
        "GEMINI_API_KEY": "your_gemini_api_key_here",
        "XAI_API_KEY": "your_grok_api_key_here",
        "KIMI_API_KEY": "your_kimi_api_key_here",
        "PERPLEXITY_API_KEY": "your_perplexity_api_key_here",
        "MISTRAL_API_KEY": "your_mistral_api_key_here",
        "HF_TOKEN": "your_huggingface_token_here"
      }
    }
  }
}

設定後、Claude Desktopを再起動してください。

設定

APIキー

使用したいLLMプロバイダーの環境変数を設定してください:

export OPENAI_API_KEY="your_openai_api_key"
export ANTHROPIC_API_KEY="your_anthropic_api_key"
export DEEPSEEK_API_KEY="your_deepseek_api_key"
export GEMINI_API_KEY="your_gemini_api_key"
export XAI_API_KEY="your_grok_api_key"
export KIMI_API_KEY="your_kimi_api_key"
export PERPLEXITY_API_KEY="your_perplexity_api_key"
export MISTRAL_API_KEY="your_mistral_api_key"
export HF_TOKEN="your_huggingface_token"
# Or: HUGGINGFACE_API_KEY (same as HF_TOKEN)
# Optional: DEFAULT_HUGGINGFACE_MODEL, HUGGINGFACE_INFERENCE_BASE_URL (default https://router.huggingface.co/v1)

APIキーの取得

Hubモデルをローカルで実行する場合(本MCP以外)

このサーバーはHugging Faceのホスト型Inference Routerを呼び出すものであり、Node内で重みをダウンロードしたりPyTorch/GGUFを実行したりするものではありません。マシン上でモデルを実行するには、Ollamallama.cppText Generation Inference、またはHugging Face Inference Endpoints などのツールを使用し、APIが公開されている場合は他のクライアントからそれらのサービスを指定してください。

使用例

ChatGPTの呼び出し

OpenAIから回答を取得:

{
  "tool": "call-chatgpt",
  "arguments": {
    "prompt": "Explain quantum computing in simple terms",
    "temperature": 0.7,
    "max_tokens": 500
  }
}

Hugging Faceの呼び出し

Inference Router経由でHubモデルから回答を取得(model はHubのリポジトリID、例: Qwen/Qwen2.5-7B-Instruct):

{
  "tool": "call-huggingface",
  "arguments": {
    "prompt": "Reply with exactly: ok",
    "model": "Qwen/Qwen2.5-7B-Instruct",
    "temperature": 0.3,
    "max_tokens": 32
  }
}

すべてのLLMを呼び出す

すべてのプロバイダーから回答を取得:

{
  "tool": "call-all-llms",
  "arguments": {
    "prompt": "Write a short poem about AI",
    "temperature": 0.8
  }
}

タグベースの優先設定

タスクの種類ごとに最適なモデルを自動的に使用:

{
  "tool": "set-user-preferences",
  "arguments": {
    "defaultModel": "gpt-4o",
    "costPreference": "cheaper",
    "tagPreferences": {
      "coding": "deepseek-r1",
      "general": "gpt-4o",
      "business": "claude-3.5-sonnet-20241022",
      "reasoning": "deepseek-r1",
      "math": "deepseek-r1",
      "creative": "gpt-4o"
    }
  }
}

プロンプト履歴の取得

プロンプトログを表示:

{
  "tool": "get-prompt-history",
  "arguments": {
    "provider": "chatgpt",
    "limit": 10
  }
}

モデルタグ

モデルはその強みに応じてタグ付けされています:

  • coding: deepseek-r1, deepseek-coder, gpt-4o, claude-3.5-sonnet-20241022

  • business: claude-3-opus-20240229, gpt-4o, gemini-1.5-pro

  • reasoning: deepseek-r1, o1-preview, claude-3.5-sonnet-20241022

  • math: deepseek-r1, o1-preview, o1-mini

  • creative: gpt-4o, claude-3-opus-20240229, gemini-1.5-pro

  • general: gpt-4o-mini, claude-3-haiku-20240307, gemini-1.5-flash

ユースケース

  • 多角的な分析 – 複数のLLMから異なる視点を取得

  • モデル比較 – 回答を比較して強みと弱みを理解

  • コスト最適化 – タスクごとに最も費用対効果の高いモデルを選択

  • 品質保証 – 複数のモデルからの回答を相互参照

  • インテリジェントな選択 – コーディング、ビジネス、推論などに最適なモデルを自動的に使用

  • プロンプト分析 – 自動ログ記録により、使用状況、コスト、パターンを追跡

技術詳細

構築: Node.js, TypeScript, MCP SDK 依存関係: @modelcontextprotocol/sdk, superagent, zod プラットフォーム: macOS, Windows, Linux

設定の保存先:

  • Unix/macOS: ~/.cross-llm-mcp/preferences.json

  • Windows: %APPDATA%/cross-llm-mcp/preferences.json

プロンプトログの保存先:

  • Unix/macOS: ~/.cross-llm-mcp/prompts.json

  • Windows: %APPDATA%/cross-llm-mcp/prompts.json

貢献

このプロジェクトが役に立ったら、GitHubでスターをお願いします!

貢献を歓迎します!Issueを開くか、プルリクエストを送信してください。

ライセンス

MITライセンス – 詳細は LICENSE.md を参照してください。

サポート

このプロジェクトが有用だと思われたら、サポートをご検討ください:

⚡ Lightning Network

lnbc1pjhhsqepp5mjgwnvg0z53shm22hfe9us289lnaqkwv8rn2s0rtekg5vvj56xnqdqqcqzzsxqyz5vqsp5gu6vh9hyp94c7t3tkpqrp2r059t4vrw7ps78a4n0a2u52678c7yq9qyyssq7zcferywka50wcy75skjfrdrk930cuyx24rg55cwfuzxs49rc9c53mpz6zug5y2544pt8y9jflnq0ltlha26ed846jh0y7n4gm8jd3qqaautqa

₿ Bitcoin: bc1ptzvr93pn959xq4et6sqzpfnkk2args22ewv5u2th4ps7hshfaqrshe0xtp

Ξ Ethereum/EVM: 0x42ea529282DDE0AA87B42d9E83316eb23FE62c3f

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/JamesANZ/cross-llm-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server