Cross-LLM MCP Server
🤖 Cross-LLM MCP サーバー
複数のLLM APIに一箇所からアクセス。 ChatGPT、Claude、DeepSeek、Gemini、Grok、Kimi、Perplexity、Mistral、およびHugging Face Inference Routerを、インテリジェントなモデル選択、設定、プロンプトログ機能と共に呼び出せます。
MCP (Model Context Protocol) サーバーであり、CursorやClaude DesktopのようなAIコーディング環境向けに、複数の大規模言語モデル(LLM)APIへの統合アクセスを提供します。
Cross-LLM MCP を選ぶ理由
🌐 9つのLLMプロバイダー – ChatGPT、Claude、DeepSeek、Gemini、Grok、Kimi、Perplexity、Mistral、Hugging Face
🎯 スマートなモデル選択 – タグベースの優先設定(コーディング、ビジネス、推論、数学、クリエイティブ、汎用)
📊 プロンプトログ – 履歴、統計、分析機能による全プロンプトの追跡
💰 コスト最適化 – 好みに応じてフラッグシップモデルや安価なモデルを選択可能
⚡ 簡単なセットアップ – Cursorでのワンクリックインストール、または簡単な手動セットアップ
🔄 全LLMへの呼び出し – すべてのプロバイダーから同時に回答を取得
Related MCP server: URL Fetch MCP
クイックスタート
複数のLLMにアクセスする準備はできましたか?数秒でインストール可能です:
Cursorにインストール(推奨):
または手動でインストール:
npm install -g cross-llm-mcp
# Or from source:
git clone https://github.com/JamesANZ/cross-llm-mcp.git
cd cross-llm-mcp && npm install && npm run build機能
🤖 個別LLMツール
call-chatgpt– OpenAIのChatGPT APIcall-claude– AnthropicのClaude APIcall-deepseek– DeepSeek APIcall-gemini– GoogleのGemini APIcall-grok– xAIのGrok APIcall-kimi– Moonshot AIのKimi APIcall-perplexity– Perplexity AI APIcall-mistral– Mistral AI APIcall-huggingface– Hugging Face Inference Router (OpenAI互換のHubモデル)
🔄 統合ツール
call-all-llms– 同じプロンプトですべてのLLMを呼び出すcall-llm– 名前を指定して特定のプロバイダーを呼び出す
⚙️ 設定とモデル選択
get-user-preferences– 現在の設定を取得set-user-preferences– デフォルトモデル、コスト設定、タグベースの優先設定を行うget-models-by-tag– タグでモデルを検索(コーディング、ビジネス、推論、数学、クリエイティブ、汎用)
📝 プロンプトログ
get-prompt-history– フィルター付きでプロンプト履歴を表示get-prompt-stats– プロンプトログの統計を取得delete-prompt-entries– 条件を指定してログエントリを削除clear-prompt-history– すべてのプロンプトログを消去
インストール
Cursor (ワンクリック)
上記のインストールリンクをクリックするか、以下を使用してください:
cursor://anysphere.cursor-deeplink/mcp/install?name=cross-llm-mcp&config=eyJjcm9zcy1sbG0tbWNwIjp7ImNvbW1hbmQiOiJucHgiLCJhcmdzIjpbIi15IiwiY3Jvc3MtbGxtLW1jcCJdfX0=インストール後、Cursorの設定でAPIキーを追加してください(以下の「設定」を参照)。
手動インストール
要件: Node.js 18以上およびnpm
# Clone and build
git clone https://github.com/JamesANZ/cross-llm-mcp.git
cd cross-llm-mcp
npm install
npm run buildClaude Desktop
claude_desktop_config.json に追加してください:
macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
Windows: %APPDATA%\Claude\claude_desktop_config.json
{
"mcpServers": {
"cross-llm-mcp": {
"command": "node",
"args": ["/absolute/path/to/cross-llm-mcp/build/index.js"],
"env": {
"OPENAI_API_KEY": "your_openai_api_key_here",
"ANTHROPIC_API_KEY": "your_anthropic_api_key_here",
"DEEPSEEK_API_KEY": "your_deepseek_api_key_here",
"GEMINI_API_KEY": "your_gemini_api_key_here",
"XAI_API_KEY": "your_grok_api_key_here",
"KIMI_API_KEY": "your_kimi_api_key_here",
"PERPLEXITY_API_KEY": "your_perplexity_api_key_here",
"MISTRAL_API_KEY": "your_mistral_api_key_here",
"HF_TOKEN": "your_huggingface_token_here"
}
}
}
}設定後、Claude Desktopを再起動してください。
設定
APIキー
使用したいLLMプロバイダーの環境変数を設定してください:
export OPENAI_API_KEY="your_openai_api_key"
export ANTHROPIC_API_KEY="your_anthropic_api_key"
export DEEPSEEK_API_KEY="your_deepseek_api_key"
export GEMINI_API_KEY="your_gemini_api_key"
export XAI_API_KEY="your_grok_api_key"
export KIMI_API_KEY="your_kimi_api_key"
export PERPLEXITY_API_KEY="your_perplexity_api_key"
export MISTRAL_API_KEY="your_mistral_api_key"
export HF_TOKEN="your_huggingface_token"
# Or: HUGGINGFACE_API_KEY (same as HF_TOKEN)
# Optional: DEFAULT_HUGGINGFACE_MODEL, HUGGINGFACE_INFERENCE_BASE_URL (default https://router.huggingface.co/v1)APIキーの取得
Anthropic: https://console.anthropic.com/
DeepSeek: https://platform.deepseek.com/
Google Gemini: https://makersuite.google.com/app/apikey
xAI Grok: https://console.x.ai/
Moonshot AI: https://platform.moonshot.ai/
Perplexity: https://www.perplexity.ai/hub
Mistral: https://console.mistral.ai/
Hugging Face: https://huggingface.co/settings/tokens にて、Inference (serverless / Inference Providers) アクセス権を持つファイングレイン・トークンを作成してください。サポートされているモデルについては Chat Completion を参照してください。
Hubモデルをローカルで実行する場合(本MCP以外)
このサーバーはHugging Faceのホスト型Inference Routerを呼び出すものであり、Node内で重みをダウンロードしたりPyTorch/GGUFを実行したりするものではありません。マシン上でモデルを実行するには、Ollama、llama.cpp、Text Generation Inference、またはHugging Face Inference Endpoints などのツールを使用し、APIが公開されている場合は他のクライアントからそれらのサービスを指定してください。
使用例
ChatGPTの呼び出し
OpenAIから回答を取得:
{
"tool": "call-chatgpt",
"arguments": {
"prompt": "Explain quantum computing in simple terms",
"temperature": 0.7,
"max_tokens": 500
}
}Hugging Faceの呼び出し
Inference Router経由でHubモデルから回答を取得(model はHubのリポジトリID、例: Qwen/Qwen2.5-7B-Instruct):
{
"tool": "call-huggingface",
"arguments": {
"prompt": "Reply with exactly: ok",
"model": "Qwen/Qwen2.5-7B-Instruct",
"temperature": 0.3,
"max_tokens": 32
}
}すべてのLLMを呼び出す
すべてのプロバイダーから回答を取得:
{
"tool": "call-all-llms",
"arguments": {
"prompt": "Write a short poem about AI",
"temperature": 0.8
}
}タグベースの優先設定
タスクの種類ごとに最適なモデルを自動的に使用:
{
"tool": "set-user-preferences",
"arguments": {
"defaultModel": "gpt-4o",
"costPreference": "cheaper",
"tagPreferences": {
"coding": "deepseek-r1",
"general": "gpt-4o",
"business": "claude-3.5-sonnet-20241022",
"reasoning": "deepseek-r1",
"math": "deepseek-r1",
"creative": "gpt-4o"
}
}
}プロンプト履歴の取得
プロンプトログを表示:
{
"tool": "get-prompt-history",
"arguments": {
"provider": "chatgpt",
"limit": 10
}
}モデルタグ
モデルはその強みに応じてタグ付けされています:
coding:
deepseek-r1,deepseek-coder,gpt-4o,claude-3.5-sonnet-20241022business:
claude-3-opus-20240229,gpt-4o,gemini-1.5-proreasoning:
deepseek-r1,o1-preview,claude-3.5-sonnet-20241022math:
deepseek-r1,o1-preview,o1-minicreative:
gpt-4o,claude-3-opus-20240229,gemini-1.5-progeneral:
gpt-4o-mini,claude-3-haiku-20240307,gemini-1.5-flash
ユースケース
多角的な分析 – 複数のLLMから異なる視点を取得
モデル比較 – 回答を比較して強みと弱みを理解
コスト最適化 – タスクごとに最も費用対効果の高いモデルを選択
品質保証 – 複数のモデルからの回答を相互参照
インテリジェントな選択 – コーディング、ビジネス、推論などに最適なモデルを自動的に使用
プロンプト分析 – 自動ログ記録により、使用状況、コスト、パターンを追跡
技術詳細
構築: Node.js, TypeScript, MCP SDK
依存関係: @modelcontextprotocol/sdk, superagent, zod
プラットフォーム: macOS, Windows, Linux
設定の保存先:
Unix/macOS:
~/.cross-llm-mcp/preferences.jsonWindows:
%APPDATA%/cross-llm-mcp/preferences.json
プロンプトログの保存先:
Unix/macOS:
~/.cross-llm-mcp/prompts.jsonWindows:
%APPDATA%/cross-llm-mcp/prompts.json
貢献
⭐ このプロジェクトが役に立ったら、GitHubでスターをお願いします! ⭐
貢献を歓迎します!Issueを開くか、プルリクエストを送信してください。
ライセンス
MITライセンス – 詳細は LICENSE.md を参照してください。
サポート
このプロジェクトが有用だと思われたら、サポートをご検討ください:
⚡ Lightning Network
lnbc1pjhhsqepp5mjgwnvg0z53shm22hfe9us289lnaqkwv8rn2s0rtekg5vvj56xnqdqqcqzzsxqyz5vqsp5gu6vh9hyp94c7t3tkpqrp2r059t4vrw7ps78a4n0a2u52678c7yq9qyyssq7zcferywka50wcy75skjfrdrk930cuyx24rg55cwfuzxs49rc9c53mpz6zug5y2544pt8y9jflnq0ltlha26ed846jh0y7n4gm8jd3qqaautqa₿ Bitcoin: bc1ptzvr93pn959xq4et6sqzpfnkk2args22ewv5u2th4ps7hshfaqrshe0xtp
Ξ Ethereum/EVM: 0x42ea529282DDE0AA87B42d9E83316eb23FE62c3f
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/JamesANZ/cross-llm-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server