Skip to main content
Glama

MindBridge MCP Server ⚡ ビッグブレインムーブのためのAIルーター

MindBridge は AI コマンド ハブであり、LLM ワークフローを統合、整理、強化するために構築されたモデル コンテキスト プロトコル (MCP) サーバーです。

ベンダーロックインは忘れてください。12 個の API を操る必要も忘れてください。
MindBridge は、OpenAI や Anthropic から Ollama や DeepSeek まで、あらゆるモデルにアプリを接続し、専門コンサルタントのチームのように相互に対話できるようにします。

素早いスピードが必要ですか?安価なモデルをお選びください。
複雑な推論が必要ですか?専門家にお任せください。
セカンドオピニオンが必要ですか? MindBridge にはそれが組み込まれています。

これは単なるモデルの集約ではありません。モデルのオーケストレーションです。


コア機能 🔥

何をするのか

なぜ使うべきか

マルチLLMサポート

OpenAI、Anthropic、Google、DeepSeek、OpenRouter、Ollama (ローカル モデル)、OpenAI 互換 API 間を瞬時に切り替えます。

推論エンジン対応

Claude、GPT-4o、DeepSeek Reasoner などの深層推論用に構築されたモデルへのスマート ルーティング。

getSecondOpinionツール

複数のモデルに同じ質問をして、回答を並べて比較します。

OpenAI互換APIレイヤー

OpenAI エンドポイント (Azure、Together.ai、Groq など) を想定した任意のツールに MindBridge を組み込みます。

プロバイダーを自動検出

キーを追加するだけです。MindBridge がセットアップと検出を自動的に処理します。

非常に柔軟

すべてを env vars、MCP config、または JSON 経由で構成します。


Related MCP server: LLM Bridge MCP

なぜ MindBridge を選ぶのか?

「すべての LLM は何か得意としています。MindBridge はそれらを連携させます。」

最適な用途:

  • エージェントビルダー

  • マルチモデルワークフロー

  • AIオーケストレーションエンジン

  • 推論重視のタスク

  • よりスマートなAI開発環境の構築

  • LLM を活用したバックエンド

  • ベンダーウォールドガーデンにうんざりしている人


インストール 🛠️

オプション1: npmからインストールする(推奨)

# Install globally npm install -g @pinkpixel/mindbridge # use with npx npx @pinkpixel/mindbridge

オプション2: ソースからインストールする

  1. リポジトリをクローンします。

    git clone https://github.com/pinkpixel-dev/mindbridge.git cd mindbridge
  2. 依存関係をインストールします:

    chmod +x install.sh ./install.sh
  3. 環境変数を設定します。

    cp .env.example .env

    .envを編集し、使用したいプロバイダーの API キーを追加します。

設定 ⚙️

環境変数

サーバーは次の環境変数をサポートしています。

  • OPENAI_API_KEY : OpenAI API キー

  • ANTHROPIC_API_KEY : Anthropic APIキー

  • DEEPSEEK_API_KEY : DeepSeek APIキー

  • GOOGLE_API_KEY : Google AI APIキー

  • OPENROUTER_API_KEY : OpenRouter APIキー

  • OLLAMA_BASE_URL : OllamaインスタンスのURL(デフォルト: http://localhost:11434

  • OPENAI_COMPATIBLE_API_KEY : (オプション) OpenAI互換サービスのAPIキー

  • OPENAI_COMPATIBLE_API_BASE_URL : OpenAI互換サービスのベースURL

  • OPENAI_COMPATIBLE_API_MODELS : 利用可能なモデルのカンマ区切りリスト

MCP構成

Cursor や Windsurf などの MCP 互換 IDE で使用するには、 mcp.jsonファイルで次の構成を使用できます。

{ "mcpServers": { "mindbridge": { "command": "npx", "args": [ "-y", "@pinkpixel/mindbridge" ], "env": { "OPENAI_API_KEY": "OPENAI_API_KEY_HERE", "ANTHROPIC_API_KEY": "ANTHROPIC_API_KEY_HERE", "GOOGLE_API_KEY": "GOOGLE_API_KEY_HERE", "DEEPSEEK_API_KEY": "DEEPSEEK_API_KEY_HERE", "OPENROUTER_API_KEY": "OPENROUTER_API_KEY_HERE" }, "provider_config": { "openai": { "default_model": "gpt-4o" }, "anthropic": { "default_model": "claude-3-5-sonnet-20241022" }, "google": { "default_model": "gemini-2.0-flash" }, "deepseek": { "default_model": "deepseek-chat" }, "openrouter": { "default_model": "openai/gpt-4o" }, "ollama": { "base_url": "http://localhost:11434", "default_model": "llama3" }, "openai_compatible": { "api_key": "API_KEY_HERE_OR_REMOVE_IF_NOT_NEEDED", "base_url": "FULL_API_URL_HERE", "available_models": ["MODEL1", "MODEL2"], "default_model": "MODEL1" } }, "default_params": { "temperature": 0.7, "reasoning_effort": "medium" }, "alwaysAllow": [ "getSecondOpinion", "listProviders", "listReasoningModels" ] } } }

APIキーを実際のキーに置き換えてください。OpenAI互換の設定では、サービスが認証を必要としない場合はapi_keyフィールドを削除できます。

使い方💫

サーバーの起動

自動リロード付き開発モード:

npm run dev

生産モード:

npm run build npm start

グローバルにインストールする場合:

mindbridge

利用可能なツール

  1. セカンドオピニオンを取得する

    { provider: string; // LLM provider name model: string; // Model identifier prompt: string; // Your question or prompt systemPrompt?: string; // Optional system instructions temperature?: number; // Response randomness (0-1) maxTokens?: number; // Maximum response length reasoning_effort?: 'low' | 'medium' | 'high'; // For reasoning models }
  2. リストプロバイダー

    • 構成されたすべてのプロバイダーと利用可能なモデルを一覧表示します

    • パラメータは必要ありません

  3. リスト推論モデル

    • 推論タスクに最適化されたモデルをリストします

    • パラメータは必要ありません

使用例 📝

// Get an opinion from GPT-4o { "provider": "openai", "model": "gpt-4o", "prompt": "What are the key considerations for database sharding?", "temperature": 0.7, "maxTokens": 1000 } // Get a reasoned response from OpenAI's o1 model { "provider": "openai", "model": "o1", "prompt": "Explain the mathematical principles behind database indexing", "reasoning_effort": "high", "maxTokens": 4000 } // Get a reasoned response from DeepSeek { "provider": "deepseek", "model": "deepseek-reasoner", "prompt": "What are the tradeoffs between microservices and monoliths?", "reasoning_effort": "high", "maxTokens": 2000 } // Use an OpenAI-compatible provider { "provider": "openaiCompatible", "model": "YOUR_MODEL_NAME", "prompt": "Explain the concept of eventual consistency in distributed systems", "temperature": 0.5, "maxTokens": 1500 }

開発🔧

  • npm run lint : ESLint を実行する

  • npm run format : Prettier でコードをフォーマットする

  • npm run clean : ビルド成果物をクリーンアップする

  • npm run build : プロジェクトをビルドする

貢献

PR 歓迎!AI ワークフローの簡素化にご協力ください。


ライセンス

MIT — 何でもやってください。ただし、悪事はしないでください。


Pink Pixelが ❤️ を込めて作りました

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/pinkpixel-dev/mindbridge-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server