Skip to main content
Glama

MindBridge MCP Server ⚡ ビッグブレインムーブのためのAIルーター

MindBridge は AI コマンド ハブであり、LLM ワークフローを統合、整理、強化するために構築されたモデル コンテキスト プロトコル (MCP) サーバーです。

ベンダーロックインは忘れてください。12 個の API を操る必要も忘れてください。
MindBridge は、OpenAI や Anthropic から Ollama や DeepSeek まで、あらゆるモデルにアプリを接続し、専門コンサルタントのチームのように相互に対話できるようにします。

素早いスピードが必要ですか?安価なモデルをお選びください。
複雑な推論が必要ですか?専門家にお任せください。
セカンドオピニオンが必要ですか? MindBridge にはそれが組み込まれています。

これは単なるモデルの集約ではありません。モデルのオーケストレーションです。


コア機能 🔥

何をするのか

なぜ使うべきか

マルチLLMサポート

OpenAI、Anthropic、Google、DeepSeek、OpenRouter、Ollama (ローカル モデル)、OpenAI 互換 API 間を瞬時に切り替えます。

推論エンジン対応

Claude、GPT-4o、DeepSeek Reasoner などの深層推論用に構築されたモデルへのスマート ルーティング。

getSecondOpinionツール

複数のモデルに同じ質問をして、回答を並べて比較します。

OpenAI互換APIレイヤー

OpenAI エンドポイント (Azure、Together.ai、Groq など) を想定した任意のツールに MindBridge を組み込みます。

プロバイダーを自動検出

キーを追加するだけです。MindBridge がセットアップと検出を自動的に処理します。

非常に柔軟

すべてを env vars、MCP config、または JSON 経由で構成します。


Related MCP server: LLM Bridge MCP

なぜ MindBridge を選ぶのか?

「すべての LLM は何か得意としています。MindBridge はそれらを連携させます。」

最適な用途:

  • エージェントビルダー

  • マルチモデルワークフロー

  • AIオーケストレーションエンジン

  • 推論重視のタスク

  • よりスマートなAI開発環境の構築

  • LLM を活用したバックエンド

  • ベンダーウォールドガーデンにうんざりしている人


インストール 🛠️

オプション1: npmからインストールする(推奨)

# Install globally
npm install -g @pinkpixel/mindbridge

# use with npx
npx @pinkpixel/mindbridge

オプション2: ソースからインストールする

  1. リポジトリをクローンします。

    git clone https://github.com/pinkpixel-dev/mindbridge.git
    cd mindbridge
  2. 依存関係をインストールします:

    chmod +x install.sh
    ./install.sh
  3. 環境変数を設定します。

    cp .env.example .env

    .envを編集し、使用したいプロバイダーの API キーを追加します。

設定 ⚙️

環境変数

サーバーは次の環境変数をサポートしています。

  • OPENAI_API_KEY : OpenAI API キー

  • ANTHROPIC_API_KEY : Anthropic APIキー

  • DEEPSEEK_API_KEY : DeepSeek APIキー

  • GOOGLE_API_KEY : Google AI APIキー

  • OPENROUTER_API_KEY : OpenRouter APIキー

  • OLLAMA_BASE_URL : OllamaインスタンスのURL(デフォルト: http://localhost:11434

  • OPENAI_COMPATIBLE_API_KEY : (オプション) OpenAI互換サービスのAPIキー

  • OPENAI_COMPATIBLE_API_BASE_URL : OpenAI互換サービスのベースURL

  • OPENAI_COMPATIBLE_API_MODELS : 利用可能なモデルのカンマ区切りリスト

MCP構成

Cursor や Windsurf などの MCP 互換 IDE で使用するには、 mcp.jsonファイルで次の構成を使用できます。

{
  "mcpServers": {
    "mindbridge": {
      "command": "npx",
      "args": [
        "-y",
        "@pinkpixel/mindbridge"
      ],
      "env": {
        "OPENAI_API_KEY": "OPENAI_API_KEY_HERE",
        "ANTHROPIC_API_KEY": "ANTHROPIC_API_KEY_HERE",
        "GOOGLE_API_KEY": "GOOGLE_API_KEY_HERE",
        "DEEPSEEK_API_KEY": "DEEPSEEK_API_KEY_HERE",
        "OPENROUTER_API_KEY": "OPENROUTER_API_KEY_HERE"
      },
      "provider_config": {
        "openai": {
          "default_model": "gpt-4o"
        },
        "anthropic": {
          "default_model": "claude-3-5-sonnet-20241022"
        },
        "google": {
          "default_model": "gemini-2.0-flash"
        },
        "deepseek": {
          "default_model": "deepseek-chat"
        },
        "openrouter": {
          "default_model": "openai/gpt-4o"
        },
        "ollama": {
          "base_url": "http://localhost:11434",
          "default_model": "llama3"
        },
        "openai_compatible": {
          "api_key": "API_KEY_HERE_OR_REMOVE_IF_NOT_NEEDED",
          "base_url": "FULL_API_URL_HERE",
          "available_models": ["MODEL1", "MODEL2"],
          "default_model": "MODEL1"
        }
      },
      "default_params": {
        "temperature": 0.7,
        "reasoning_effort": "medium"
      },
      "alwaysAllow": [
        "getSecondOpinion",
        "listProviders",
        "listReasoningModels"
      ]
    }
  }
}

APIキーを実際のキーに置き換えてください。OpenAI互換の設定では、サービスが認証を必要としない場合はapi_keyフィールドを削除できます。

使い方💫

サーバーの起動

自動リロード付き開発モード:

npm run dev

生産モード:

npm run build
npm start

グローバルにインストールする場合:

mindbridge

利用可能なツール

  1. セカンドオピニオンを取得する

    {
      provider: string;  // LLM provider name
      model: string;     // Model identifier
      prompt: string;    // Your question or prompt
      systemPrompt?: string;  // Optional system instructions
      temperature?: number;   // Response randomness (0-1)
      maxTokens?: number;    // Maximum response length
      reasoning_effort?: 'low' | 'medium' | 'high';  // For reasoning models
    }
  2. リストプロバイダー

    • 構成されたすべてのプロバイダーと利用可能なモデルを一覧表示します

    • パラメータは必要ありません

  3. リスト推論モデル

    • 推論タスクに最適化されたモデルをリストします

    • パラメータは必要ありません

使用例 📝

// Get an opinion from GPT-4o
{
  "provider": "openai",
  "model": "gpt-4o",
  "prompt": "What are the key considerations for database sharding?",
  "temperature": 0.7,
  "maxTokens": 1000
}

// Get a reasoned response from OpenAI's o1 model
{
  "provider": "openai",
  "model": "o1",
  "prompt": "Explain the mathematical principles behind database indexing",
  "reasoning_effort": "high",
  "maxTokens": 4000
}

// Get a reasoned response from DeepSeek
{
  "provider": "deepseek",
  "model": "deepseek-reasoner",
  "prompt": "What are the tradeoffs between microservices and monoliths?",
  "reasoning_effort": "high",
  "maxTokens": 2000
}

// Use an OpenAI-compatible provider
{
  "provider": "openaiCompatible",
  "model": "YOUR_MODEL_NAME",
  "prompt": "Explain the concept of eventual consistency in distributed systems",
  "temperature": 0.5,
  "maxTokens": 1500
}

開発🔧

  • npm run lint : ESLint を実行する

  • npm run format : Prettier でコードをフォーマットする

  • npm run clean : ビルド成果物をクリーンアップする

  • npm run build : プロジェクトをビルドする

貢献

PR 歓迎!AI ワークフローの簡素化にご協力ください。


ライセンス

MIT — 何でもやってください。ただし、悪事はしないでください。


Pink Pixelが ❤️ を込めて作りました

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/pinkpixel-dev/mindbridge-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server