MindBridge MCP Server

MIT License
1
  • Linux
  • Apple

Integrations

  • Supports configuration through environment variables for API keys and provider settings.

  • Enables access to Google AI models like Gemini, with configurable parameters and integration with the overall model orchestration system.

  • Available as an npm package for easy installation and integration into existing projects.

MindBridge MCP Server ⚡ ビッグブレインムーブのためのAIルーター

MindBridge は AI コマンド ハブであり、LLM ワークフローを統合、整理、強化するために構築されたモデル コンテキスト プロトコル (MCP) サーバーです。

ベンダーロックインは忘れてください。12 個の API を操る必要も忘れてください。
MindBridge は、OpenAI や Anthropic から Ollama や DeepSeek まで、あらゆるモデルにアプリを接続し、専門コンサルタントのチームのように相互に対話できるようにします。

素早いスピードが必要ですか?安価なモデルをお選びください。
複雑な推論が必要ですか?専門家にお任せください。
セカンドオピニオンが必要ですか? MindBridge にはそれが組み込まれています。

これは単なるモデルの集約ではありません。モデルのオーケストレーションです。


コア機能 🔥

何をするのかなぜ使うべきか
マルチLLMサポートOpenAI、Anthropic、Google、DeepSeek、OpenRouter、Ollama (ローカル モデル)、OpenAI 互換 API 間を瞬時に切り替えます。
推論エンジン対応Claude、GPT-4o、DeepSeek Reasoner などの深層推論用に構築されたモデルへのスマート ルーティング。
getSecondOpinionツール複数のモデルに同じ質問をして、回答を並べて比較します。
OpenAI互換APIレイヤーOpenAI エンドポイント (Azure、Together.ai、Groq など) を想定した任意のツールに MindBridge を組み込みます。
プロバイダーを自動検出キーを追加するだけです。MindBridge がセットアップと検出を自動的に処理します。
非常に柔軟すべてを env vars、MCP config、または JSON 経由で構成します。

なぜ MindBridge を選ぶのか?

「すべての LLM は何か得意としています。MindBridge はそれらを連携させます。」

最適な用途:

  • エージェントビルダー
  • マルチモデルワークフロー
  • AIオーケストレーションエンジン
  • 推論重視のタスク
  • よりスマートなAI開発環境の構築
  • LLM を活用したバックエンド
  • ベンダーウォールドガーデンにうんざりしている人

インストール 🛠️

オプション1: npmからインストールする(推奨)

# Install globally npm install -g @pinkpixel/mindbridge # use with npx npx @pinkpixel/mindbridge

オプション2: ソースからインストールする

  1. リポジトリをクローンします。
    git clone https://github.com/pinkpixel-dev/mindbridge.git cd mindbridge
  2. 依存関係をインストールします:
    chmod +x install.sh ./install.sh
  3. 環境変数を設定します。
    cp .env.example .env
    .envを編集し、使用したいプロバイダーの API キーを追加します。

設定 ⚙️

環境変数

サーバーは次の環境変数をサポートしています。

  • OPENAI_API_KEY : OpenAI API キー
  • ANTHROPIC_API_KEY : Anthropic APIキー
  • DEEPSEEK_API_KEY : DeepSeek APIキー
  • GOOGLE_API_KEY : Google AI APIキー
  • OPENROUTER_API_KEY : OpenRouter APIキー
  • OLLAMA_BASE_URL : OllamaインスタンスのURL(デフォルト: http://localhost:11434
  • OPENAI_COMPATIBLE_API_KEY : (オプション) OpenAI互換サービスのAPIキー
  • OPENAI_COMPATIBLE_API_BASE_URL : OpenAI互換サービスのベースURL
  • OPENAI_COMPATIBLE_API_MODELS : 利用可能なモデルのカンマ区切りリスト

MCP構成

Cursor や Windsurf などの MCP 互換 IDE で使用するには、 mcp.jsonファイルで次の構成を使用できます。

{ "mcpServers": { "mindbridge": { "command": "npx", "args": [ "-y", "@pinkpixel/mindbridge" ], "env": { "OPENAI_API_KEY": "OPENAI_API_KEY_HERE", "ANTHROPIC_API_KEY": "ANTHROPIC_API_KEY_HERE", "GOOGLE_API_KEY": "GOOGLE_API_KEY_HERE", "DEEPSEEK_API_KEY": "DEEPSEEK_API_KEY_HERE", "OPENROUTER_API_KEY": "OPENROUTER_API_KEY_HERE" }, "provider_config": { "openai": { "default_model": "gpt-4o" }, "anthropic": { "default_model": "claude-3-5-sonnet-20241022" }, "google": { "default_model": "gemini-2.0-flash" }, "deepseek": { "default_model": "deepseek-chat" }, "openrouter": { "default_model": "openai/gpt-4o" }, "ollama": { "base_url": "http://localhost:11434", "default_model": "llama3" }, "openai_compatible": { "api_key": "API_KEY_HERE_OR_REMOVE_IF_NOT_NEEDED", "base_url": "FULL_API_URL_HERE", "available_models": ["MODEL1", "MODEL2"], "default_model": "MODEL1" } }, "default_params": { "temperature": 0.7, "reasoning_effort": "medium" }, "alwaysAllow": [ "getSecondOpinion", "listProviders", "listReasoningModels" ] } } }

APIキーを実際のキーに置き換えてください。OpenAI互換の設定では、サービスが認証を必要としない場合はapi_keyフィールドを削除できます。

使い方💫

サーバーの起動

自動リロード付き開発モード:

npm run dev

生産モード:

npm run build npm start

グローバルにインストールする場合:

mindbridge

利用可能なツール

  1. セカンドオピニオンを取得する
    { provider: string; // LLM provider name model: string; // Model identifier prompt: string; // Your question or prompt systemPrompt?: string; // Optional system instructions temperature?: number; // Response randomness (0-1) maxTokens?: number; // Maximum response length reasoning_effort?: 'low' | 'medium' | 'high'; // For reasoning models }
  2. リストプロバイダー
    • 構成されたすべてのプロバイダーと利用可能なモデルを一覧表示します
    • パラメータは必要ありません
  3. リスト推論モデル
    • 推論タスクに最適化されたモデルをリストします
    • パラメータは必要ありません

使用例 📝

// Get an opinion from GPT-4o { "provider": "openai", "model": "gpt-4o", "prompt": "What are the key considerations for database sharding?", "temperature": 0.7, "maxTokens": 1000 } // Get a reasoned response from OpenAI's o1 model { "provider": "openai", "model": "o1", "prompt": "Explain the mathematical principles behind database indexing", "reasoning_effort": "high", "maxTokens": 4000 } // Get a reasoned response from DeepSeek { "provider": "deepseek", "model": "deepseek-reasoner", "prompt": "What are the tradeoffs between microservices and monoliths?", "reasoning_effort": "high", "maxTokens": 2000 } // Use an OpenAI-compatible provider { "provider": "openaiCompatible", "model": "YOUR_MODEL_NAME", "prompt": "Explain the concept of eventual consistency in distributed systems", "temperature": 0.5, "maxTokens": 1500 }

開発🔧

  • npm run lint : ESLint を実行する
  • npm run format : Prettier でコードをフォーマットする
  • npm run clean : ビルド成果物をクリーンアップする
  • npm run build : プロジェクトをビルドする

貢献

PR 歓迎!AI ワークフローの簡素化にご協力ください。


ライセンス

MIT — 何でもやってください。ただし、悪事はしないでください。


Pink Pixelが ❤️ を込めて作りました

You must be authenticated.

A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

スマート モデル オーケストレーション機能を使用してアプリケーションを複数の LLM プロバイダー (OpenAI、Anthropic、Google、DeepSeek、Ollama など) に接続し、さまざまな推論タスクのモデルを動的に切り替えることができる AI ルーターです。

  1. Core Features 🔥
    1. Why MindBridge?
      1. Installation 🛠️
        1. Option 1: Install from npm (Recommended)
        2. Option 2: Install from source
      2. Configuration ⚙️
        1. Environment Variables
        2. MCP Configuration
      3. Usage 💫
        1. Starting the Server
        2. Available Tools
      4. Example Usage 📝
        1. Development 🔧
          1. Contributing
            1. License
              ID: wv06yveqx8