Skip to main content
Glama

MindBridge MCP Server

MindBridge MCP Server ⚡ ビッグブレインムーブのためのAIルーター

MindBridge は AI コマンド ハブであり、LLM ワークフローを統合、整理、強化するために構築されたモデル コンテキスト プロトコル (MCP) サーバーです。

ベンダーロックインは忘れてください。12 個の API を操る必要も忘れてください。
MindBridge は、OpenAI や Anthropic から Ollama や DeepSeek まで、あらゆるモデルにアプリを接続し、専門コンサルタントのチームのように相互に対話できるようにします。

素早いスピードが必要ですか?安価なモデルをお選びください。
複雑な推論が必要ですか?専門家にお任せください。
セカンドオピニオンが必要ですか? MindBridge にはそれが組み込まれています。

これは単なるモデルの集約ではありません。モデルのオーケストレーションです。


コア機能 🔥

何をするのかなぜ使うべきか
マルチLLMサポートOpenAI、Anthropic、Google、DeepSeek、OpenRouter、Ollama (ローカル モデル)、OpenAI 互換 API 間を瞬時に切り替えます。
推論エンジン対応Claude、GPT-4o、DeepSeek Reasoner などの深層推論用に構築されたモデルへのスマート ルーティング。
getSecondOpinionツール複数のモデルに同じ質問をして、回答を並べて比較します。
OpenAI互換APIレイヤーOpenAI エンドポイント (Azure、Together.ai、Groq など) を想定した任意のツールに MindBridge を組み込みます。
プロバイダーを自動検出キーを追加するだけです。MindBridge がセットアップと検出を自動的に処理します。
非常に柔軟すべてを env vars、MCP config、または JSON 経由で構成します。

なぜ MindBridge を選ぶのか?

「すべての LLM は何か得意としています。MindBridge はそれらを連携させます。」

最適な用途:

  • エージェントビルダー
  • マルチモデルワークフロー
  • AIオーケストレーションエンジン
  • 推論重視のタスク
  • よりスマートなAI開発環境の構築
  • LLM を活用したバックエンド
  • ベンダーウォールドガーデンにうんざりしている人

インストール 🛠️

オプション1: npmからインストールする(推奨)

# Install globally npm install -g @pinkpixel/mindbridge # use with npx npx @pinkpixel/mindbridge

オプション2: ソースからインストールする

  1. リポジトリをクローンします。
    git clone https://github.com/pinkpixel-dev/mindbridge.git cd mindbridge
  2. 依存関係をインストールします:
    chmod +x install.sh ./install.sh
  3. 環境変数を設定します。
    cp .env.example .env
    .envを編集し、使用したいプロバイダーの API キーを追加します。

設定 ⚙️

環境変数

サーバーは次の環境変数をサポートしています。

  • OPENAI_API_KEY : OpenAI API キー
  • ANTHROPIC_API_KEY : Anthropic APIキー
  • DEEPSEEK_API_KEY : DeepSeek APIキー
  • GOOGLE_API_KEY : Google AI APIキー
  • OPENROUTER_API_KEY : OpenRouter APIキー
  • OLLAMA_BASE_URL : OllamaインスタンスのURL(デフォルト: http://localhost:11434
  • OPENAI_COMPATIBLE_API_KEY : (オプション) OpenAI互換サービスのAPIキー
  • OPENAI_COMPATIBLE_API_BASE_URL : OpenAI互換サービスのベースURL
  • OPENAI_COMPATIBLE_API_MODELS : 利用可能なモデルのカンマ区切りリスト

MCP構成

Cursor や Windsurf などの MCP 互換 IDE で使用するには、 mcp.jsonファイルで次の構成を使用できます。

{ "mcpServers": { "mindbridge": { "command": "npx", "args": [ "-y", "@pinkpixel/mindbridge" ], "env": { "OPENAI_API_KEY": "OPENAI_API_KEY_HERE", "ANTHROPIC_API_KEY": "ANTHROPIC_API_KEY_HERE", "GOOGLE_API_KEY": "GOOGLE_API_KEY_HERE", "DEEPSEEK_API_KEY": "DEEPSEEK_API_KEY_HERE", "OPENROUTER_API_KEY": "OPENROUTER_API_KEY_HERE" }, "provider_config": { "openai": { "default_model": "gpt-4o" }, "anthropic": { "default_model": "claude-3-5-sonnet-20241022" }, "google": { "default_model": "gemini-2.0-flash" }, "deepseek": { "default_model": "deepseek-chat" }, "openrouter": { "default_model": "openai/gpt-4o" }, "ollama": { "base_url": "http://localhost:11434", "default_model": "llama3" }, "openai_compatible": { "api_key": "API_KEY_HERE_OR_REMOVE_IF_NOT_NEEDED", "base_url": "FULL_API_URL_HERE", "available_models": ["MODEL1", "MODEL2"], "default_model": "MODEL1" } }, "default_params": { "temperature": 0.7, "reasoning_effort": "medium" }, "alwaysAllow": [ "getSecondOpinion", "listProviders", "listReasoningModels" ] } } }

APIキーを実際のキーに置き換えてください。OpenAI互換の設定では、サービスが認証を必要としない場合はapi_keyフィールドを削除できます。

使い方💫

サーバーの起動

自動リロード付き開発モード:

npm run dev

生産モード:

npm run build npm start

グローバルにインストールする場合:

mindbridge

利用可能なツール

  1. セカンドオピニオンを取得する
    { provider: string; // LLM provider name model: string; // Model identifier prompt: string; // Your question or prompt systemPrompt?: string; // Optional system instructions temperature?: number; // Response randomness (0-1) maxTokens?: number; // Maximum response length reasoning_effort?: 'low' | 'medium' | 'high'; // For reasoning models }
  2. リストプロバイダー
    • 構成されたすべてのプロバイダーと利用可能なモデルを一覧表示します
    • パラメータは必要ありません
  3. リスト推論モデル
    • 推論タスクに最適化されたモデルをリストします
    • パラメータは必要ありません

使用例 📝

// Get an opinion from GPT-4o { "provider": "openai", "model": "gpt-4o", "prompt": "What are the key considerations for database sharding?", "temperature": 0.7, "maxTokens": 1000 } // Get a reasoned response from OpenAI's o1 model { "provider": "openai", "model": "o1", "prompt": "Explain the mathematical principles behind database indexing", "reasoning_effort": "high", "maxTokens": 4000 } // Get a reasoned response from DeepSeek { "provider": "deepseek", "model": "deepseek-reasoner", "prompt": "What are the tradeoffs between microservices and monoliths?", "reasoning_effort": "high", "maxTokens": 2000 } // Use an OpenAI-compatible provider { "provider": "openaiCompatible", "model": "YOUR_MODEL_NAME", "prompt": "Explain the concept of eventual consistency in distributed systems", "temperature": 0.5, "maxTokens": 1500 }

開発🔧

  • npm run lint : ESLint を実行する
  • npm run format : Prettier でコードをフォーマットする
  • npm run clean : ビルド成果物をクリーンアップする
  • npm run build : プロジェクトをビルドする

貢献

PR 歓迎!AI ワークフローの簡素化にご協力ください。


ライセンス

MIT — 何でもやってください。ただし、悪事はしないでください。


Pink Pixelが ❤️ を込めて作りました

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

スマート モデル オーケストレーション機能を使用してアプリケーションを複数の LLM プロバイダー (OpenAI、Anthropic、Google、DeepSeek、Ollama など) に接続し、さまざまな推論タスクのモデルを動的に切り替えることができる AI ルーターです。

  1. コア機能 🔥
    1. なぜ MindBridge を選ぶのか?
      1. インストール 🛠️
        1. オプション1: npmからインストールする(推奨)
        2. オプション2: ソースからインストールする
      2. 設定 ⚙️
        1. 環境変数
        2. MCP構成
      3. 使い方💫
        1. サーバーの起動
        2. 利用可能なツール
      4. 使用例 📝
        1. 開発🔧
          1. 貢献
            1. ライセンス

              Related MCP Servers

              • A
                security
                A
                license
                A
                quality
                Provides integration with OpenRouter.ai, allowing access to various AI models through a unified interface.
                Last updated -
                4
                85
                46
                TypeScript
                Apache 2.0
              • -
                security
                A
                license
                -
                quality
                Enables AI agents to interact with multiple LLM providers (OpenAI, Anthropic, Google, DeepSeek) through a standardized interface, making it easy to switch between models or use multiple models in the same application.
                Last updated -
                3
                Python
                MIT License
                • Linux
                • Apple
              • A
                security
                F
                license
                A
                quality
                A lightweight MCP server that provides a unified interface to various LLM providers including OpenAI, Anthropic, Google Gemini, Groq, DeepSeek, and Ollama.
                Last updated -
                6
                411
                Python
              • -
                security
                F
                license
                -
                quality
                A unified Model Context Protocol Gateway that bridges LLM interfaces with various tools and services, providing OpenAI API compatibility and supporting both synchronous and asynchronous tool execution.
                Last updated -
                Python

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/pinkpixel-dev/mindbridge-mcp'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server