MindBridge MCP Server ⚡ ビッグブレインムーブのためのAIルーター
MindBridge は AI コマンド ハブであり、LLM ワークフローを統合、整理、強化するために構築されたモデル コンテキスト プロトコル (MCP) サーバーです。
ベンダーロックインは忘れてください。12 個の API を操る必要も忘れてください。
MindBridge は、OpenAI や Anthropic から Ollama や DeepSeek まで、あらゆるモデルにアプリを接続し、専門コンサルタントのチームのように相互に対話できるようにします。
素早いスピードが必要ですか?安価なモデルをお選びください。
複雑な推論が必要ですか?専門家にお任せください。
セカンドオピニオンが必要ですか? MindBridge にはそれが組み込まれています。
これは単なるモデルの集約ではありません。モデルのオーケストレーションです。
コア機能 🔥
何をするのか | なぜ使うべきか |
マルチLLMサポート | OpenAI、Anthropic、Google、DeepSeek、OpenRouter、Ollama (ローカル モデル)、OpenAI 互換 API 間を瞬時に切り替えます。 |
推論エンジン対応 | Claude、GPT-4o、DeepSeek Reasoner などの深層推論用に構築されたモデルへのスマート ルーティング。 |
getSecondOpinionツール | 複数のモデルに同じ質問をして、回答を並べて比較します。 |
OpenAI互換APIレイヤー | OpenAI エンドポイント (Azure、Together.ai、Groq など) を想定した任意のツールに MindBridge を組み込みます。 |
プロバイダーを自動検出 | キーを追加するだけです。MindBridge がセットアップと検出を自動的に処理します。 |
非常に柔軟 | すべてを env vars、MCP config、または JSON 経由で構成します。 |
Related MCP server: LLM Bridge MCP
なぜ MindBridge を選ぶのか?
「すべての LLM は何か得意としています。MindBridge はそれらを連携させます。」
最適な用途:
エージェントビルダー
マルチモデルワークフロー
AIオーケストレーションエンジン
推論重視のタスク
よりスマートなAI開発環境の構築
LLM を活用したバックエンド
ベンダーウォールドガーデンにうんざりしている人
インストール 🛠️
オプション1: npmからインストールする(推奨)
# Install globally
npm install -g @pinkpixel/mindbridge
# use with npx
npx @pinkpixel/mindbridgeオプション2: ソースからインストールする
リポジトリをクローンします。
git clone https://github.com/pinkpixel-dev/mindbridge.git cd mindbridge依存関係をインストールします:
chmod +x install.sh ./install.sh環境変数を設定します。
cp .env.example .env.envを編集し、使用したいプロバイダーの API キーを追加します。
設定 ⚙️
環境変数
サーバーは次の環境変数をサポートしています。
OPENAI_API_KEY: OpenAI API キーANTHROPIC_API_KEY: Anthropic APIキーDEEPSEEK_API_KEY: DeepSeek APIキーGOOGLE_API_KEY: Google AI APIキーOPENROUTER_API_KEY: OpenRouter APIキーOLLAMA_BASE_URL: OllamaインスタンスのURL(デフォルト: http://localhost:11434 )OPENAI_COMPATIBLE_API_KEY: (オプション) OpenAI互換サービスのAPIキーOPENAI_COMPATIBLE_API_BASE_URL: OpenAI互換サービスのベースURLOPENAI_COMPATIBLE_API_MODELS: 利用可能なモデルのカンマ区切りリスト
MCP構成
Cursor や Windsurf などの MCP 互換 IDE で使用するには、 mcp.jsonファイルで次の構成を使用できます。
{
"mcpServers": {
"mindbridge": {
"command": "npx",
"args": [
"-y",
"@pinkpixel/mindbridge"
],
"env": {
"OPENAI_API_KEY": "OPENAI_API_KEY_HERE",
"ANTHROPIC_API_KEY": "ANTHROPIC_API_KEY_HERE",
"GOOGLE_API_KEY": "GOOGLE_API_KEY_HERE",
"DEEPSEEK_API_KEY": "DEEPSEEK_API_KEY_HERE",
"OPENROUTER_API_KEY": "OPENROUTER_API_KEY_HERE"
},
"provider_config": {
"openai": {
"default_model": "gpt-4o"
},
"anthropic": {
"default_model": "claude-3-5-sonnet-20241022"
},
"google": {
"default_model": "gemini-2.0-flash"
},
"deepseek": {
"default_model": "deepseek-chat"
},
"openrouter": {
"default_model": "openai/gpt-4o"
},
"ollama": {
"base_url": "http://localhost:11434",
"default_model": "llama3"
},
"openai_compatible": {
"api_key": "API_KEY_HERE_OR_REMOVE_IF_NOT_NEEDED",
"base_url": "FULL_API_URL_HERE",
"available_models": ["MODEL1", "MODEL2"],
"default_model": "MODEL1"
}
},
"default_params": {
"temperature": 0.7,
"reasoning_effort": "medium"
},
"alwaysAllow": [
"getSecondOpinion",
"listProviders",
"listReasoningModels"
]
}
}
}APIキーを実際のキーに置き換えてください。OpenAI互換の設定では、サービスが認証を必要としない場合はapi_keyフィールドを削除できます。
使い方💫
サーバーの起動
自動リロード付き開発モード:
npm run dev生産モード:
npm run build
npm startグローバルにインストールする場合:
mindbridge利用可能なツール
セカンドオピニオンを取得する
{ provider: string; // LLM provider name model: string; // Model identifier prompt: string; // Your question or prompt systemPrompt?: string; // Optional system instructions temperature?: number; // Response randomness (0-1) maxTokens?: number; // Maximum response length reasoning_effort?: 'low' | 'medium' | 'high'; // For reasoning models }リストプロバイダー
構成されたすべてのプロバイダーと利用可能なモデルを一覧表示します
パラメータは必要ありません
リスト推論モデル
推論タスクに最適化されたモデルをリストします
パラメータは必要ありません
使用例 📝
// Get an opinion from GPT-4o
{
"provider": "openai",
"model": "gpt-4o",
"prompt": "What are the key considerations for database sharding?",
"temperature": 0.7,
"maxTokens": 1000
}
// Get a reasoned response from OpenAI's o1 model
{
"provider": "openai",
"model": "o1",
"prompt": "Explain the mathematical principles behind database indexing",
"reasoning_effort": "high",
"maxTokens": 4000
}
// Get a reasoned response from DeepSeek
{
"provider": "deepseek",
"model": "deepseek-reasoner",
"prompt": "What are the tradeoffs between microservices and monoliths?",
"reasoning_effort": "high",
"maxTokens": 2000
}
// Use an OpenAI-compatible provider
{
"provider": "openaiCompatible",
"model": "YOUR_MODEL_NAME",
"prompt": "Explain the concept of eventual consistency in distributed systems",
"temperature": 0.5,
"maxTokens": 1500
}開発🔧
npm run lint: ESLint を実行するnpm run format: Prettier でコードをフォーマットするnpm run clean: ビルド成果物をクリーンアップするnpm run build: プロジェクトをビルドする
貢献
PR 歓迎!AI ワークフローの簡素化にご協力ください。
ライセンス
MIT — 何でもやってください。ただし、悪事はしないでください。
Pink Pixelが ❤️ を込めて作りました