MindBridge MCP Server ⚡ ビッグブレインムーブのためのAIルーター
MindBridge は AI コマンド ハブであり、LLM ワークフローを統合、整理、強化するために構築されたモデル コンテキスト プロトコル (MCP) サーバーです。
ベンダーロックインは忘れてください。12 個の API を操る必要も忘れてください。
MindBridge は、OpenAI や Anthropic から Ollama や DeepSeek まで、あらゆるモデルにアプリを接続し、専門コンサルタントのチームのように相互に対話できるようにします。
素早いスピードが必要ですか?安価なモデルをお選びください。
複雑な推論が必要ですか?専門家にお任せください。
セカンドオピニオンが必要ですか? MindBridge にはそれが組み込まれています。
これは単なるモデルの集約ではありません。モデルのオーケストレーションです。
コア機能 🔥
何をするのか | なぜ使うべきか |
マルチLLMサポート | OpenAI、Anthropic、Google、DeepSeek、OpenRouter、Ollama (ローカル モデル)、OpenAI 互換 API 間を瞬時に切り替えます。 |
推論エンジン対応 | Claude、GPT-4o、DeepSeek Reasoner などの深層推論用に構築されたモデルへのスマート ルーティング。 |
getSecondOpinionツール | 複数のモデルに同じ質問をして、回答を並べて比較します。 |
OpenAI互換APIレイヤー | OpenAI エンドポイント (Azure、Together.ai、Groq など) を想定した任意のツールに MindBridge を組み込みます。 |
プロバイダーを自動検出 | キーを追加するだけです。MindBridge がセットアップと検出を自動的に処理します。 |
非常に柔軟 | すべてを env vars、MCP config、または JSON 経由で構成します。 |
なぜ MindBridge を選ぶのか?
「すべての LLM は何か得意としています。MindBridge はそれらを連携させます。」
最適な用途:
エージェントビルダー
マルチモデルワークフロー
AIオーケストレーションエンジン
推論重視のタスク
よりスマートなAI開発環境の構築
LLM を活用したバックエンド
ベンダーウォールドガーデンにうんざりしている人
インストール 🛠️
オプション1: npmからインストールする(推奨)
オプション2: ソースからインストールする
リポジトリをクローンします。
git clone https://github.com/pinkpixel-dev/mindbridge.git cd mindbridge依存関係をインストールします:
chmod +x install.sh ./install.sh環境変数を設定します。
cp .env.example .env.envを編集し、使用したいプロバイダーの API キーを追加します。
設定 ⚙️
環境変数
サーバーは次の環境変数をサポートしています。
OPENAI_API_KEY: OpenAI API キーANTHROPIC_API_KEY: Anthropic APIキーDEEPSEEK_API_KEY: DeepSeek APIキーGOOGLE_API_KEY: Google AI APIキーOPENROUTER_API_KEY: OpenRouter APIキーOLLAMA_BASE_URL: OllamaインスタンスのURL(デフォルト: http://localhost:11434 )OPENAI_COMPATIBLE_API_KEY: (オプション) OpenAI互換サービスのAPIキーOPENAI_COMPATIBLE_API_BASE_URL: OpenAI互換サービスのベースURLOPENAI_COMPATIBLE_API_MODELS: 利用可能なモデルのカンマ区切りリスト
MCP構成
Cursor や Windsurf などの MCP 互換 IDE で使用するには、 mcp.jsonファイルで次の構成を使用できます。
APIキーを実際のキーに置き換えてください。OpenAI互換の設定では、サービスが認証を必要としない場合はapi_keyフィールドを削除できます。
使い方💫
サーバーの起動
自動リロード付き開発モード:
生産モード:
グローバルにインストールする場合:
利用可能なツール
セカンドオピニオンを取得する
{ provider: string; // LLM provider name model: string; // Model identifier prompt: string; // Your question or prompt systemPrompt?: string; // Optional system instructions temperature?: number; // Response randomness (0-1) maxTokens?: number; // Maximum response length reasoning_effort?: 'low' | 'medium' | 'high'; // For reasoning models }リストプロバイダー
構成されたすべてのプロバイダーと利用可能なモデルを一覧表示します
パラメータは必要ありません
リスト推論モデル
推論タスクに最適化されたモデルをリストします
パラメータは必要ありません
使用例 📝
開発🔧
npm run lint: ESLint を実行するnpm run format: Prettier でコードをフォーマットするnpm run clean: ビルド成果物をクリーンアップするnpm run build: プロジェクトをビルドする
貢献
PR 歓迎!AI ワークフローの簡素化にご協力ください。
ライセンス
MIT — 何でもやってください。ただし、悪事はしないでください。
Pink Pixelが ❤️ を込めて作りました
Related MCP Servers
- Asecurity-licenseAqualityProvides integration with OpenRouter.ai, allowing access to various AI models through a unified interface.Last updated -5858Apache 2.0
- AsecurityAlicenseAqualityEnables AI agents to interact with multiple LLM providers (OpenAI, Anthropic, Google, DeepSeek) through a standardized interface, making it easy to switch between models or use multiple models in the same application.Last updated -16MIT License
- -securityFlicense-qualityA unified Model Context Protocol Gateway that bridges LLM interfaces with various tools and services, providing OpenAI API compatibility and supporting both synchronous and asynchronous tool execution.Last updated -1
- -securityAlicense-qualityA middleware system that connects large language models (LLMs) with various tool services through an OpenAI-compatible API, enabling enhanced AI assistant capabilities with features like file operations, web browsing, and database management.Last updated -3MIT License