Integrations
LLM ブリッジ MCP
LLM Bridge MCPは、AIエージェントが標準化されたインターフェースを介して複数の大規模言語モデルと対話することを可能にします。メッセージ制御プロトコル(MCP)を活用して、異なるLLMプロバイダーへのシームレスなアクセスを提供し、モデル間の切り替えや、同一アプリケーション内での複数のモデルの使用を容易にします。
特徴
- 複数の LLM プロバイダーへの統合インターフェース:
- OpenAI(GPTモデル)
- 人類学的(クロードモデル)
- Google(ジェミニモデル)
- ディープシーク
- ...
- 型安全性と検証のためにPydantic AIを搭載
- 温度や最大トークンなどのカスタマイズ可能なパラメータをサポート
- 使用状況の追跡と指標を提供します
ツール
サーバーは次のツールを実装します。
Copy
prompt
: LLMに送信するテキストプロンプトmodel_name
: 使用する特定のモデル(デフォルト: "openai:gpt-4o-mini")temperature
: ランダム性を制御します(0.0~1.0)max_tokens
: 生成するトークンの最大数system_prompt
: モデルの動作をガイドするオプションのシステムプロンプト
インストール
Smithery経由でインストール
Smithery経由で Claude Desktop 用の llm-bridge-mcp を自動的にインストールするには:
Copy
手動インストール
- リポジトリをクローンします。
Copy
- uvをインストールします (まだインストールされていない場合)。
Copy
構成
API キーを使用してルート ディレクトリに.env
ファイルを作成します。
Copy
使用法
Claude DesktopまたはCursorと併用
Claude Desktop 構成ファイルまたは.cursor/mcp.json
にサーバー エントリを追加します。
Copy
トラブルシューティング
よくある問題
1. 「spawn uvx ENOENT」エラー
このエラーは、システムがPATH内でuvx
実行ファイルを見つけられない場合に発生します。解決するには、以下の手順に従ってください。
解決策: uvxへのフルパスを使用する
uvx 実行可能ファイルへの完全なパスを見つけます。
Copy
次に、完全なパスを使用するように MCP サーバー構成を更新します。
Copy
ライセンス
このプロジェクトは MIT ライセンスに基づいてライセンスされています - 詳細については LICENSE ファイルを参照してください。
This server cannot be installed
AI エージェントが標準化されたインターフェースを介して複数の LLM プロバイダー (OpenAI、Anthropic、Google、DeepSeek) と対話できるようになり、モデル間の切り替えや同じアプリケーションでの複数のモデルの使用が容易になります。