LLM Bridge MCP
LLM ブリッジ MCP
LLM Bridge MCPは、AIエージェントが標準化されたインターフェースを介して複数の大規模言語モデルと対話することを可能にします。メッセージ制御プロトコル(MCP)を活用して、異なるLLMプロバイダーへのシームレスなアクセスを提供し、モデル間の切り替えや、同一アプリケーション内での複数のモデルの使用を容易にします。
特徴
複数の LLM プロバイダーへの統合インターフェース:
OpenAI(GPTモデル)
人類学的(クロードモデル)
Google(ジェミニモデル)
ディープシーク
...
型安全性と検証のためにPydantic AIを搭載
温度や最大トークンなどのカスタマイズ可能なパラメータをサポート
使用状況の追跡と指標を提供します
Related MCP server: Model Context Provider (MCP) Server
ツール
サーバーは次のツールを実装します。
run_llm(
prompt: str,
model_name: KnownModelName = "openai:gpt-4o-mini",
temperature: float = 0.7,
max_tokens: int = 8192,
system_prompt: str = "",
) -> LLMResponseprompt: LLMに送信するテキストプロンプトmodel_name: 使用する特定のモデル(デフォルト: "openai:gpt-4o-mini")temperature: ランダム性を制御します(0.0~1.0)max_tokens: 生成するトークンの最大数system_prompt: モデルの動作をガイドするオプションのシステムプロンプト
インストール
Smithery経由でインストール
Smithery経由で Claude Desktop 用の llm-bridge-mcp を自動的にインストールするには:
npx -y @smithery/cli install @sjquant/llm-bridge-mcp --client claude手動インストール
リポジトリをクローンします。
git clone https://github.com/yourusername/llm-bridge-mcp.git
cd llm-bridge-mcpuvをインストールします (まだインストールされていない場合)。
# On macOS
brew install uv
# On Linux
curl -LsSf https://astral.sh/uv/install.sh | sh
# On Windows
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"構成
API キーを使用してルート ディレクトリに.envファイルを作成します。
OPENAI_API_KEY=your_openai_api_key
ANTHROPIC_API_KEY=your_anthropic_api_key
GOOGLE_API_KEY=your_google_api_key
DEEPSEEK_API_KEY=your_deepseek_api_key使用法
Claude DesktopまたはCursorと併用
Claude Desktop 構成ファイルまたは.cursor/mcp.jsonにサーバー エントリを追加します。
"mcpServers": {
"llm-bridge": {
"command": "uvx",
"args": [
"llm-bridge-mcp"
],
"env": {
"OPENAI_API_KEY": "your_openai_api_key",
"ANTHROPIC_API_KEY": "your_anthropic_api_key",
"GOOGLE_API_KEY": "your_google_api_key",
"DEEPSEEK_API_KEY": "your_deepseek_api_key"
}
}
}トラブルシューティング
よくある問題
1. 「spawn uvx ENOENT」エラー
このエラーは、システムがPATH内でuvx実行ファイルを見つけられない場合に発生します。解決するには、以下の手順に従ってください。
解決策: uvxへのフルパスを使用する
uvx 実行可能ファイルへの完全なパスを見つけます。
# On macOS/Linux
which uvx
# On Windows
where.exe uvx次に、完全なパスを使用するように MCP サーバー構成を更新します。
"mcpServers": {
"llm-bridge": {
"command": "/full/path/to/uvx", // Replace with your actual path
"args": [
"llm-bridge-mcp"
],
"env": {
// ... your environment variables
}
}
}ライセンス
このプロジェクトは MIT ライセンスに基づいてライセンスされています - 詳細については LICENSE ファイルを参照してください。
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Tools
Appeared in Searches
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/sjquant/llm-bridge-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server