OpenRouter MCP サーバー
OpenRouter.aiの多様なモデルエコシステムとのシームレスな統合を実現するモデルコンテキストプロトコル(MCP)サーバー。キャッシュ、レート制限、エラー処理を内蔵した統合型セーフインターフェースを通じて、様々なAIモデルにアクセスできます。
特徴
- モデルアクセス
- すべてのOpenRouter.aiモデルへの直接アクセス
- 自動モデル検証と機能チェック
- デフォルトのモデル構成のサポート
- パフォーマンスの最適化
- スマートモデル情報のキャッシュ(1時間で有効期限切れ)
- 自動レート制限管理
- 失敗したリクエストに対する指数バックオフ
- 統一応答形式
- すべてのレスポンスに一貫した
ToolResult
構造 isError
フラグでエラー識別をクリアする- コンテキスト付きの構造化されたエラーメッセージ
- すべてのレスポンスに一貫した
インストール
構成
前提条件
- OpenRouter KeysからOpenRouter APIキーを取得します。
- デフォルトモデルを選択する(オプション)
環境変数
設定
MCP 設定構成ファイル ( cline_mcp_settings.json
またはclaude_desktop_config.json
) に追加します。
応答フォーマット
すべてのツールは、標準化された構造で応答を返します。
成功例:
エラー例:
利用可能なツール
チャット完了
OpenRouter.ai モデルにメッセージを送信します。
検索モデル
利用可能なモデルを検索してフィルタリングします:
モデル情報を取得する
特定のモデルに関する詳細情報を取得します。
検証モデル
モデル ID が有効かどうかを確認します。
エラー処理
サーバーは、コンテキスト情報を含む構造化されたエラーを提供します。
一般的なエラー カテゴリ:
Validation Error
: 入力パラメータが無効ですAPI Error
: OpenRouter API通信の問題Rate Limit
: リクエストスロットリング検出Internal Error
: サーバー側の処理エラー
応答の処理:
発達
詳細については、 CONTRIBUTING.md を参照してください。
- 開発セットアップ
- プロジェクト構造
- 機能実装
- エラー処理ガイドライン
- ツールの使用例
変更履歴
以下の内容を含む最近の更新については、 CHANGELOG.md を参照してください。
- 統一された応答形式の実装
- 強化されたエラー処理システム
- 型安全なインターフェースの改善
ライセンス
このプロジェクトは、Apache License 2.0 に基づいてライセンスされています。詳細については、 LICENSEファイルを参照してください。
You must be authenticated.
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
OpenRouter.ai との統合を提供し、統一されたインターフェースを通じてさまざまな AI モデルにアクセスできるようになります。
Related MCP Servers
- -securityAlicense-qualityThis server facilitates the invocation of AI models from providers like Anthropic, OpenAI, and Groq, enabling users to manage and configure large language model interactions seamlessly.Last updated -9PythonMIT License
- -securityAlicense-qualityA proxy server that bridges AI agents and external APIs by dynamically translating OpenAPI specifications into standardized MCP tools, enabling seamless interaction without custom integration code.Last updated -39PythonMIT License
- -securityAlicense-qualityEnables AI agents to interact with multiple LLM providers (OpenAI, Anthropic, Google, DeepSeek) through a standardized interface, making it easy to switch between models or use multiple models in the same application.Last updated -3PythonMIT License
- AsecurityAlicenseAqualityAn AI router that connects applications to multiple LLM providers (OpenAI, Anthropic, Google, DeepSeek, Ollama, etc.) with smart model orchestration capabilities, enabling dynamic switching between models for different reasoning tasks.Last updated -3811TypeScriptMIT License