OpenAI MCP サーバー
MCPプロトコルを使用して、Claudeから直接OpenAIモデルをクエリできます。このフォークは、メッセージ処理が改善されたo3-miniおよびgpt-4o-miniモデルのサポートを追加します。
クライン自動インストール
特徴
OpenAIのAPIとの直接統合
複数のモデルのサポート:
o3-mini(デフォルト):簡潔な応答に最適化
gpt-4o-mini: より詳細な応答のための強化モデル
設定可能なメッセージフォーマット
エラー処理とログ記録
MCPプロトコルによるシンプルなインターフェース
インストール
Smithery経由でインストール
Smithery経由で Claude Desktop 用の OpenAI MCP Server を自動的にインストールするには:
手動インストール
リポジトリのクローンを作成します:
Claude デスクトップを構成する:
このサーバーを既存のMCP設定に追加します。注: 既存のMCPサーバーは設定にそのまま残し、このサーバーをそれらと一緒に追加するだけです。
位置:
macOS:
~/Library/Application Support/Claude/claude_desktop_config.jsonWindows:
%APPDATA%/Claude/claude_desktop_config.jsonLinux: デフォルトのMCP設定の場所については、ホームディレクトリ(
~/)を確認してください。
OpenAI APIキーを取得する:
OpenAIのウェブサイトをご覧ください
アカウントを作成するかログインしてください
API設定に移動する
新しいAPIキーを生成する
上記のように設定ファイルにキーを追加します
クロードを再起動:
設定を更新した後、変更を有効にするためにClaudeを再起動します。
使用法
サーバーは、OpenAIモデルのクエリに使用できるツールask-openaiを1つ提供しています。Claudeでは、use_mcp_tool コマンドを使用して直接使用できます。
モデル比較
o3-mini(デフォルト)
最適な用途: 素早く簡潔な回答
スタイル: 直接的かつ効率的
応答例:
Python's asyncio provides non-blocking, collaborative multitasking. Key features: 1. Event Loop – Schedules and runs asynchronous tasks 2. Coroutines – Functions you can pause and resume 3. Tasks – Run coroutines concurrently 4. Futures – Represent future results 5. Non-blocking I/O – Efficient handling of I/O operations
gpt-4o-ミニ
最適な用途: より包括的な説明
スタイル: 詳細かつ徹底的
応答例:
Python's asyncio library provides a comprehensive framework for asynchronous programming. It includes an event loop for managing tasks, coroutines for writing non-blocking code, tasks for concurrent execution, futures for handling future results, and efficient I/O operations. The library also provides synchronization primitives and high-level APIs for network programming.
応答フォーマット
ツールは標準化された形式で応答を返します。
トラブルシューティング
サーバーが見つかりません:
設定内のPYTHONPATHが正しいディレクトリを指していることを確認してください
Pythonとpipが正しくインストールされていることを確認する
エラーを確認するには、
python -m src.mcp_server_openai.server --openai-api-key your-key-here直接実行してみてください。
認証エラー:
OpenAI APIキーが有効であることを確認してください
キーがargs配列に正しく渡されていることを確認する
キーに余分なスペースや文字がないことを確認してください
モデルエラー:
サポートされているモデル(o3-mini または gpt-4o-mini)を使用していることを確認してください
クエリが空でないことを確認してください
トークン制限を超えていないことを確認する
発達
オリジナルからの変更点
o3-miniおよびgpt-4o-miniモデルのサポートを追加しました
メッセージのフォーマットの改善
互換性向上のため温度パラメータを削除しました
詳細な使用例を含むドキュメントを更新しました
モデルの比較と応答例を追加しました
強化されたインストール手順
トラブルシューティングガイドを追加しました
ライセンス
MITライセンス
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
MCP プロトコルを介して OpenAI モデルとの統合を可能にし、Claude Desktop で使用するための簡潔で詳細な応答をサポートします。
Related Resources
Related MCP Servers
- -security-license-qualityThis tool creates a Model Context Protocol (MCP) server that acts as a proxy for any API that has an OpenAPI v3.1 specification. This allows you to use Claude Desktop to easily interact with both local and remote server APIs.Last updated -198837MIT License
 - -security-license-qualityA Model Context Protocol (MCP) server that lets you seamlessly use OpenAI's models right from Claude.Last updated -9068MIT License
 - Asecurity-licenseAqualityQuery OpenAI models directly from Claude using MCP protocol.Last updated -173MIT License
 - Asecurity-licenseAqualityA lightweight bridge that wraps OpenAI's built-in tools (like web search and code interpreter) as Model Context Protocol servers, enabling their use with Claude and other MCP-compatible models.Last updated -411MIT License