OpenAI MCP サーバー
MCPプロトコルを使用して、Claudeから直接OpenAIモデルをクエリできます。このフォークは、メッセージ処理が改善されたo3-miniおよびgpt-4o-miniモデルのサポートを追加します。
クライン自動インストール
Set up the MCP server from https://github.com/thadius83/mcp-server-openai.
Use "github.com/thadius83/mcp-server-openai" as the server name in cline_mcp_settings.json.
Analyse the readme and instructions below. Do not create new files in the repo, utilise the findings from pyproject.toml, src/mcp_server_openai/server.py, src/mcp_server_openai/llm.py
Once installed, demonstrate the server's capabilities by using one of its tools.
Installation Steps:
# Clone the repository
git clone https://github.com/thadius83/mcp-server-openai
cd mcp-server-openai
# Install the package
pip install .`
MCP Settings Configuration: The cline_mcp_settings.json should be configured with:
Correct server name format: "github.com/thadius83/mcp-server-openai"
Python module path structure for the server
PYTHONPATH environment variable pointing to the project directory
OpenAI API key passed as a command line argument
Example configuration:
{
"mcpServers": {
"github.com/thadius83/mcp-server-openai": {
"command": "python",
"args": [
"-m",
"src.mcp_server_openai.server",
"--openai-api-key",
"your-openai-api-key"
],
"env": {
"PYTHONPATH": "/path/to/mcp-server-openai"
},
"disabled": false,
"autoApprove": []
}
}
}
Requirements:
Python >= 3.10
OpenAI API key
Dependencies installed via pip (mcp>=0.9.1, openai>=1.0.0, click>=8.0.0, pytest-asyncio)
Available Tools:
Tool Name: ask-openai
Description: Ask OpenAI assistant models a direct question
Models Available:
o3-mini (default)
gpt-4o-mini
Input Schema:
{
"query": "Your question here",
"model": "o3-mini" // optional, defaults to o3-mini
}Related MCP server: MCP OpenAI Server
特徴
OpenAIのAPIとの直接統合
複数のモデルのサポート:
o3-mini(デフォルト):簡潔な応答に最適化
gpt-4o-mini: より詳細な応答のための強化モデル
設定可能なメッセージフォーマット
エラー処理とログ記録
MCPプロトコルによるシンプルなインターフェース
インストール
Smithery経由でインストール
Smithery経由で Claude Desktop 用の OpenAI MCP Server を自動的にインストールするには:
npx -y @smithery/cli install @thadius83/mcp-server-openai --client claude手動インストール
リポジトリのクローンを作成します:
git clone https://github.com/thadius83/mcp-server-openai.git
cd mcp-server-openai
# Install dependencies
pip install -e .Claude デスクトップを構成する:
このサーバーを既存のMCP設定に追加します。注: 既存のMCPサーバーは設定にそのまま残し、このサーバーをそれらと一緒に追加するだけです。
位置:
macOS:
~/Library/Application Support/Claude/claude_desktop_config.jsonWindows:
%APPDATA%/Claude/claude_desktop_config.jsonLinux: デフォルトのMCP設定の場所については、ホームディレクトリ(
~/)を確認してください。
{
"mcpServers": {
// ... keep your existing MCP servers here ...
"github.com/thadius83/mcp-server-openai": {
"command": "python",
"args": ["-m", "src.mcp_server_openai.server", "--openai-api-key", "your-key-here"],
"env": {
"PYTHONPATH": "/path/to/your/mcp-server-openai"
}
}
}
}OpenAI APIキーを取得する:
OpenAIのウェブサイトをご覧ください
アカウントを作成するかログインしてください
API設定に移動する
新しいAPIキーを生成する
上記のように設定ファイルにキーを追加します
クロードを再起動:
設定を更新した後、変更を有効にするためにClaudeを再起動します。
使用法
サーバーは、OpenAIモデルのクエリに使用できるツールask-openaiを1つ提供しています。Claudeでは、use_mcp_tool コマンドを使用して直接使用できます。
<use_mcp_tool>
<server_name>github.com/thadius83/mcp-server-openai</server_name>
<tool_name>ask-openai</tool_name>
<arguments>
{
"query": "What are the key features of Python's asyncio library?",
"model": "o3-mini" // Optional, defaults to o3-mini
}
</arguments>
</use_mcp_tool>モデル比較
o3-mini(デフォルト)
最適な用途: 素早く簡潔な回答
スタイル: 直接的かつ効率的
応答例:
Python's asyncio provides non-blocking, collaborative multitasking. Key features: 1. Event Loop – Schedules and runs asynchronous tasks 2. Coroutines – Functions you can pause and resume 3. Tasks – Run coroutines concurrently 4. Futures – Represent future results 5. Non-blocking I/O – Efficient handling of I/O operations
gpt-4o-ミニ
最適な用途: より包括的な説明
スタイル: 詳細かつ徹底的
応答例:
Python's asyncio library provides a comprehensive framework for asynchronous programming. It includes an event loop for managing tasks, coroutines for writing non-blocking code, tasks for concurrent execution, futures for handling future results, and efficient I/O operations. The library also provides synchronization primitives and high-level APIs for network programming.
応答フォーマット
ツールは標準化された形式で応答を返します。
{
"content": [
{
"type": "text",
"text": "Response from the model..."
}
]
}トラブルシューティング
サーバーが見つかりません:
設定内のPYTHONPATHが正しいディレクトリを指していることを確認してください
Pythonとpipが正しくインストールされていることを確認する
エラーを確認するには、
python -m src.mcp_server_openai.server --openai-api-key your-key-here直接実行してみてください。
認証エラー:
OpenAI APIキーが有効であることを確認してください
キーがargs配列に正しく渡されていることを確認する
キーに余分なスペースや文字がないことを確認してください
モデルエラー:
サポートされているモデル(o3-mini または gpt-4o-mini)を使用していることを確認してください
クエリが空でないことを確認してください
トークン制限を超えていないことを確認する
発達
# Install development dependencies
pip install -e ".[dev]"
# Run tests
pytest -v test_openai.py -sオリジナルからの変更点
o3-miniおよびgpt-4o-miniモデルのサポートを追加しました
メッセージのフォーマットの改善
互換性向上のため温度パラメータを削除しました
詳細な使用例を含むドキュメントを更新しました
モデルの比較と応答例を追加しました
強化されたインストール手順
トラブルシューティングガイドを追加しました
ライセンス
MITライセンス
Resources
Looking for Admin?
Admins can modify the Dockerfile, update the server description, and track usage metrics. If you are the server author, to access the admin panel.