OpenAI MCP サーバー
MCPプロトコルを使用して、Claudeから直接OpenAIモデルをクエリできます。このフォークは、メッセージ処理が改善されたo3-miniおよびgpt-4o-miniモデルのサポートを追加します。
クライン自動インストール
Set up the MCP server from https://github.com/thadius83/mcp-server-openai.
Use "github.com/thadius83/mcp-server-openai" as the server name in cline_mcp_settings.json.
Analyse the readme and instructions below. Do not create new files in the repo, utilise the findings from pyproject.toml, src/mcp_server_openai/server.py, src/mcp_server_openai/llm.py
Once installed, demonstrate the server's capabilities by using one of its tools.
Installation Steps:
# Clone the repository
git clone https://github.com/thadius83/mcp-server-openai
cd mcp-server-openai
# Install the package
pip install .`
MCP Settings Configuration: The cline_mcp_settings.json should be configured with:
Correct server name format: "github.com/thadius83/mcp-server-openai"
Python module path structure for the server
PYTHONPATH environment variable pointing to the project directory
OpenAI API key passed as a command line argument
Example configuration:
{
"mcpServers": {
"github.com/thadius83/mcp-server-openai": {
"command": "python",
"args": [
"-m",
"src.mcp_server_openai.server",
"--openai-api-key",
"your-openai-api-key"
],
"env": {
"PYTHONPATH": "/path/to/mcp-server-openai"
},
"disabled": false,
"autoApprove": []
}
}
}
Requirements:
Python >= 3.10
OpenAI API key
Dependencies installed via pip (mcp>=0.9.1, openai>=1.0.0, click>=8.0.0, pytest-asyncio)
Available Tools:
Tool Name: ask-openai
Description: Ask OpenAI assistant models a direct question
Models Available:
o3-mini (default)
gpt-4o-mini
Input Schema:
{
"query": "Your question here",
"model": "o3-mini" // optional, defaults to o3-mini
}
特徴
- OpenAIのAPIとの直接統合
- 複数のモデルのサポート:
- o3-mini(デフォルト):簡潔な応答に最適化
- gpt-4o-mini: より詳細な応答のための強化モデル
- 設定可能なメッセージフォーマット
- エラー処理とログ記録
- MCPプロトコルによるシンプルなインターフェース
インストール
Smithery経由でインストール
Smithery経由で Claude Desktop 用の OpenAI MCP Server を自動的にインストールするには:
npx -y @smithery/cli install @thadius83/mcp-server-openai --client claude
手動インストール
- リポジトリのクローンを作成します:
git clone https://github.com/thadius83/mcp-server-openai.git
cd mcp-server-openai
# Install dependencies
pip install -e .
- Claude デスクトップを構成する:
このサーバーを既存のMCP設定に追加します。注: 既存のMCPサーバーは設定にそのまま残し、このサーバーをそれらと一緒に追加するだけです。
位置:
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- Windows:
%APPDATA%/Claude/claude_desktop_config.json
- Linux: デフォルトのMCP設定の場所については、ホームディレクトリ(
~/
)を確認してください。
{
"mcpServers": {
// ... keep your existing MCP servers here ...
"github.com/thadius83/mcp-server-openai": {
"command": "python",
"args": ["-m", "src.mcp_server_openai.server", "--openai-api-key", "your-key-here"],
"env": {
"PYTHONPATH": "/path/to/your/mcp-server-openai"
}
}
}
}
- OpenAI APIキーを取得する:
- OpenAIのウェブサイトをご覧ください
- アカウントを作成するかログインしてください
- API設定に移動する
- 新しいAPIキーを生成する
- 上記のように設定ファイルにキーを追加します
- クロードを再起動:
- 設定を更新した後、変更を有効にするためにClaudeを再起動します。
使用法
サーバーは、OpenAIモデルのクエリに使用できるツールask-openai
を1つ提供しています。Claudeでは、use_mcp_tool コマンドを使用して直接使用できます。
<use_mcp_tool>
<server_name>github.com/thadius83/mcp-server-openai</server_name>
<tool_name>ask-openai</tool_name>
<arguments>
{
"query": "What are the key features of Python's asyncio library?",
"model": "o3-mini" // Optional, defaults to o3-mini
}
</arguments>
</use_mcp_tool>
モデル比較
- o3-mini(デフォルト)
- 最適な用途: 素早く簡潔な回答
- スタイル: 直接的かつ効率的
- 応答例:
Python's asyncio provides non-blocking, collaborative multitasking. Key features:
1. Event Loop – Schedules and runs asynchronous tasks
2. Coroutines – Functions you can pause and resume
3. Tasks – Run coroutines concurrently
4. Futures – Represent future results
5. Non-blocking I/O – Efficient handling of I/O operations
- gpt-4o-ミニ
- 最適な用途: より包括的な説明
- スタイル: 詳細かつ徹底的
- 応答例:
Python's asyncio library provides a comprehensive framework for asynchronous programming.
It includes an event loop for managing tasks, coroutines for writing non-blocking code,
tasks for concurrent execution, futures for handling future results, and efficient I/O
operations. The library also provides synchronization primitives and high-level APIs
for network programming.
応答フォーマット
ツールは標準化された形式で応答を返します。
{
"content": [
{
"type": "text",
"text": "Response from the model..."
}
]
}
トラブルシューティング
- サーバーが見つかりません:
- 設定内のPYTHONPATHが正しいディレクトリを指していることを確認してください
- Pythonとpipが正しくインストールされていることを確認する
- エラーを確認するには、
python -m src.mcp_server_openai.server --openai-api-key your-key-here
直接実行してみてください。
- 認証エラー:
- OpenAI APIキーが有効であることを確認してください
- キーがargs配列に正しく渡されていることを確認する
- キーに余分なスペースや文字がないことを確認してください
- モデルエラー:
- サポートされているモデル(o3-mini または gpt-4o-mini)を使用していることを確認してください
- クエリが空でないことを確認してください
- トークン制限を超えていないことを確認する
発達
# Install development dependencies
pip install -e ".[dev]"
# Run tests
pytest -v test_openai.py -s
オリジナルからの変更点
- o3-miniおよびgpt-4o-miniモデルのサポートを追加しました
- メッセージのフォーマットの改善
- 互換性向上のため温度パラメータを削除しました
- 詳細な使用例を含むドキュメントを更新しました
- モデルの比較と応答例を追加しました
- 強化されたインストール手順
- トラブルシューティングガイドを追加しました
ライセンス
MITライセンス