Leverages OpenAI's GPT-5.1 model with built-in Web Search capabilities to perform research queries and return results with citations through the Responses API.
Click on "Install Server".
Wait a few minutes for the server to deploy. Once ready, it will show a "Started" state.
In the chat, type
@followed by the MCP server name and your instructions, e.g., "@GPT Research MCP Serverresearch the latest developments in quantum computing for 2025"
That's it! The server will respond to your query, and you can continue using it as needed.
Here is a step-by-step guide with screenshots.
GPT Research MCP Server
OpenAI GPT-5.1 の Responses API と組み込み Web Search ツールを活用したリサーチ MCP サーバーです。
機能
research(query): GPT-5.1 の Web Search 機能を使用してクエリを調査し、引用情報付きの結果を返します
必要要件
Python 3.12+
uv パッケージマネージャー
OpenAI API キー
セットアップ
1. リポジトリのクローン
2. 依存関係のインストール
3. 環境変数の設定
カスタムエンドポイントの使用(オプション)
OpenAI 互換 API(Azure OpenAI、ローカル LLM など)を使用する場合は、OPENAI_BASE_URL を設定します:
設定しない場合は、デフォルトの https://api.openai.com/v1/ が使用されます。
4. LangFuse トレーシング(オプション)
LangFuse を使用して OpenAI API 呼び出しの可観測性を有効にできます。以下の環境変数をすべて設定すると自動的に有効化されます:
環境変数が設定されていない場合は、通常の OpenAI SDK が使用されます。
MCP サーバーとしてのインストール
Claude Code への登録
または ~/.claude/settings.json に直接追加:
OPENAI_BASE_URL はオプションです。カスタムエンドポイントを使用しない場合は省略可能です。
/path/to/gpt-research-mcp を実際のパスに置き換えてください。
使用方法
スタンドアロン実行
MCP ツールとして使用
MCP クライアント(Claude Desktop 等)から research ツールを呼び出します:
ツール仕様
research(query: str) -> str
パラメータ | 型 | 説明 |
|
| 調査したい質問やトピック |
戻り値: GPT-5.1 が生成したリサーチ結果(引用情報を含む)
技術スタック
コンポーネント | 技術 |
パッケージ管理 | uv |
Python バージョン | 3.12 |
MCP フレームワーク | FastMCP 2.0 |
OpenAI クライアント | openai (公式ライブラリ) |
モデル | gpt-5.1 |
トレーシング(オプション) | LangFuse |