🔍 Сервер MCP исследователя GPT
Почему GPT Researcher MCP?
В то время как приложения LLM могут получать доступ к инструментам веб-поиска с помощью MCP, GPT Researcher MCP обеспечивает глубокие результаты исследований. Стандартные инструменты поиска возвращают необработанные результаты, требующие ручной фильтрации, часто содержащие нерелевантные источники и тратящие пространство контекстного окна.
GPT Researcher автономно исследует и проверяет многочисленные источники, фокусируясь только на релевантной, надежной и актуальной информации. Хотя он немного медленнее стандартного поиска (ожидание около 30 секунд), он обеспечивает:
✨ Более качественная информация
📊 Оптимизированное использование контекста
🔎 Комплексные результаты
🧠 Лучшее обоснование для LLM
Related MCP server: Docs Fetch MCP Server
💻 Демонстрация рабочего стола Клода
https://github.com/user-attachments/assets/ef97eea5-a409-42b9-8f6d-b82ab16c52a8
Ресурсы
research_resource: Получить веб-ресурсы, связанные с заданной задачей, с помощью исследования.
Основные инструменты
deep_research: выполняет глубокое веб-исследование по теме, находя наиболее надежную и релевантную информацию.quick_search: Выполняет быстрый поиск в Интернете, оптимизированный для скорости, а не качества, возвращая результаты поиска с фрагментами. Поддерживает любой поддерживаемый GPTR веб-извлекатель, такой как Tavily, Bing, Google и т. д... Узнайте больше здесьwrite_report: Создать отчет на основе результатов исследованияget_research_sources: Получить источники, использованные в исследованииget_research_context: Получить полный контекст исследования
Подсказки
research_query: Создать запрос на исследовательский запрос
Предпосылки
Перед запуском сервера MCP убедитесь, что у вас есть:
Установлен Python 3.11 или выше
Важно : GPT Researcher >=0.12.16 требует Python 3.11+
API-ключи для сервисов, которые вы планируете использовать:
⚙️ Установка
Клонируйте репозиторий GPT Researcher:
git clone https://github.com/assafelovic/gpt-researcher.git
cd gpt-researcherУстановите зависимости gptr-mcp:
cd gptr-mcp
pip install -r requirements.txtНастройте переменные среды:
Скопируйте файл
.env.example, чтобы создать новый файл с именем.env: GXP3Отредактируйте файл
.env, добавьте свои ключи API и настройте другие параметры: GXP4
Вы также можете добавить любую другую переменную окружения для конфигурации GPT Researcher.
🚀 Запуск сервера MCP
Запустить сервер MCP можно несколькими способами:
Метод 1: Непосредственное использование Python
python server.pyМетод 2: Использование MCP CLI (если установлен)
mcp run server.pyМетод 3: Использование Docker (рекомендуется для производства)
Вариант А: Автономный режим
Это самый простой способ запустить сервер, если вам не нужно подключаться к другим контейнерам:
# Build and run with docker-compose
docker-compose -f docker-compose.standalone.yml up -d
# Or manually:
docker build -t gpt-mcp-server .
docker run -d \
--name gpt-mcp-server \
-p 8000:8000 \
--env-file .env \
gpt-mcp-serverВариант B: С сетью для интеграции n8n
Если вам необходимо подключиться к другим сервисам, например n8n, в той же сети:
# Create the network if it doesn't exist
docker network create n8n-mcp-net
# Build and run with docker-compose
docker-compose up -d
# Or manually:
docker build -t gpt-mcp-server .
docker run -d \
--name gpt-mcp-server \
--network n8n-mcp-net \
-p 8000:8000 \
--env-file .env \
gpt-mcp-serverПримечание : Образ Docker использует Python 3.11 для соответствия требованиям gpt-researcher >=0.12.16. Если вы столкнулись с ошибками во время сборки, убедитесь, что вы используете последнюю версию Dockerfile из этого репозитория.
После запуска сервера вы увидите вывод, указывающий на то, что сервер готов принимать соединения. Вы можете проверить его работу следующим образом:
Доступ к документации OpenAPI по адресу http://localhost:8000/docs
Тестирование конечной точки MCP по адресу http://localhost:8000/mcp
Интеграция с Клодом
Вы можете интегрировать свой MCP-сервер с Claude, используя:
Интеграция с Claude Desktop — для использования с приложением Claude Desktop на Mac
Подробные инструкции можно найти по ссылке выше.
💻 Интеграция с рабочим столом Клода
Чтобы интегрировать локально работающий сервер MCP с Claude для Mac, вам необходимо:
Убедитесь, что сервер MCP установлен и работает.
Настройте рабочий стол Claude:
Найдите или создайте файл конфигурации в
~/Library/Application Support/Claude/claude_desktop_config.jsonДобавьте ваш локальный сервер GPT Researcher MCP в конфигурацию
Перезапустите Claude, чтобы применить конфигурацию.
Полные пошаговые инструкции см. в руководстве по интеграции Claude Desktop .
📝 Пример использования с Клодом
User: I'm considering investing in NVIDIA. Can you research the current state of the company, recent stock performance, latest product announcements, and analyst opinions?
Claude: I'll help you research NVIDIA for investment purposes. This will take a moment as I conduct comprehensive research to find the most up-to-date information about their stock performance, recent developments, and expert analysis.
[Claude uses conduct_research tool - this takes 30-40 seconds]
Claude: Based on my research, here's a comprehensive analysis of NVIDIA's current state:
## NVIDIA (NVDA) Current Status
### Recent Stock Performance
- Current price: $942.89 (as of my research)
- YTD performance: +90.4%
- 52-week range: $460.30 - $974.00
- Market cap: ~$2.32 trillion
### Recent Key Developments
1. **Blackwell AI Platform**: At GTC 2024, NVIDIA unveiled the Blackwell architecture, their next-generation AI chip platform promising 4x performance improvement over Hopper. Major cloud providers (AWS, Google, Microsoft) have already committed to integrating Blackwell.
2. **Q1 FY2025 Earnings (May 2024)**:
- Revenue: $26.0 billion (+262% YoY)
- Data Center revenue: $22.6 billion (+427% YoY)
- Gross margin: 78.4%
- Announced 10-for-1 stock split effective June 7, 2024
3. **Supply Chain Expansion**: Increased investments in manufacturing capacity with TSMC to address ongoing chip shortages for their high-demand AI GPUs.
### Analyst Consensus
- Strong Buy consensus with 37 analysts rating it "Buy," 5 "Hold," and 0 "Sell"
- Average price target: $1,042 (post-split adjusted: $104.20)
- Key bull thesis: Continued AI infrastructure spending and NVIDIA's dominant position in AI chips
- Key bear concerns: Valuation, potential competition from AMD, Intel, and custom silicon from tech giants
### Industry Position
- Dominant in AI GPU market with estimated 80-90% market share
- Expanding ecosystem through CUDA software platform and industry partnerships
- Diversifying beyond chips with DGX Cloud, AI software platforms, and automotive solutions🔧 Устранение неполадок
Если у вас возникли проблемы при работе сервера MCP:
Убедитесь, что ваши ключи API правильно установлены в файле
.envУбедитесь, что вы используете Python 3.11 или выше (требуется для gpt-researcher >=0.12.16)
Убедитесь, что все зависимости установлены правильно.
Проверьте журналы сервера на наличие сообщений об ошибках.
Если вы работаете с Docker и столкнулись с проблемами:
Убедитесь, что контейнер запущен:
docker ps | grep gpt-mcp-serverПроверьте логи контейнера:
docker logs gpt-mcp-serverУбедитесь, что сервер привязан ко всем интерфейсам — журналы должны показывать прослушивание на 0.0.0.0:8000.
Если во время сборки вы видите ошибки зависимостей:
Убедитесь, что вы используете обновленный Dockerfile с Python 3.11
Попробуйте выполнить пересборку с флагом
--no-cache:docker build --no-cache -t gpt-mcp-server .Проверьте, соответствует ли версия gpt-researcher в файле requirements.txt версии Python.
По вопросам локальной установки:
# Check your Python version (must be 3.11+)
python --version
# Update pip to the latest version
pip install --upgrade pip
# If you're using a virtual environment, create a new one with Python 3.11
python3.11 -m venv venv
source venv/bin/activate # On Windows: venv\Scripts\activate👣 Дальнейшие шаги
Изучите документацию по протоколу MCP, чтобы лучше понять, как интегрироваться с Claude.
Узнайте об основных функциях GPT Researcher, которые расширят ваши исследовательские возможности.
Ознакомьтесь с руководством по расширенному использованию для получения дополнительных параметров конфигурации.
📄 Лицензия
Данный проект лицензирован по лицензии MIT — подробности см. в файле LICENSE.
📞 Поддержка / Контакты
Электронная почта: assaf.elovic@gmail.com