GPT Researcher MCP Server

by assafelovic
Integrations
  • Repository hosting for the MCP server code, accessed through cloning for installation.

  • Supported as a web retriever option for the quick_search tool, allowing search queries through Google's search engine.

  • Integrates with OpenAI's API for powering the research functionality, requiring an API key for operation.

🔍 Сервер MCP исследователя GPT

Почему GPT Researcher MCP?

В то время как приложения LLM могут получать доступ к инструментам веб-поиска с помощью MCP, GPT Researcher MCP обеспечивает глубокие результаты исследований. Стандартные инструменты поиска возвращают необработанные результаты, требующие ручной фильтрации, часто содержащие нерелевантные источники и тратящие пространство контекстного окна.

GPT Researcher автономно исследует и проверяет многочисленные источники, фокусируясь только на релевантной, надежной и актуальной информации. Хотя он немного медленнее стандартного поиска (ожидание около 30 секунд), он обеспечивает:

  • ✨ Более качественная информация
  • 📊 Оптимизированное использование контекста
  • 🔎 Комплексные результаты
  • 🧠 Лучшее обоснование для LLM

💻 Демонстрация рабочего стола Клода

https://github.com/user-attachments/assets/ef97eea5-a409-42b9-8f6d-b82ab16c52a8

Ресурсы

  • research_resource : Получить веб-ресурсы, связанные с заданной задачей, с помощью исследования.

Основные инструменты

  • deep_research : выполняет глубокое веб-исследование по теме, находя наиболее надежную и релевантную информацию.
  • quick_search : Выполняет быстрый поиск в Интернете, оптимизированный для скорости, а не качества, возвращая результаты поиска с фрагментами. Поддерживает любой поддерживаемый GPTR веб-извлекатель, такой как Tavily, Bing, Google и т. д... Узнайте больше здесь
  • write_report : Создать отчет на основе результатов исследования
  • get_research_sources : Получить источники, использованные в исследовании
  • get_research_context : Получить полный контекст исследования

Подсказки

  • research_query : Создать запрос на исследовательский запрос

Предпосылки

Перед запуском сервера MCP убедитесь, что у вас есть:

  1. Установлен Python 3.11 или выше
    • Важно : GPT Researcher >=0.12.16 требует Python 3.11+
  2. API-ключи для сервисов, которые вы планируете использовать:

⚙️ Установка

  1. Клонируйте репозиторий GPT Researcher:
git clone https://github.com/assafelovic/gpt-researcher.git cd gpt-researcher
  1. Установите зависимости gptr-mcp:
cd gptr-mcp pip install -r requirements.txt
  1. Настройте переменные среды:
    • Скопируйте файл .env.example , чтобы создать новый файл с именем .env : GXP3
    • Отредактируйте файл .env , добавьте свои ключи API и настройте другие параметры: GXP4

Вы также можете добавить любую другую переменную окружения для конфигурации GPT Researcher.

🚀 Запуск сервера MCP

Запустить сервер MCP можно несколькими способами:

Метод 1: Непосредственное использование Python

python server.py

Метод 2: Использование MCP CLI (если установлен)

mcp run server.py

Метод 3: Использование Docker (рекомендуется для производства)

Вариант А: Автономный режим

Это самый простой способ запустить сервер, если вам не нужно подключаться к другим контейнерам:

# Build and run with docker-compose docker-compose -f docker-compose.standalone.yml up -d # Or manually: docker build -t gpt-mcp-server . docker run -d \ --name gpt-mcp-server \ -p 8000:8000 \ --env-file .env \ gpt-mcp-server
Вариант B: С сетью для интеграции n8n

Если вам необходимо подключиться к другим сервисам, например n8n, в той же сети:

# Create the network if it doesn't exist docker network create n8n-mcp-net # Build and run with docker-compose docker-compose up -d # Or manually: docker build -t gpt-mcp-server . docker run -d \ --name gpt-mcp-server \ --network n8n-mcp-net \ -p 8000:8000 \ --env-file .env \ gpt-mcp-server

Примечание : Образ Docker использует Python 3.11 для соответствия требованиям gpt-researcher >=0.12.16. Если вы столкнулись с ошибками во время сборки, убедитесь, что вы используете последнюю версию Dockerfile из этого репозитория.

После запуска сервера вы увидите вывод, указывающий на то, что сервер готов принимать соединения. Вы можете проверить его работу следующим образом:

  1. Доступ к документации OpenAPI по адресу http://localhost:8000/docs
  2. Тестирование конечной точки MCP по адресу http://localhost:8000/mcp

Интеграция с Клодом

Вы можете интегрировать свой MCP-сервер с Claude, используя:

Интеграция с Claude Desktop — для использования с приложением Claude Desktop на Mac

Подробные инструкции можно найти по ссылке выше.

💻 Интеграция с рабочим столом Клода

Чтобы интегрировать локально работающий сервер MCP с Claude для Mac, вам необходимо:

  1. Убедитесь, что сервер MCP установлен и работает.
  2. Настройте рабочий стол Claude:
    • Найдите или создайте файл конфигурации в ~/Library/Application Support/Claude/claude_desktop_config.json
    • Добавьте ваш локальный сервер GPT Researcher MCP в конфигурацию
    • Перезапустите Claude, чтобы применить конфигурацию.

Полные пошаговые инструкции см. в руководстве по интеграции Claude Desktop .

📝 Пример использования с Клодом

User: I'm considering investing in NVIDIA. Can you research the current state of the company, recent stock performance, latest product announcements, and analyst opinions? Claude: I'll help you research NVIDIA for investment purposes. This will take a moment as I conduct comprehensive research to find the most up-to-date information about their stock performance, recent developments, and expert analysis. [Claude uses conduct_research tool - this takes 30-40 seconds] Claude: Based on my research, here's a comprehensive analysis of NVIDIA's current state: ## NVIDIA (NVDA) Current Status ### Recent Stock Performance - Current price: $942.89 (as of my research) - YTD performance: +90.4% - 52-week range: $460.30 - $974.00 - Market cap: ~$2.32 trillion ### Recent Key Developments 1. **Blackwell AI Platform**: At GTC 2024, NVIDIA unveiled the Blackwell architecture, their next-generation AI chip platform promising 4x performance improvement over Hopper. Major cloud providers (AWS, Google, Microsoft) have already committed to integrating Blackwell. 2. **Q1 FY2025 Earnings (May 2024)**: - Revenue: $26.0 billion (+262% YoY) - Data Center revenue: $22.6 billion (+427% YoY) - Gross margin: 78.4% - Announced 10-for-1 stock split effective June 7, 2024 3. **Supply Chain Expansion**: Increased investments in manufacturing capacity with TSMC to address ongoing chip shortages for their high-demand AI GPUs. ### Analyst Consensus - Strong Buy consensus with 37 analysts rating it "Buy," 5 "Hold," and 0 "Sell" - Average price target: $1,042 (post-split adjusted: $104.20) - Key bull thesis: Continued AI infrastructure spending and NVIDIA's dominant position in AI chips - Key bear concerns: Valuation, potential competition from AMD, Intel, and custom silicon from tech giants ### Industry Position - Dominant in AI GPU market with estimated 80-90% market share - Expanding ecosystem through CUDA software platform and industry partnerships - Diversifying beyond chips with DGX Cloud, AI software platforms, and automotive solutions

🔧 Устранение неполадок

Если у вас возникли проблемы при работе сервера MCP:

  1. Убедитесь, что ваши ключи API правильно установлены в файле .env
  2. Убедитесь, что вы используете Python 3.11 или выше (требуется для gpt-researcher >=0.12.16)
  3. Убедитесь, что все зависимости установлены правильно.
  4. Проверьте журналы сервера на наличие сообщений об ошибках.

Если вы работаете с Docker и столкнулись с проблемами:

  1. Убедитесь, что контейнер запущен: docker ps | grep gpt-mcp-server
  2. Проверьте логи контейнера: docker logs gpt-mcp-server
  3. Убедитесь, что сервер привязан ко всем интерфейсам — журналы должны показывать прослушивание на 0.0.0.0:8000.
  4. Если во время сборки вы видите ошибки зависимостей:
    • Убедитесь, что вы используете обновленный Dockerfile с Python 3.11
    • Попробуйте выполнить пересборку с флагом --no-cache : docker build --no-cache -t gpt-mcp-server .
    • Проверьте, соответствует ли версия gpt-researcher в файле requirements.txt версии Python.

По вопросам локальной установки:

# Check your Python version (must be 3.11+) python --version # Update pip to the latest version pip install --upgrade pip # If you're using a virtual environment, create a new one with Python 3.11 python3.11 -m venv venv source venv/bin/activate # On Windows: venv\Scripts\activate

👣 Дальнейшие шаги

📄 Лицензия

Данный проект лицензирован по лицензии MIT — подробности см. в файле LICENSE.

📞 Поддержка / Контакты

-
security - not tested
A
license - permissive license
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Расширяет возможности приложений LLM с помощью глубоких автономных возможностей веб-исследования, предоставляя более качественную информацию, чем стандартные инструменты поиска, путем изучения и проверки многочисленных надежных источников.

  1. Почему GPT Researcher MCP?
    1. 💻 Демонстрация рабочего стола Клода
      1. Ресурсы
      2. Основные инструменты
      3. Подсказки
    2. Предпосылки
      1. ⚙️ Установка
        1. 🚀 Запуск сервера MCP
          1. Метод 1: Непосредственное использование Python
          2. Метод 2: Использование MCP CLI (если установлен)
          3. Метод 3: Использование Docker (рекомендуется для производства)
        2. Интеграция с Клодом
          1. 💻 Интеграция с рабочим столом Клода
            1. 📝 Пример использования с Клодом
              1. 🔧 Устранение неполадок
                1. 👣 Дальнейшие шаги
                  1. 📄 Лицензия
                    1. 📞 Поддержка / Контакты

                      Related MCP Servers

                      • A
                        security
                        A
                        license
                        A
                        quality
                        Integrates Tavily's search API with LLMs to provide advanced web search capabilities, including intelligent result summaries, domain filtering for quality control, and configurable search parameters.
                        Last updated -
                        3
                        64
                        9
                        JavaScript
                        MIT License
                        • Linux
                      • -
                        security
                        F
                        license
                        -
                        quality
                        Enables LLMs to perform sophisticated web searches through proxy servers using Tavily's API, supporting comprehensive web searches, direct question answering, and recent news article retrieval with AI-extracted content.
                        Last updated -
                        1
                        Python
                      • -
                        security
                        A
                        license
                        -
                        quality
                        Provides AI-powered web search capabilities using Tavily's search API, enabling LLMs to perform sophisticated web searches, get direct answers to questions, and search recent news articles.
                        Last updated -
                        53
                        Python
                        MIT License
                        • Linux
                        • Apple
                      • -
                        security
                        A
                        license
                        -
                        quality
                        Enables LLMs to autonomously retrieve and explore web content by fetching pages and recursively following links to a specified depth, particularly useful for learning about topics from documentation.
                        Last updated -
                        TypeScript
                        MIT License

                      View all related MCP servers

                      MCP directory API

                      We provide all the information about MCP servers via our MCP API.

                      curl -X GET 'https://glama.ai/api/mcp/v1/servers/assafelovic/gptr-mcp'

                      If you have feedback or need assistance with the MCP directory API, please join our Discord server