GPT Researcher MCP Server

by assafelovic

Integrations

  • Repository hosting for the MCP server code, accessed through cloning for installation.

  • Supported as a web retriever option for the quick_search tool, allowing search queries through Google's search engine.

  • Integrates with OpenAI's API for powering the research functionality, requiring an API key for operation.

Servidor MCP del investigador GPT

¿Por qué GPT Researcher MCP?

Mientras que las aplicaciones LLM pueden acceder a herramientas de búsqueda web con MCP, GPT Researcher MCP ofrece resultados de investigación exhaustivos. Las herramientas de búsqueda estándar devuelven resultados sin procesar que requieren filtrado manual, a menudo con fuentes irrelevantes y desperdiciando espacio en la ventana de contexto.

GPT Researcher explora y valida numerosas fuentes de forma autónoma, centrándose únicamente en información relevante, fiable y actualizada. Aunque es un poco más lento que la búsqueda estándar (aproximadamente 30 segundos de espera), ofrece:

  • ✨ Información de mayor calidad
  • 📊 Uso optimizado del contexto
  • 🔎 Resultados completos
  • 🧠 Mejor razonamiento para los LLM

Demostración de escritorio de Claude

https://github.com/user-attachments/assets/ef97eea5-a409-42b9-8f6d-b82ab16c52a8

Recursos

  • research_resource : Obtener recursos web relacionados con una tarea determinada a través de la investigación.

Herramientas primarias

  • deep_research : realiza una investigación web profunda sobre un tema y encuentra la información más confiable y relevante
  • quick_search : Realiza una búsqueda web rápida, priorizando la velocidad sobre la calidad, y devuelve resultados con fragmentos. Compatible con cualquier recuperador web compatible con GPTR, como Tavily, Bing, Google, etc. Más información aquí.
  • write_report : Generar un informe basado en los resultados de la investigación
  • get_research_sources : Obtener las fuentes utilizadas en la investigación
  • get_research_context : Obtenga el contexto completo de la investigación

Indicaciones

  • research_query : Crea una solicitud de consulta de investigación

Prerrequisitos

Antes de ejecutar el servidor MCP, asegúrese de tener:

  1. Python 3.10 o superior instalado
  2. Claves API para los servicios que planea utilizar:

⚙️ Instalación

  1. Clonar el repositorio de GPT Researcher:
git clone https://github.com/assafelovic/gpt-researcher.git cd gpt-researcher
  1. Instalar las dependencias gptr-mcp:
cd gptr-mcp pip install -r requirements.txt
  1. Configure sus variables de entorno:
    • Copie el archivo .env.example para crear un nuevo archivo llamado .env : GXP3
    • Edite el archivo .env y agregue sus claves API y configure otros ajustes: GXP4

También puede agregar cualquier otra variable de entorno para su configuración de GPT Researcher.

🚀 Ejecución del servidor MCP

Puede iniciar el servidor MCP de dos maneras:

Método 1: Usar Python directamente

python server.py

Método 2: Uso de la CLI de MCP (si está instalada)

mcp run server.py

Una vez que el servidor esté en ejecución, verá un resultado que indica que el servidor está listo para aceptar conexiones.

Integración con Claude

Puedes integrar tu servidor MCP con Claude usando:

Integración de escritorio de Claude : para usar con la aplicación de escritorio de Claude en Mac

Para obtener instrucciones detalladas, siga el enlace de arriba.

💻 Integración de escritorio de Claude

Para integrar su servidor MCP que se ejecuta localmente con Claude para Mac, necesitará:

  1. Asegúrese de que el servidor MCP esté instalado y en funcionamiento
  2. Configurar Claude Desktop:
    • Localice o cree el archivo de configuración en ~/Library/Application Support/Claude/claude_desktop_config.json
    • Agregue su servidor MCP de GPT Researcher local a la configuración
    • Reinicie Claude para aplicar la configuración

Para obtener instrucciones completas paso a paso, consulte la guía de integración de Claude Desktop .

📝 Ejemplo de uso con Claude

User: I'm considering investing in NVIDIA. Can you research the current state of the company, recent stock performance, latest product announcements, and analyst opinions? Claude: I'll help you research NVIDIA for investment purposes. This will take a moment as I conduct comprehensive research to find the most up-to-date information about their stock performance, recent developments, and expert analysis. [Claude uses conduct_research tool - this takes 30-40 seconds] Claude: Based on my research, here's a comprehensive analysis of NVIDIA's current state: ## NVIDIA (NVDA) Current Status ### Recent Stock Performance - Current price: $942.89 (as of my research) - YTD performance: +90.4% - 52-week range: $460.30 - $974.00 - Market cap: ~$2.32 trillion ### Recent Key Developments 1. **Blackwell AI Platform**: At GTC 2024, NVIDIA unveiled the Blackwell architecture, their next-generation AI chip platform promising 4x performance improvement over Hopper. Major cloud providers (AWS, Google, Microsoft) have already committed to integrating Blackwell. 2. **Q1 FY2025 Earnings (May 2024)**: - Revenue: $26.0 billion (+262% YoY) - Data Center revenue: $22.6 billion (+427% YoY) - Gross margin: 78.4% - Announced 10-for-1 stock split effective June 7, 2024 3. **Supply Chain Expansion**: Increased investments in manufacturing capacity with TSMC to address ongoing chip shortages for their high-demand AI GPUs. ### Analyst Consensus - Strong Buy consensus with 37 analysts rating it "Buy," 5 "Hold," and 0 "Sell" - Average price target: $1,042 (post-split adjusted: $104.20) - Key bull thesis: Continued AI infrastructure spending and NVIDIA's dominant position in AI chips - Key bear concerns: Valuation, potential competition from AMD, Intel, and custom silicon from tech giants ### Industry Position - Dominant in AI GPU market with estimated 80-90% market share - Expanding ecosystem through CUDA software platform and industry partnerships - Diversifying beyond chips with DGX Cloud, AI software platforms, and automotive solutions

🔧 Solución de problemas

Si encuentra problemas al ejecutar el servidor MCP:

  1. Asegúrese de que sus claves API estén configuradas correctamente en el archivo .env
  2. Comprueba que estás utilizando Python 3.10 o superior
  3. Asegúrese de que todas las dependencias estén instaladas correctamente
  4. Verifique los registros del servidor para ver si hay mensajes de error

👣 Próximos pasos

📄 Licencia

Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.

📞 Soporte / Contacto

-
security - not tested
A
license - permissive license
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Mejora las aplicaciones LLM con profundas capacidades de investigación web autónoma, brindando información de mayor calidad que las herramientas de búsqueda estándar al explorar y validar numerosas fuentes confiables.

  1. ¿Por qué GPT Researcher MCP?
    1. Demostración de escritorio de Claude
      1. Recursos
      2. Herramientas primarias
      3. Indicaciones
    2. Prerrequisitos
      1. ⚙️ Instalación
        1. 🚀 Ejecución del servidor MCP
          1. Método 1: Usar Python directamente
          2. Método 2: Uso de la CLI de MCP (si está instalada)
        2. Integración con Claude
          1. 💻 Integración de escritorio de Claude
            1. 📝 Ejemplo de uso con Claude
              1. 🔧 Solución de problemas
                1. 👣 Próximos pasos
                  1. 📄 Licencia
                    1. 📞 Soporte / Contacto

                      Related MCP Servers

                      • A
                        security
                        A
                        license
                        A
                        quality
                        Integrates Tavily's search API with LLMs to provide advanced web search capabilities, including intelligent result summaries, domain filtering for quality control, and configurable search parameters.
                        Last updated -
                        3
                        64
                        9
                        JavaScript
                        MIT License
                        • Linux
                      • A
                        security
                        A
                        license
                        A
                        quality
                        Integrates Jina.ai's Grounding API with LLMs for real-time, fact-based web content grounding and analysis, enhancing LLM responses with precise, verified information.
                        Last updated -
                        1
                        6
                        2
                        JavaScript
                        MIT License
                        • Linux
                      • -
                        security
                        F
                        license
                        -
                        quality
                        Enables LLMs to perform sophisticated web searches through proxy servers using Tavily's API, supporting comprehensive web searches, direct question answering, and recent news article retrieval with AI-extracted content.
                        Last updated -
                        1
                        Python
                      • -
                        security
                        A
                        license
                        -
                        quality
                        Provides AI-powered web search capabilities using Tavily's search API, enabling LLMs to perform sophisticated web searches, get direct answers to questions, and search recent news articles.
                        Last updated -
                        53
                        Python
                        MIT License
                        • Linux
                        • Apple

                      View all related MCP servers

                      ID: wnf68mft3t