Integrations
Repository hosting for the MCP server code, accessed through cloning for installation.
Supported as a web retriever option for the quick_search tool, allowing search queries through Google's search engine.
Integrates with OpenAI's API for powering the research functionality, requiring an API key for operation.
Servidor MCP del investigador GPT
¿Por qué GPT Researcher MCP?
Mientras que las aplicaciones LLM pueden acceder a herramientas de búsqueda web con MCP, GPT Researcher MCP ofrece resultados de investigación exhaustivos. Las herramientas de búsqueda estándar devuelven resultados sin procesar que requieren filtrado manual, a menudo con fuentes irrelevantes y desperdiciando espacio en la ventana de contexto.
GPT Researcher explora y valida numerosas fuentes de forma autónoma, centrándose únicamente en información relevante, fiable y actualizada. Aunque es un poco más lento que la búsqueda estándar (aproximadamente 30 segundos de espera), ofrece:
- ✨ Información de mayor calidad
- 📊 Uso optimizado del contexto
- 🔎 Resultados completos
- 🧠 Mejor razonamiento para los LLM
Demostración de escritorio de Claude
https://github.com/user-attachments/assets/ef97eea5-a409-42b9-8f6d-b82ab16c52a8
Recursos
research_resource
: Obtener recursos web relacionados con una tarea determinada a través de la investigación.
Herramientas primarias
deep_research
: realiza una investigación web profunda sobre un tema y encuentra la información más confiable y relevantequick_search
: Realiza una búsqueda web rápida, priorizando la velocidad sobre la calidad, y devuelve resultados con fragmentos. Compatible con cualquier recuperador web compatible con GPTR, como Tavily, Bing, Google, etc. Más información aquí.write_report
: Generar un informe basado en los resultados de la investigaciónget_research_sources
: Obtener las fuentes utilizadas en la investigaciónget_research_context
: Obtenga el contexto completo de la investigación
Indicaciones
research_query
: Crea una solicitud de consulta de investigación
Prerrequisitos
Antes de ejecutar el servidor MCP, asegúrese de tener:
- Python 3.10 o superior instalado
- Claves API para los servicios que planea utilizar:
⚙️ Instalación
- Clonar el repositorio de GPT Researcher:
- Instalar las dependencias gptr-mcp:
- Configure sus variables de entorno:
- Copie el archivo
.env.example
para crear un nuevo archivo llamado.env
: GXP3 - Edite el archivo
.env
y agregue sus claves API y configure otros ajustes: GXP4
- Copie el archivo
También puede agregar cualquier otra variable de entorno para su configuración de GPT Researcher.
🚀 Ejecución del servidor MCP
Puede iniciar el servidor MCP de dos maneras:
Método 1: Usar Python directamente
Método 2: Uso de la CLI de MCP (si está instalada)
Una vez que el servidor esté en ejecución, verá un resultado que indica que el servidor está listo para aceptar conexiones.
Integración con Claude
Puedes integrar tu servidor MCP con Claude usando:
Integración de escritorio de Claude : para usar con la aplicación de escritorio de Claude en Mac
Para obtener instrucciones detalladas, siga el enlace de arriba.
💻 Integración de escritorio de Claude
Para integrar su servidor MCP que se ejecuta localmente con Claude para Mac, necesitará:
- Asegúrese de que el servidor MCP esté instalado y en funcionamiento
- Configurar Claude Desktop:
- Localice o cree el archivo de configuración en
~/Library/Application Support/Claude/claude_desktop_config.json
- Agregue su servidor MCP de GPT Researcher local a la configuración
- Reinicie Claude para aplicar la configuración
- Localice o cree el archivo de configuración en
Para obtener instrucciones completas paso a paso, consulte la guía de integración de Claude Desktop .
📝 Ejemplo de uso con Claude
🔧 Solución de problemas
Si encuentra problemas al ejecutar el servidor MCP:
- Asegúrese de que sus claves API estén configuradas correctamente en el archivo
.env
- Comprueba que estás utilizando Python 3.10 o superior
- Asegúrese de que todas las dependencias estén instaladas correctamente
- Verifique los registros del servidor para ver si hay mensajes de error
👣 Próximos pasos
- Explore la documentación del protocolo MCP para comprender mejor cómo integrarse con Claude
- Conozca las características principales de GPT Researcher para mejorar sus capacidades de investigación
- Consulte la guía de uso avanzado para obtener más opciones de configuración
📄 Licencia
Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.
📞 Soporte / Contacto
- Discord de la comunidad
- Correo electrónico: assaf.elovic@gmail.com
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Mejora las aplicaciones LLM con profundas capacidades de investigación web autónoma, brindando información de mayor calidad que las herramientas de búsqueda estándar al explorar y validar numerosas fuentes confiables.
Related MCP Servers
- AsecurityAlicenseAqualityIntegrates Tavily's search API with LLMs to provide advanced web search capabilities, including intelligent result summaries, domain filtering for quality control, and configurable search parameters.Last updated -3649JavaScriptMIT License
- AsecurityAlicenseAqualityIntegrates Jina.ai's Grounding API with LLMs for real-time, fact-based web content grounding and analysis, enhancing LLM responses with precise, verified information.Last updated -162JavaScriptMIT License
- -securityFlicense-qualityEnables LLMs to perform sophisticated web searches through proxy servers using Tavily's API, supporting comprehensive web searches, direct question answering, and recent news article retrieval with AI-extracted content.Last updated -1Python
- -securityAlicense-qualityProvides AI-powered web search capabilities using Tavily's search API, enabling LLMs to perform sophisticated web searches, get direct answers to questions, and search recent news articles.Last updated -53PythonMIT License