Servidor MCP del investigador GPT
¿Por qué GPT Researcher MCP?
Mientras que las aplicaciones LLM pueden acceder a herramientas de búsqueda web con MCP, GPT Researcher MCP ofrece resultados de investigación exhaustivos. Las herramientas de búsqueda estándar devuelven resultados sin procesar que requieren filtrado manual, a menudo con fuentes irrelevantes y desperdiciando espacio en la ventana de contexto.
GPT Researcher explora y valida numerosas fuentes de forma autónoma, centrándose únicamente en información relevante, fiable y actualizada. Aunque es un poco más lento que la búsqueda estándar (aproximadamente 30 segundos de espera), ofrece:
✨ Información de mayor calidad
📊 Uso optimizado del contexto
🔎 Resultados completos
🧠 Mejor razonamiento para los LLM
Related MCP server: Docs Fetch MCP Server
Demostración de escritorio de Claude
https://github.com/user-attachments/assets/ef97eea5-a409-42b9-8f6d-b82ab16c52a8
Recursos
research_resource: Obtener recursos web relacionados con una tarea determinada a través de la investigación.
Herramientas primarias
deep_research: realiza una investigación web profunda sobre un tema y encuentra la información más confiable y relevantequick_search: Realiza una búsqueda web rápida, priorizando la velocidad sobre la calidad, y devuelve resultados con fragmentos. Compatible con cualquier recuperador web compatible con GPTR, como Tavily, Bing, Google, etc. Más información aquí.write_report: Generar un informe basado en los resultados de la investigaciónget_research_sources: Obtener las fuentes utilizadas en la investigaciónget_research_context: Obtenga el contexto completo de la investigación
Indicaciones
research_query: Crea una solicitud de consulta de investigación
Prerrequisitos
Antes de ejecutar el servidor MCP, asegúrese de tener:
Python 3.10 o superior instalado
Claves API para los servicios que planea utilizar:
⚙️ Instalación
Clonar el repositorio de GPT Researcher:
git clone https://github.com/assafelovic/gpt-researcher.git
cd gpt-researcherInstalar las dependencias gptr-mcp:
cd gptr-mcp
pip install -r requirements.txtConfigure sus variables de entorno:
Copie el archivo
.env.examplepara crear un nuevo archivo llamado.env: GXP3Edite el archivo
.envy agregue sus claves API y configure otros ajustes: GXP4
También puede agregar cualquier otra variable de entorno para su configuración de GPT Researcher.
🚀 Ejecución del servidor MCP
Puede iniciar el servidor MCP de dos maneras:
Método 1: Usar Python directamente
python server.pyMétodo 2: Uso de la CLI de MCP (si está instalada)
mcp run server.pyUna vez que el servidor esté en ejecución, verá un resultado que indica que el servidor está listo para aceptar conexiones.
Integración con Claude
Puedes integrar tu servidor MCP con Claude usando:
Integración de escritorio de Claude : para usar con la aplicación de escritorio de Claude en Mac
Para obtener instrucciones detalladas, siga el enlace de arriba.
💻 Integración de escritorio de Claude
Para integrar su servidor MCP que se ejecuta localmente con Claude para Mac, necesitará:
Asegúrese de que el servidor MCP esté instalado y en funcionamiento
Configurar Claude Desktop:
Localice o cree el archivo de configuración en
~/Library/Application Support/Claude/claude_desktop_config.jsonAgregue su servidor MCP de GPT Researcher local a la configuración
Reinicie Claude para aplicar la configuración
Para obtener instrucciones completas paso a paso, consulte la guía de integración de Claude Desktop .
📝 Ejemplo de uso con Claude
User: I'm considering investing in NVIDIA. Can you research the current state of the company, recent stock performance, latest product announcements, and analyst opinions?
Claude: I'll help you research NVIDIA for investment purposes. This will take a moment as I conduct comprehensive research to find the most up-to-date information about their stock performance, recent developments, and expert analysis.
[Claude uses conduct_research tool - this takes 30-40 seconds]
Claude: Based on my research, here's a comprehensive analysis of NVIDIA's current state:
## NVIDIA (NVDA) Current Status
### Recent Stock Performance
- Current price: $942.89 (as of my research)
- YTD performance: +90.4%
- 52-week range: $460.30 - $974.00
- Market cap: ~$2.32 trillion
### Recent Key Developments
1. **Blackwell AI Platform**: At GTC 2024, NVIDIA unveiled the Blackwell architecture, their next-generation AI chip platform promising 4x performance improvement over Hopper. Major cloud providers (AWS, Google, Microsoft) have already committed to integrating Blackwell.
2. **Q1 FY2025 Earnings (May 2024)**:
- Revenue: $26.0 billion (+262% YoY)
- Data Center revenue: $22.6 billion (+427% YoY)
- Gross margin: 78.4%
- Announced 10-for-1 stock split effective June 7, 2024
3. **Supply Chain Expansion**: Increased investments in manufacturing capacity with TSMC to address ongoing chip shortages for their high-demand AI GPUs.
### Analyst Consensus
- Strong Buy consensus with 37 analysts rating it "Buy," 5 "Hold," and 0 "Sell"
- Average price target: $1,042 (post-split adjusted: $104.20)
- Key bull thesis: Continued AI infrastructure spending and NVIDIA's dominant position in AI chips
- Key bear concerns: Valuation, potential competition from AMD, Intel, and custom silicon from tech giants
### Industry Position
- Dominant in AI GPU market with estimated 80-90% market share
- Expanding ecosystem through CUDA software platform and industry partnerships
- Diversifying beyond chips with DGX Cloud, AI software platforms, and automotive solutions🔧 Solución de problemas
Si encuentra problemas al ejecutar el servidor MCP:
Asegúrese de que sus claves API estén configuradas correctamente en el archivo
.envComprueba que estás utilizando Python 3.10 o superior
Asegúrese de que todas las dependencias estén instaladas correctamente
Verifique los registros del servidor para ver si hay mensajes de error
👣 Próximos pasos
Explore la documentación del protocolo MCP para comprender mejor cómo integrarse con Claude
Conozca las características principales de GPT Researcher para mejorar sus capacidades de investigación
Consulte la guía de uso avanzado para obtener más opciones de configuración
📄 Licencia
Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.
📞 Soporte / Contacto
Correo electrónico: assaf.elovic@gmail.com