Deep Research MCP Server

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Integrations

  • The README references using Git to clone repositories for setup

  • The README references GitHub as the source for cloning the repository

  • The server produces detailed markdown reports with findings, sources, and reliability assessments

Servidor MCP de investigación profunda abierta

Un asistente de investigación basado en IA que realiza investigaciones profundas e iterativas sobre cualquier tema. Combina motores de búsqueda, web scraping e IA para explorar temas a fondo y generar informes completos. Disponible como herramienta de Protocolo de Contexto de Modelo (MCP) o CLI independiente. Consulte exampleout.md para ver el aspecto de un informe.

Inicio rápido

  1. Clonar e instalar:
git clone https://github.com/Ozamatash/deep-research cd deep-research npm install
  1. Configurar el entorno en .env.local :
# Copy the example environment file cp .env.example .env.local
  1. Construir:
# Build the server npm run build
  1. Ejecute la versión cli:
npm run start "Your research query here"
  1. Pruebe el servidor MCP con Claude Desktop:
    Siga la guía que se encuentra en la parte inferior del inicio rápido del servidor para agregar el servidor a Claude Desktop:
    https://modelcontextprotocol.io/quickstart/server

Características

  • Realiza una investigación profunda e iterativa generando consultas de búsqueda específicas
  • Controla el alcance de la investigación con parámetros de profundidad (qué tan profunda) y amplitud (qué tan amplia)
  • Evalúa la confiabilidad de la fuente con puntuación detallada (0-1) y razonamiento.
  • Prioriza fuentes de alta confiabilidad (≥0,7) y verifica información menos confiable
  • Genera preguntas de seguimiento para comprender mejor las necesidades de investigación.
  • Produce informes detallados de rebajas con hallazgos, fuentes y evaluaciones de confiabilidad.
  • Disponible como una herramienta de Protocolo de Contexto de Modelo (MCP) para agentes de IA
  • Por ahora la versión MCP no hace preguntas de seguimiento.

Cómo funciona

Configuración avanzada

Uso de Firecrawl local (opción gratuita)

En lugar de usar la API de Firecrawl, puedes ejecutar una instancia local. Puedes usar el repositorio oficial o mi fork, que usa searXNG como backend de búsqueda para evitar usar una clave de la API de búsqueda.

  1. Configurar Firecrawl local:
git clone https://github.com/Ozamatash/localfirecrawl cd localfirecrawl # Follow setup in localfirecrawl README
  1. Actualizar .env.local :
FIRECRAWL_BASE_URL="http://localhost:3002"

Opcional: Observabilidad

Agregue capacidad de observación para rastrear flujos de investigación, consultas y resultados usando Langfuse:

# Add to .env.local LANGFUSE_PUBLIC_KEY="your_langfuse_public_key" LANGFUSE_SECRET_KEY="your_langfuse_secret_key"

La aplicación funciona normalmente sin observabilidad si no se proporcionan claves Langfuse.

Licencia

Licencia MIT

-
security - not tested
A
license - permissive license
-
quality - not tested

Permite la investigación profunda iterativa mediante la integración de agentes de IA con motores de búsqueda, raspado web y modelos de lenguaje grandes para una recopilación de datos eficiente y generación de informes completos.

  1. Quick Start
    1. Features
      1. How It Works
        1. Advanced Setup
          1. Using Local Firecrawl (Free Option)
          2. Optional: Observability
        2. License
          ID: xordvhdr7s