Skip to main content
Glama
teelaitila

Deep Research MCP Server

by teelaitila

Servidor MCP de investigación profunda abierta

Un asistente de investigación basado en IA que realiza investigaciones profundas e iterativas sobre cualquier tema. Combina motores de búsqueda, web scraping e IA para explorar temas a fondo y generar informes completos. Disponible como herramienta de Protocolo de Contexto de Modelo (MCP) o CLI independiente. Consulte exampleout.md para ver el aspecto de un informe.

Inicio rápido

  1. Clonar e instalar:

git clone https://github.com/Ozamatash/deep-research
cd deep-research
npm install
  1. Configurar el entorno en .env.local :

# Copy the example environment file
cp .env.example .env.local
  1. Construir:

# Build the server
npm run build
  1. Ejecute la versión cli:

npm run start "Your research query here"
  1. Pruebe el servidor MCP con Claude Desktop:
    Siga la guía que se encuentra en la parte inferior del inicio rápido del servidor para agregar el servidor a Claude Desktop:
    https://modelcontextprotocol.io/quickstart/server

Related MCP server: Octagon Deep Research MCP

Características

  • Realiza una investigación profunda e iterativa generando consultas de búsqueda específicas

  • Controla el alcance de la investigación con parámetros de profundidad (qué tan profunda) y amplitud (qué tan amplia)

  • Evalúa la confiabilidad de la fuente con puntuación detallada (0-1) y razonamiento.

  • Prioriza fuentes de alta confiabilidad (≥0,7) y verifica información menos confiable

  • Genera preguntas de seguimiento para comprender mejor las necesidades de investigación.

  • Produce informes detallados de rebajas con hallazgos, fuentes y evaluaciones de confiabilidad.

  • Disponible como una herramienta de Protocolo de Contexto de Modelo (MCP) para agentes de IA

  • Por ahora la versión MCP no hace preguntas de seguimiento.

Cómo funciona

flowchart TB
    subgraph Input
        Q[User Query]
        B[Breadth Parameter]
        D[Depth Parameter]
        FQ[Feedback Questions]
    end

    subgraph Research[Deep Research]
        direction TB
        SQ[Generate SERP Queries]
        SR[Search]
        RE[Source Reliability Evaluation]
        PR[Process Results]
    end

    subgraph Results[Research Output]
        direction TB
        L((Learnings with
        Reliability Scores))
        SM((Source Metadata))
        ND((Next Directions:
        Prior Goals,
        New Questions))
    end

    %% Main Flow
    Q & FQ --> CQ[Combined Query]
    CQ & B & D --> SQ
    SQ --> SR
    SR --> RE
    RE --> PR

    %% Results Flow
    PR --> L
    PR --> SM
    PR --> ND

    %% Depth Decision and Recursion
    L & ND --> DP{depth > 0?}
    DP -->|Yes| SQ
    
    %% Final Output
    DP -->|No| MR[Markdown Report]

    %% Styling
    classDef input fill:#7bed9f,stroke:#2ed573,color:black
    classDef process fill:#70a1ff,stroke:#1e90ff,color:black
    classDef output fill:#ff4757,stroke:#ff6b81,color:black
    classDef results fill:#a8e6cf,stroke:#3b7a57,color:black,width:150px,height:150px

    class Q,B,D,FQ input
    class SQ,SR,RE,PR process
    class MR output
    class L,SM,ND results

Configuración avanzada

Uso de Firecrawl local (opción gratuita)

En lugar de usar la API de Firecrawl, puedes ejecutar una instancia local. Puedes usar el repositorio oficial o mi fork, que usa searXNG como backend de búsqueda para evitar usar una clave de la API de búsqueda.

  1. Configurar Firecrawl local:

git clone https://github.com/Ozamatash/localfirecrawl
cd localfirecrawl
# Follow setup in localfirecrawl README
  1. Actualizar .env.local :

FIRECRAWL_BASE_URL="http://localhost:3002"

Opcional: Observabilidad

Agregue capacidad de observación para rastrear flujos de investigación, consultas y resultados usando Langfuse:

# Add to .env.local
LANGFUSE_PUBLIC_KEY="your_langfuse_public_key"
LANGFUSE_SECRET_KEY="your_langfuse_secret_key"

La aplicación funciona normalmente sin observabilidad si no se proporcionan claves Langfuse.

Licencia

Licencia MIT

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/teelaitila/deep-research-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server