Skip to main content
Glama
Ozamatash

Deep Research MCP Server

by Ozamatash

Servidor MCP de investigación profunda abierta

Un asistente de investigación basado en IA que realiza investigaciones profundas e iterativas sobre cualquier tema. Combina motores de búsqueda, web scraping e IA para explorar temas a fondo y generar informes completos. Disponible como herramienta de Protocolo de Contexto de Modelo (MCP) o CLI independiente. Consulte exampleout.md para ver el aspecto de un informe.

Inicio rápido

  1. Clonar e instalar:

git clone https://github.com/Ozamatash/deep-research cd deep-research npm install
  1. Configurar el entorno en .env.local :

# Copy the example environment file cp .env.example .env.local
  1. Construir:

# Build the server npm run build
  1. Ejecute la versión cli:

npm run start "Your research query here"
  1. Pruebe el servidor MCP con Claude Desktop:
    Siga la guía que se encuentra en la parte inferior del inicio rápido del servidor para agregar el servidor a Claude Desktop:
    https://modelcontextprotocol.io/quickstart/server

Related MCP server: Octagon Deep Research MCP

Características

  • Realiza una investigación profunda e iterativa generando consultas de búsqueda específicas

  • Controla el alcance de la investigación con parámetros de profundidad (qué tan profunda) y amplitud (qué tan amplia)

  • Evalúa la confiabilidad de la fuente con puntuación detallada (0-1) y razonamiento.

  • Prioriza fuentes de alta confiabilidad (≥0,7) y verifica información menos confiable

  • Genera preguntas de seguimiento para comprender mejor las necesidades de investigación.

  • Produce informes detallados de rebajas con hallazgos, fuentes y evaluaciones de confiabilidad.

  • Disponible como una herramienta de Protocolo de Contexto de Modelo (MCP) para agentes de IA

  • Por ahora la versión MCP no hace preguntas de seguimiento.

Cómo funciona

flowchart TB subgraph Input Q[User Query] B[Breadth Parameter] D[Depth Parameter] FQ[Feedback Questions] end subgraph Research[Deep Research] direction TB SQ[Generate SERP Queries] SR[Search] RE[Source Reliability Evaluation] PR[Process Results] end subgraph Results[Research Output] direction TB L((Learnings with Reliability Scores)) SM((Source Metadata)) ND((Next Directions: Prior Goals, New Questions)) end %% Main Flow Q & FQ --> CQ[Combined Query] CQ & B & D --> SQ SQ --> SR SR --> RE RE --> PR %% Results Flow PR --> L PR --> SM PR --> ND %% Depth Decision and Recursion L & ND --> DP{depth > 0?} DP -->|Yes| SQ %% Final Output DP -->|No| MR[Markdown Report] %% Styling classDef input fill:#7bed9f,stroke:#2ed573,color:black classDef process fill:#70a1ff,stroke:#1e90ff,color:black classDef output fill:#ff4757,stroke:#ff6b81,color:black classDef results fill:#a8e6cf,stroke:#3b7a57,color:black,width:150px,height:150px class Q,B,D,FQ input class SQ,SR,RE,PR process class MR output class L,SM,ND results

Configuración avanzada

Uso de Firecrawl local (opción gratuita)

En lugar de usar la API de Firecrawl, puedes ejecutar una instancia local. Puedes usar el repositorio oficial o mi fork, que usa searXNG como backend de búsqueda para evitar usar una clave de la API de búsqueda.

  1. Configurar Firecrawl local:

git clone https://github.com/Ozamatash/localfirecrawl cd localfirecrawl # Follow setup in localfirecrawl README
  1. Actualizar .env.local :

FIRECRAWL_BASE_URL="http://localhost:3002"

Opcional: Observabilidad

Agregue capacidad de observación para rastrear flujos de investigación, consultas y resultados usando Langfuse:

# Add to .env.local LANGFUSE_PUBLIC_KEY="your_langfuse_public_key" LANGFUSE_SECRET_KEY="your_langfuse_secret_key"

La aplicación funciona normalmente sin observabilidad si no se proporcionan claves Langfuse.

Licencia

Licencia MIT

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Ozamatash/deep-research-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server