Servidor MCP de investigación profunda abierta
Un asistente de investigación basado en IA que realiza investigaciones profundas e iterativas sobre cualquier tema. Combina motores de búsqueda, web scraping e IA para explorar temas a fondo y generar informes completos. Disponible como herramienta de Protocolo de Contexto de Modelo (MCP) o CLI independiente. Consulte exampleout.md para ver el aspecto de un informe.
Inicio rápido
Clonar e instalar:
git clone https://github.com/Ozamatash/deep-research
cd deep-research
npm installConfigurar el entorno en
.env.local:
# Copy the example environment file
cp .env.example .env.localConstruir:
# Build the server
npm run buildEjecute la versión cli:
npm run start "Your research query here"Pruebe el servidor MCP con Claude Desktop:
Siga la guía que se encuentra en la parte inferior del inicio rápido del servidor para agregar el servidor a Claude Desktop:
https://modelcontextprotocol.io/quickstart/server
Related MCP server: Octagon Deep Research MCP
Características
Realiza una investigación profunda e iterativa generando consultas de búsqueda específicas
Controla el alcance de la investigación con parámetros de profundidad (qué tan profunda) y amplitud (qué tan amplia)
Evalúa la confiabilidad de la fuente con puntuación detallada (0-1) y razonamiento.
Prioriza fuentes de alta confiabilidad (≥0,7) y verifica información menos confiable
Genera preguntas de seguimiento para comprender mejor las necesidades de investigación.
Produce informes detallados de rebajas con hallazgos, fuentes y evaluaciones de confiabilidad.
Disponible como una herramienta de Protocolo de Contexto de Modelo (MCP) para agentes de IA
Por ahora la versión MCP no hace preguntas de seguimiento.
Cómo funciona
flowchart TB
subgraph Input
Q[User Query]
B[Breadth Parameter]
D[Depth Parameter]
FQ[Feedback Questions]
end
subgraph Research[Deep Research]
direction TB
SQ[Generate SERP Queries]
SR[Search]
RE[Source Reliability Evaluation]
PR[Process Results]
end
subgraph Results[Research Output]
direction TB
L((Learnings with
Reliability Scores))
SM((Source Metadata))
ND((Next Directions:
Prior Goals,
New Questions))
end
%% Main Flow
Q & FQ --> CQ[Combined Query]
CQ & B & D --> SQ
SQ --> SR
SR --> RE
RE --> PR
%% Results Flow
PR --> L
PR --> SM
PR --> ND
%% Depth Decision and Recursion
L & ND --> DP{depth > 0?}
DP -->|Yes| SQ
%% Final Output
DP -->|No| MR[Markdown Report]
%% Styling
classDef input fill:#7bed9f,stroke:#2ed573,color:black
classDef process fill:#70a1ff,stroke:#1e90ff,color:black
classDef output fill:#ff4757,stroke:#ff6b81,color:black
classDef results fill:#a8e6cf,stroke:#3b7a57,color:black,width:150px,height:150px
class Q,B,D,FQ input
class SQ,SR,RE,PR process
class MR output
class L,SM,ND resultsConfiguración avanzada
Uso de Firecrawl local (opción gratuita)
En lugar de usar la API de Firecrawl, puedes ejecutar una instancia local. Puedes usar el repositorio oficial o mi fork, que usa searXNG como backend de búsqueda para evitar usar una clave de la API de búsqueda.
Configurar Firecrawl local:
git clone https://github.com/Ozamatash/localfirecrawl
cd localfirecrawl
# Follow setup in localfirecrawl READMEActualizar
.env.local:
FIRECRAWL_BASE_URL="http://localhost:3002"Opcional: Observabilidad
Agregue capacidad de observación para rastrear flujos de investigación, consultas y resultados usando Langfuse:
# Add to .env.local
LANGFUSE_PUBLIC_KEY="your_langfuse_public_key"
LANGFUSE_SECRET_KEY="your_langfuse_secret_key"La aplicación funciona normalmente sin observabilidad si no se proporcionan claves Langfuse.
Licencia
Licencia MIT