Skip to main content
Glama
teelaitila

Deep Research MCP Server

by teelaitila

开放深度研究 MCP 服务器

一款 AI 驱动的研究助手,可对任何主题进行深入、迭代的研究。它结合了搜索引擎、网页抓取和 AI 技术,能够深入探索主题并生成全面的报告。它可作为模型上下文协议 (MCP) 工具或独立 CLI 使用。查看 exampleout.md 了解报告的具体内容。

快速入门

  1. 克隆并安装:

git clone https://github.com/Ozamatash/deep-research
cd deep-research
npm install
  1. .env.local中设置环境:

# Copy the example environment file
cp .env.example .env.local
  1. 建造:

# Build the server
npm run build
  1. 运行cli版本:

npm run start "Your research query here"
  1. 使用 Claude Desktop 测试 MCP 服务器:
    按照服务器快速启动底部的指南将服务器添加到 Claude Desktop:
    https://modelcontextprotocol.io/quickstart/server

Related MCP server: Octagon Deep Research MCP

特征

  • 通过生成有针对性的搜索查询进行深入、迭代的研究

  • 通过深度(深度)和广度(宽度)参数控制研究范围

  • 通过详细评分(0-1)和推理来评估来源可靠性

  • 优先考虑高可靠性来源(≥0.7)并验证可靠性较低的信息

  • 提出后续问题以更好地了解研究需求

  • 生成包含调查结果、来源和可靠性评估的详细降价报告

  • 可用作 AI 代理的模型上下文协议 (MCP) 工具

  • 目前 MCP 版本不会询问后续问题

工作原理

flowchart TB
    subgraph Input
        Q[User Query]
        B[Breadth Parameter]
        D[Depth Parameter]
        FQ[Feedback Questions]
    end

    subgraph Research[Deep Research]
        direction TB
        SQ[Generate SERP Queries]
        SR[Search]
        RE[Source Reliability Evaluation]
        PR[Process Results]
    end

    subgraph Results[Research Output]
        direction TB
        L((Learnings with
        Reliability Scores))
        SM((Source Metadata))
        ND((Next Directions:
        Prior Goals,
        New Questions))
    end

    %% Main Flow
    Q & FQ --> CQ[Combined Query]
    CQ & B & D --> SQ
    SQ --> SR
    SR --> RE
    RE --> PR

    %% Results Flow
    PR --> L
    PR --> SM
    PR --> ND

    %% Depth Decision and Recursion
    L & ND --> DP{depth > 0?}
    DP -->|Yes| SQ
    
    %% Final Output
    DP -->|No| MR[Markdown Report]

    %% Styling
    classDef input fill:#7bed9f,stroke:#2ed573,color:black
    classDef process fill:#70a1ff,stroke:#1e90ff,color:black
    classDef output fill:#ff4757,stroke:#ff6b81,color:black
    classDef results fill:#a8e6cf,stroke:#3b7a57,color:black,width:150px,height:150px

    class Q,B,D,FQ input
    class SQ,SR,RE,PR process
    class MR output
    class L,SM,ND results

高级设置

使用本地 Firecrawl(免费选项)

除了使用 Firecrawl API,您还可以运行本地实例。您可以使用官方仓库或我的 fork(使用 searXNG 作为搜索后端),以避免使用 searchapi 键:

  1. 设置本地 Firecrawl:

git clone https://github.com/Ozamatash/localfirecrawl
cd localfirecrawl
# Follow setup in localfirecrawl README
  1. 更新.env.local

FIRECRAWL_BASE_URL="http://localhost:3002"

可选:可观察性

使用 Langfuse 添加可观察性以跟踪研究流程、查询和结果:

# Add to .env.local
LANGFUSE_PUBLIC_KEY="your_langfuse_public_key"
LANGFUSE_SECRET_KEY="your_langfuse_secret_key"

如果没有提供 Langfuse 密钥,应用程序将正常运行,但无法被观察。

执照

MIT 许可证

-
security - not tested
A
license - permissive license
-
quality - not tested

Resources

Looking for Admin?

Admins can modify the Dockerfile, update the server description, and track usage metrics. If you are the server author, to access the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/teelaitila/deep-research-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server