Skip to main content
Glama
Ozamatash

Deep Research MCP Server

by Ozamatash

开放深度研究 MCP 服务器

一款 AI 驱动的研究助手,可对任何主题进行深入、迭代的研究。它结合了搜索引擎、网页抓取和 AI 技术,能够深入探索主题并生成全面的报告。它可作为模型上下文协议 (MCP) 工具或独立 CLI 使用。查看 exampleout.md 了解报告的具体内容。

快速入门

  1. 克隆并安装:

git clone https://github.com/Ozamatash/deep-research cd deep-research npm install
  1. .env.local中设置环境:

# Copy the example environment file cp .env.example .env.local
  1. 建造:

# Build the server npm run build
  1. 运行cli版本:

npm run start "Your research query here"
  1. 使用 Claude Desktop 测试 MCP 服务器:
    按照服务器快速启动底部的指南将服务器添加到 Claude Desktop:
    https://modelcontextprotocol.io/quickstart/server

Related MCP server: Octagon Deep Research MCP

特征

  • 通过生成有针对性的搜索查询进行深入、迭代的研究

  • 通过深度(深度)和广度(宽度)参数控制研究范围

  • 通过详细评分(0-1)和推理来评估来源可靠性

  • 优先考虑高可靠性来源(≥0.7)并验证可靠性较低的信息

  • 提出后续问题以更好地了解研究需求

  • 生成包含调查结果、来源和可靠性评估的详细降价报告

  • 可用作 AI 代理的模型上下文协议 (MCP) 工具

  • 目前 MCP 版本不会询问后续问题

工作原理

flowchart TB subgraph Input Q[User Query] B[Breadth Parameter] D[Depth Parameter] FQ[Feedback Questions] end subgraph Research[Deep Research] direction TB SQ[Generate SERP Queries] SR[Search] RE[Source Reliability Evaluation] PR[Process Results] end subgraph Results[Research Output] direction TB L((Learnings with Reliability Scores)) SM((Source Metadata)) ND((Next Directions: Prior Goals, New Questions)) end %% Main Flow Q & FQ --> CQ[Combined Query] CQ & B & D --> SQ SQ --> SR SR --> RE RE --> PR %% Results Flow PR --> L PR --> SM PR --> ND %% Depth Decision and Recursion L & ND --> DP{depth > 0?} DP -->|Yes| SQ %% Final Output DP -->|No| MR[Markdown Report] %% Styling classDef input fill:#7bed9f,stroke:#2ed573,color:black classDef process fill:#70a1ff,stroke:#1e90ff,color:black classDef output fill:#ff4757,stroke:#ff6b81,color:black classDef results fill:#a8e6cf,stroke:#3b7a57,color:black,width:150px,height:150px class Q,B,D,FQ input class SQ,SR,RE,PR process class MR output class L,SM,ND results

高级设置

使用本地 Firecrawl(免费选项)

除了使用 Firecrawl API,您还可以运行本地实例。您可以使用官方仓库或我的 fork(使用 searXNG 作为搜索后端),以避免使用 searchapi 键:

  1. 设置本地 Firecrawl:

git clone https://github.com/Ozamatash/localfirecrawl cd localfirecrawl # Follow setup in localfirecrawl README
  1. 更新.env.local

FIRECRAWL_BASE_URL="http://localhost:3002"

可选:可观察性

使用 Langfuse 添加可观察性以跟踪研究流程、查询和结果:

# Add to .env.local LANGFUSE_PUBLIC_KEY="your_langfuse_public_key" LANGFUSE_SECRET_KEY="your_langfuse_secret_key"

如果没有提供 Langfuse 密钥,应用程序将正常运行,但无法被观察。

执照

MIT 许可证

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Ozamatash/deep-research-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server