开放深度研究 MCP 服务器
一款 AI 驱动的研究助手,可对任何主题进行深入、迭代的研究。它结合了搜索引擎、网页抓取和 AI 技术,能够深入探索主题并生成全面的报告。它可作为模型上下文协议 (MCP) 工具或独立 CLI 使用。查看 exampleout.md 了解报告的具体内容。
快速入门
克隆并安装:
在
.env.local中设置环境:
建造:
运行cli版本:
使用 Claude Desktop 测试 MCP 服务器:
按照服务器快速启动底部的指南将服务器添加到 Claude Desktop:
https://modelcontextprotocol.io/quickstart/server
Related MCP server: Octagon Deep Research MCP
特征
通过生成有针对性的搜索查询进行深入、迭代的研究
通过深度(深度)和广度(宽度)参数控制研究范围
通过详细评分(0-1)和推理来评估来源可靠性
优先考虑高可靠性来源(≥0.7)并验证可靠性较低的信息
提出后续问题以更好地了解研究需求
生成包含调查结果、来源和可靠性评估的详细降价报告
可用作 AI 代理的模型上下文协议 (MCP) 工具
目前 MCP 版本不会询问后续问题
工作原理
高级设置
使用本地 Firecrawl(免费选项)
除了使用 Firecrawl API,您还可以运行本地实例。您可以使用官方仓库或我的 fork(使用 searXNG 作为搜索后端),以避免使用 searchapi 键:
设置本地 Firecrawl:
更新
.env.local:
可选:可观察性
使用 Langfuse 添加可观察性以跟踪研究流程、查询和结果:
如果没有提供 Langfuse 密钥,应用程序将正常运行,但无法被观察。
执照
MIT 许可证