DeepView MCP
DeepView MCP 是一个模型上下文协议服务器,它使 Cursor 和 Windsurf 等 IDE 能够使用 Gemini 的广泛上下文窗口分析大型代码库。
特征
- 从单个文本文件加载整个代码库(例如,使用 repomix 等工具创建)
- 使用 Gemini 的大型上下文窗口查询代码库
- 连接到支持 MCP 协议的 IDE,例如 Cursor 和 Windsurf
- 可通过命令行参数配置 Gemini 模型选择
先决条件
- Python 3.13+
- 来自Google AI Studio 的Gemini API 密钥
安装
通过 Smithery 安装
要通过Smithery自动为 Claude Desktop 安装 DeepView:
使用 pip
用法
启动服务器
注意:您无需手动启动服务器。这些参数可以在 IDE 的 MCP 设置中配置(见下文)。
代码库文件参数是可选的。如果未提供,则需要在查询时指定。
命令行选项
--model MODEL
:指定要使用的 Gemini 模型(默认值:gemini-2.0-flash-lite)--log-level {DEBUG,INFO,WARNING,ERROR,CRITICAL}
:设置日志级别(默认值:INFO)
与 IDE (Cursor/Windsurf/...) 一起使用
- 打开 IDE 设置
- 导航至 MCP 配置
- 添加一个新的 MCP 服务器,配置如下:
设置代码库文件是可选的。如果您使用相同的代码库,则可以使用以下配置设置默认代码库文件:
以下是指定要使用的 Gemini 版本的方法:
- 重新加载 MCP 服务器配置
可用工具
服务器提供了一个工具:
deepview
:询问有关代码库的问题- 必需参数:
question
- 有关代码库的问题 - 可选参数:
codebase_file
- 查询前要加载的代码库文件的路径
- 必需参数:
准备代码库
DeepView MCP 需要一个包含您整个代码库的文件。您可以使用repomix以 AI 友好的格式准备您的代码库。
使用 repomix
- 基本用法:在项目目录中运行 repomix 以创建默认输出文件:
这将生成一个包含您的代码库的repomix-output.xml
文件。
- 自定义配置:创建配置文件来自定义打包的文件和输出格式:
这将创建一个repomix.config.json
文件,您可以编辑该文件以:
- 包含/排除特定文件或目录
- 更改输出格式(XML、JSON、TXT)
- 设置输出文件名
- 配置其他包装选项
repomix 配置示例
以下是repomix.config.json
文件的示例:
有关 repomix 的更多信息,请访问repomix GitHub 存储库。
执照
麻省理工学院
作者
德米特里·杰格蒂亚列夫 ( ddegtyaev@gmail.com )
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
模型上下文协议服务器使 Cursor 和 Windsurf 等 IDE 能够使用 Gemini 的广泛上下文窗口分析大型代码库。
Related MCP Servers
- -securityFlicense-qualityA Model Context Protocol server that connects AI clients to local code repositories, using Gemini 2.0 Flash to analyze codebases and generate targeted context based on user queries.Last updated -10
- -securityFlicense-qualityA Model Context Protocol server that gives Claude access to Google's Gemini 2.5 Pro for extended thinking, code analysis, and problem-solving with a massive context window.Last updated -7,066
- -securityAlicense-qualityA Model Context Protocol server that enables Claude to collaborate with Google's Gemini AI models, providing tools for question answering, code review, brainstorming, test generation, and explanations.Last updated -MIT License
- AsecurityFlicenseAqualityA Model Context Protocol server that enables AI assistants to interact with Google Gemini CLI, allowing them to leverage Gemini's large token window for analyzing files and codebases using natural language commands.Last updated -640,2861,317