GitMCP
🤔 什么是 GitMCP?
停止氛围幻觉并开始氛围编码!
GitMCP是一个免费的开源远程模型上下文协议 (MCP)服务器,可将任何GitHub 项目(代码库或 GitHub 页面)转换为文档中心。它使 Cursor 等 AI 工具能够访问最新的文档和代码,即使法学硕士 (LLM) 从未接触过这些文档和代码,从而无缝消除代码幻觉。
GitMCP 支持两种风格-
**特定仓库(
gitmcp.io/{owner}/{repo}
或{owner}.gitmcp.io/{repo}
):**当您主要使用少量库时,请使用这些仓库。这可确保您的AI助手始终定位正确的项目,并通过阻止访问非预期的仓库来增强安全性和相关性。**通用服务器 (
gitmcp.io/docs
):**当您需要频繁切换不同的仓库时,可以使用此功能获得最大的灵活性。AI 助手会提示您(或根据上下文决定)每次请求时访问哪个仓库。请注意,这依赖于每次都能正确识别目标仓库。
使用 GitMCP:
人工智能助手直接从源头访问最新的文档和代码。
获得准确的 API 使用方法和可靠的代码示例。
即使对于小众、新兴或快速变化的图书馆也能有效地工作。
显著减少幻觉并提高代码正确性。
例如,此并排比较显示了在创建three.js场景时在 Cursor 中执行相同一次性提示的结果 -
https://github.com/user-attachments/assets/fbf1b4a7-f9f0-4c0e-831c-4d64faae2c45
✨ 特点
😎获取任何 GitHub 项目的最新文档:授予您的 AI 助手无缝访问 GitHub 项目文档和代码的权限。内置的智能搜索功能可帮助 AI 精准找到所需内容,无需消耗过多令牌!
🧠不再产生幻觉:使用 GitMCP,您的 AI 助手可以为您的问题提供准确且相关的答案。
☁️零设置:GitMCP 在云端运行。只需在 IDE 中将所选的 GitMCP URL 添加为 MCP 服务器即可——无需下载、安装、注册或进行任何更改。
💬嵌入式聊天:通过我们的浏览器内聊天直接与存储库的文档聊天,快速开始!
✅开放、免费、私密:GitMCP 是开源的,完全免费使用。它不会收集个人信息,也不会存储查询。您甚至可以自行托管它!
🚀 入门
使用 GitMCP 非常简单!只需按照以下步骤操作:
步骤 1:选择所需的服务器类型
根据您要连接的内容选择以下 URL 格式之一:
对于 GitHub 存储库:
gitmcp.io/{owner}/{repo}
对于 GitHub Pages 网站:
{owner}.gitmcp.io/{repo}
对于支持任何存储库(动态)的通用工具:
gitmcp.io/docs
将{owner}
替换为 GitHub 用户名或组织名称,将{repo}
替换为存储库名称。
为了您的方便,您还可以使用登陆页面上的转换工具将 GitHub URL 格式化为 MCP URL!
第 2 步:连接你的 AI 助手
从以下选项中选择您的 AI 助手并按照配置说明进行操作:
连接光标
在~/.cursor/mcp.json
更新你的 Cursor 配置文件:
连接 Claude Desktop
在 Claude Desktop 中,转到“设置”>“开发者”>“编辑配置”
将配置替换为:
{ "mcpServers": { "gitmcp": { "command": "npx", "args": [ "mcp-remote", "https://gitmcp.io/{owner}/{repo}" ] } } }
连接风帆冲浪
在~/.codeium/windsurf/mcp_config.json
更新您的 Windsurf 配置文件:
连接 VSCode
在.vscode/mcp.json
更新你的 VSCode 配置文件:
连接克莱恩
在~/Library/Application Support/Code/User/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json
更新您的 Cline 配置文件:
连接Highlight AI
打开 Highlight AI 并点击侧边栏中的插件图标(@ 符号)
点击侧边栏顶部的**“已安装的插件”**
选择自定义插件
点击使用自定义 SSE URL 添加插件
插件名称: gitmcp
SSE URL: https://gitmcp.io/{owner}/{repo}
有关向 HighlightAI 添加自定义 MCP 服务器的更多详细信息,请参阅文档。
**注意:**请务必将
{owner}
和{repo}
替换为实际的 GitHub 用户名/组织和仓库名称。您还可以使用动态端点https://gitmcp.io/docs
,以允许您的 AI 按需访问任何仓库。
⚙ 工作原理
GitMCP 使用模型上下文协议 (MCP) 将您的 AI 助手连接到 GitHub 存储库,该协议是一种允许 AI 工具从外部来源请求其他信息的标准。
使用 GitMCP 时会发生什么:
你向你的 AI 助手提供 GitMCP 的 URL (例如,
gitmcp.io/microsoft/typescript
)。GitMCP 提供了文档获取、智能搜索、代码搜索等工具。向 AI 助手提示与文档/代码相关的问题。
您的 AI 向 GitMCP 发送请求以使用其工具(经您批准)。
GitMCP 执行 AI 的请求并返回请求的数据。
您的人工智能会接收信息并生成更准确、更扎实的反应,而不会产生幻觉。
支持文档
GitMCP 目前支持以下文档(按优先级排序):
项目文档的 AI 优化版本
README.md
/root
💡示例
以下是一些如何将 GitMCP 与不同的 AI 助手和存储库一起使用的示例:
示例 1:将 Windsurf 与特定存储库一起使用
对于 GitHub 存储库https://github.com/microsoft/playwright-mcp
,将https://gitmcp.io/microsoft/playwright-mcp
作为 MCP 服务器添加到 Windsurf。
提示克劳德:
如何使用 Playwright MCP?
Windsurf 将从 GitMCP 中提取相关文档以正确实现记忆功能。
示例 2:在 GitHub Pages 站点中使用 Cursor
对于 GitHub Pages 站点langchain-ai.github.io/langgraph
,将https://langchain-ai.gitmcp.io/langgraph
作为 MCP 服务器添加到 Cursor。
提示光标:
“为我的 LangGraph 代理添加内存”
Cursor 将从 GitMCP 中提取相关文档和代码,以正确实现记忆功能。
示例 3:使用 Claude Desktop 和动态端点
您无需选择特定的存储库。通用的gitmcp.io/docs
端点允许 AI 动态选择 GitHub 项目!
向任何 AI 助手提示:
“我想了解 OpenAI Whisper 语音识别模型。请解释一下它是如何工作的。
Claude 将从 GitMCP 中提取数据并回答问题。
🛠️ 工具
GitMCP 为 AI 助手提供了一些有价值的工具,帮助他们访问、理解和查询 GitHub 存储库。
fetch_<repo-name>_documentation
此工具从 GitHub 仓库获取主要文档。它的工作原理是检索相关文档(例如llms.txt
)。这能让 AI 很好地了解项目内容。
**适用情况:**针对项目目的、功能或如何开始的一般问题
search_<repo-name>_documentation
此工具允许 AI 通过提供特定的搜索查询来搜索存储库的文档。它无需加载所有文档(文档可能非常庞大),而是使用智能搜索来查找相关的部分。
**适用情况:**针对项目内特定特性、功能或概念的具体问题
fetch_url_content
此工具可帮助 AI 从文档中提到的链接获取信息。它从这些链接中检索内容,并将其转换为 AI 易于阅读的格式。
**何时有用:**当文档引用有助于回答您的问题的外部信息时
search_<repo-name>_code
该工具使用 GitHub 的代码搜索功能搜索存储库中的实际代码。它可以帮助 AI 找到具体的代码示例或实现细节。
**何时有用:**当您需要了解某些内容的实施方式示例或需要文档中未涵盖的技术细节时
**注意:**当使用动态端点(
gitmcp.io/docs
)时,这些工具的命名略有不同(fetch_generic_documentation
,search_generic_code
和search_generic_documentation
),并且需要有关访问哪个存储库的其他信息。
📊 徽章
GitMCP 会在您的仓库的 README 中添加一个徽章。它允许用户通过他们的 IDE 或浏览器(使用内置的聊天功能)快速访问您的文档。它还会显示您的文档通过 GitMCP 被访问的次数。
示例( idosal/git-mcp
):
将徽章添加到您的存储库
将以下内容添加到您的README.md
中:
将OWNER
替换为您的 GitHub 用户名或组织,将REPO
为您的存储库名称。
我们如何统计观看次数
针对特定存储库上的每个工具调用增加。
自定义徽章
您可以使用参数自定义徽章的外观:
范围 | 描述 | 默认 | 例子 |
| 徽章值的颜色 |
|
|
| 徽章标签 |
|
|
请伸出援手!
❓ 常见问题解答
什么是模型上下文协议?
模型上下文协议是一种标准,允许人工智能助手以结构化的方式从外部来源请求和接收额外的上下文,从而增强他们的理解和性能。
GitMCP 可以与任何 AI 助手配合使用吗?
是的,GitMCP 与任何支持模型上下文协议的 AI 助手兼容,包括 Cursor、VSCode、Claude 等工具。
GitMCP 是否与所有 GitHub 项目兼容?
当然!GitMCP 无需任何修改即可兼容任何公共 GitHub 仓库。它会优先使用llms.txt
文件,如果 llms.txt 文件不可用,则会回退到README.md
或其他页面。未来的更新旨在支持更多文档方法,甚至动态生成内容。
GitMCP 需要花钱吗?
不,GitMCP 是面向社区的免费服务,无需任何相关费用。
🔒 隐私
GitMCP 致力于保护用户的隐私。由于无需身份验证,该服务无法访问或存储任何个人身份信息。此外,它也不会存储代理发送的任何查询。此外,由于 GitMCP 是一个开源项目,因此它可以在您的环境中独立部署。
GitMCP 仅访问已公开的内容,并且仅在用户查询时才会访问。GitMCP 不会自动抓取代码仓库。在访问任何 GitHub Pages 网站之前,代码会检查robots.txt
规则,并遵循网站所有者设置的指令,允许他们选择退出。请注意,GitMCP 不会永久存储有关 GitHub 项目或其内容的数据。
👥 贡献
我们欢迎您的贡献、反馈和想法!请查看我们的贡献指南。
本地开发设置
克隆存储库
git clone https://github.com/idosal/git-mcp.git cd git-mcp安装依赖项
pnpm install在本地运行以进行开发
npm run dev # or pnpm dev
使用 MCP Inspector 进行测试
安装 MCP Inspector 工具:
npx @modelcontextprotocol/inspector在检查器界面中:
将传输类型设置为
SSE
输入你的 GitMCP URL(例如,
http://localhost:5173/docs
)点击“连接”
📄 许可证
该项目采用Apache License 2.0许可。
免责声明
GitMCP 按“原样”提供,不提供任何形式的担保。虽然我们努力确保服务的可靠性和安全性,但我们对因使用服务而可能产生的任何损害或问题概不负责。通过 GitMCP 访问的 GitHub 项目受其各自所有者的条款和条件约束。GitMCP 与 GitHub 或任何提及的 AI 工具均无关联。
星史
Related MCP Servers
- AsecurityFlicenseAqualityAn MCP server that enables AI assistants to manage GitHub Actions workflows by providing tools for listing, viewing, triggering, canceling, and rerunning workflows through the GitHub API.Last updated -9239
- -securityFlicense-qualityProvides tools for interacting with GitHub's API through the MCP protocol, allowing users to create repositories, push content, and retrieve user information.Last updated -
- MIT License
- -securityAlicense-qualityAn MCP server that wraps around the GitHub CLI tool, allowing AI assistants to interact with GitHub repositories through commands for pull requests, issues, and repository operations.Last updated -5MIT License
Appeared in Searches
- A GitHub MCP server for browsing and understanding source code without requiring an API key
- A server for exploring and analyzing large OpenAPI schemas efficiently
- A server for finding GitHub repositories
- How to fetch or scrape data from a website for use in training an LLM
- A server for accessing academic resources