ctx:你的代码库和 LLM 之间缺失的环节。内置 MCP 服务器的上下文即代码 (CaC) 工具。
目录
CTX是一个工具,用于解决与 ChatGPT 或 Claude 等 LLM 聊天时的一个大问题:为他们提供有关您的项目的足够背景信息。
Medium上有一篇关于 Context Generator 的文章,解释了该项目背后的动机及其解决的问题。
当你在开发中使用 AI 时,上下文不仅仅是有用的,它更是一切。ctx 无需每次手动复制或解释整个代码库,它会自动从以下位置构建整洁有序的上下文文件:
- 代码文件,
- GitHub 和 Gitlab 存储库,
- Git 提交和差异
- 带有 CSS 选择器的网页(URL),
- MCP 服务器
- 和纯文本。
它的创建是为了解决一个常见问题:有效地为 Claude 等 AI 语言模型提供有关代码库的必要上下文。
工作原理
- 从文件、目录、GitHub 或 Gitlab 存储库、网页或纯文本收集代码。
- 通过模式匹配、内容搜索、大小或日期过滤器定位特定文件
- 应用可选修饰符(例如提取没有实现细节的 PHP 签名)
- 将内容组织成结构良好的 Markdown 文档
- 保存上下文文件,准备与 LLM 共享
- 可选择通过 MCP 服务器提供上下文,允许 Claude 等 AI 助手直接访问项目信息
快速入门
CTX 入门非常简单。按照以下简单步骤即可创建您的第一个上下文文件。
1.安装CTX
使用我们的安装脚本下载并安装该工具:
这会将ctx
命令安装到您的系统中(通常在/usr/local/bin
中)。
**想要更多选择?**请参阅完整的安装指南,了解其他安装方法。
2.初始化配置文件
在您的项目目录中创建一个新的配置文件:
这将生成一个具有基本结构的context.yaml
文件来帮助您入门。
检查命令参考以了解所有可用的命令和选项。
3.描述你的项目结构
编辑生成的context.yaml
文件以指定您想要包含的代码或内容。
例如:
此配置将从src/Auth
目录中收集所有 PHP 文件,并从src/Models
目录中收集名称中包含“User”的任何 PHP 文件。
需要更高级的配置吗?
4. 构建上下文
通过运行以下命令生成上下文文件:
CTX 将处理您的配置并创建指定的输出文件(在我们的示例中为auth-context.md
)。
提示:使用
-v
、-vv
或-vvv
配置日志记录以获取详细输出
5. 与法学硕士分享
将生成的上下文文件上传或粘贴到您最喜欢的 LLM(例如 ChatGPT 或 Claude)。现在,您可以针对代码库提出具体问题,LLM 将提供必要的上下文信息,从而提供准确的帮助。
示例提示:
我已经将我的身份验证系统代码分享给您了。您能帮我找出用户注册过程中潜在的安全漏洞吗?
**下一步:**查看使用上下文生成器进行开发,了解将上下文生成集成到 AI 驱动的开发工作流程中的最佳实践。
就这样!现在,您已经准备好利用 LLM 来了解您的代码库的正确上下文了。
6. 连接到 Claude AI(可选)
为了获得更无缝的体验,您可以使用 MCP 服务器将 Context Generator 直接连接到 Claude AI:
有一个内置的 MCP 服务器,允许您将 Claude AI 直接连接到您的代码库。
将 MCP 客户端指向上下文生成器服务器:
**注意:**阅读有关MCP 服务器的更多信息以获取详细的设置说明。
现在您可以向 Claude 询问有关您的代码库的问题,而无需手动上传上下文文件!
完整文档
如需完整文档,包括所有可用功能和配置选项,请访问:
执照
该项目已获得 MIT 许可。
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
CTX 是一个工具,用于解决与 ChatGPT 或 Claude 等 LLM 聊天时的一个大问题:为他们提供有关您的项目的足够背景信息。
Related MCP Servers
- AsecurityAlicenseAqualityAn MCP server that allows Claude to create, manage and publish X/Twitter posts directly through the chat interface.Last updated -535PythonMIT License
- -securityFlicense-qualityAn MCP server that allows Claude to interact with local LLMs running in LM Studio, providing access to list models, generate text, and use chat completions through local models.Last updated -Python
- -securityFlicense-qualityAllows LLM tools like Claude Desktop and Cursor AI to access and summarize code files through a Model Context Protocol server, providing structured access to codebase content without manual copying.Last updated -TypeScript
- -securityFlicense-qualityMCP ChatGPT Responses connects Claude to ChatGPT through two essential tools: standard queries for AI-to-AI conversations and web-enabled requests for current information. It uses OpenAI's Responses API to maintain conversation state automatically.Last updated -5Python