backlog-mcp
backlog-mcp
一个 MCP 服务器,为 AI 代理提供对基于故事的项目积压工作的结构化读/写访问权限。代理可以列出故事、读取内容、更新状态并添加注释——所有这些都由位于项目仓库中的纯 Markdown 文件支持。
协作方式
没有共享服务器。积压工作文件位于仓库的 requirements/ 目录下,与代码一起提交并进行版本控制。代理之间,或代理与人类之间的协作,与代码库的其他部分完全一样:通过 git 进行。如果两个代理同时更新不同的故事,git 会合并它们。如果它们修改了同一行,你可以像处理任何其他合并冲突一样解决它。
MCP 服务器是每个代理自行运行的本地进程。它负责读写文件;其余工作由 git 处理。
安装
从 Releases 页面下载适用于您平台的最新二进制文件,并将其放置在您的 $PATH 中。
或者,如果您安装了 Go:
go install github.com/corbym/backlog-mcp@latest从源码构建
go mod tidy
go build -o backlog-mcp .设置
在项目根目录下初始化一个 requirements/ 文件夹:
./backlog-mcp init /path/to/your/project/requirements这将创建:
requirements/
requirements-index.md # master index — source of truth for epics and story status
backlog.md # priority-ordered list of not-done stories
epic-001-example/
story-001.md # example story file将 requirements/ 文件夹提交到您的仓库。编辑这些文件以添加您自己的史诗(epics)和故事(stories)。
运行
./backlog-mcp服务器会查找相对于启动它的工作目录的 requirements/ 目录。Claude Code 会将工作目录设置为项目根目录,因此无需配置。
Claude Code 配置(项目中的 .claude/settings.json,或全局的 ~/.claude/settings.json):
{
"mcpServers": {
"backlog-mcp": {
"command": "/path/to/backlog-mcp"
}
}
}工具
工具 | 描述 |
| 列出故事,可选择按 |
| 获取故事的完整 Markdown 内容和元数据 |
| 更新索引和积压工作中的故事状态 |
| 向故事文件添加带时间戳的注释 |
| 将故事标记为完成,并在一次调用中附加强制性的完成摘要 |
| 创建一个新的史诗 — 分配下一个 EPIC-NNN ID,写入史诗文件,并在索引中注册 |
| 在史诗下创建一个新故事 — 分配下一个 STORY-NNN ID,并在索引和积压工作中注册 |
| 替换故事的验收标准部分(幂等) |
| 按状态统计的高级史诗/故事计数 |
环境变量
变量 | 必需 | 默认值 | 描述 |
| 否 |
| 覆盖 requirements 目录的路径 |
| 否 |
| 设置为 |
| 否 |
| HTTP 模式的监听地址 |
文件格式
requirements-index.md — 每个标题对应一个史诗部分,每个表格行对应一个故事:
## EPIC-001: Combat System — `draft`
| Story | Title | Status |
|-------|-------|--------|
| [STORY-001](./epic-001-combat-system/story-001.md) | Basic combat | draft |backlog.md — 按优先级排序的编号列表:
1. **STORY-001** — Basic combat
2. **STORY-002** — Enemy AI *(in-progress)*故事文件位于 BACKLOG_ROOT 下的 epic-NNN-slug/story-NNN.md。
状态值: draft(草稿)、in-progress(进行中)、done(已完成)、blocked(已阻塞)
注意事项
文件写入是原子的(临时文件 + 重命名)——写入过程中的崩溃不会损坏您的文件。
文件系统是事实来源。MCP 服务器从不拥有数据。
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/corbym/backlog-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server