Skip to main content
Glama
danielscholl

Backlog Manager MCP Server

by danielscholl

待办事项管理器 MCP 服务器

一个简单的任务跟踪和积压管理 MCP 服务器,用于 AI 助手(黑客项目)

目录

Related MCP server: Tiny TODO MCP

概述

Backlog Manager 是一款基于文件的 MCP(机器可消费编程)服务器,用于问题和任务管理。它为 AI 代理和其他客户端提供工具,用于创建问题、添加任务以及跟踪任务状态。问题代表高级功能请求或错误,而任务代表解决问题所需的具体工作项。

它使用 Anthropic 的 MCP 协议构建,支持 SSE 和 stdio 传输,可与 Claude 等 AI 助手或其他 MCP 兼容客户端灵活集成。

特征

  • 问题管理:创建、列出、选择和跟踪问题并附带描述

  • 任务跟踪:向问题添加标题、描述和状态跟踪的任务

  • 状态工作流:通过“新建”、“工作中”和“完成”状态跟踪任务进度

  • 基于文件的存储:便携式 JSON 存储格式,方便备份和版本控制

  • 灵活传输:支持 SSE(HTTP)和 stdio 通信

  • Docker 支持:在容器中运行,方便部署和隔离

先决条件

  • Python :3.12 或更高版本

  • 包管理器:uv(推荐)或pip

  • Docker :(可选)用于容器化部署

  • MCP 客户端:Claude Code、Windsurf 或任何其他与 MCP 兼容的客户端

安装

使用 uv(推荐)

# Clone the repository
git clone https://github.com/username/backlog-manager-mcp.git
cd backlog-manager-mcp

# Install dependencies
uv pip install -e .

# Verify installation
uv run backlog-manager  # This should start the server

使用 Docker

# Build the Docker image
docker build -t backlog/manager --build-arg PORT=8050 .

# Run the container
docker run -p 8050:8050 backlog/manager

# Verify container is running
docker ps | grep backlog/manager

配置

使用.env文件中的环境变量配置服务器行为:

# Create environment file from example
cp .env.example .env

示例.env文件内容:

# Transport mode: 'sse' or 'stdio'
TRANSPORT=sse

# Server configuration (for SSE transport)
HOST=0.0.0.0
PORT=8050

# Data storage
TASKS_FILE=tasks.json

多变的

描述

默认

必需的

TRANSPORT

传输协议(sse 或 stdio)

sse

HOST

使用 SSE 传输时绑定到的主机

0.0.0.0

PORT

使用 SSE 传输时监听的端口

8050

TASKS_FILE

任务存储文件的路径

tasks.json

运行服务器

启动服务器(SSE模式)

# Using the CLI command
uv run backlog-manager

# Or directly with Python
uv run src/backlog_manager/main.py

您应该看到类似以下内容的输出:

INFO:     Started server process [12345]
INFO:     Waiting for application startup.
INFO:     Application startup complete.
INFO:     Uvicorn running on http://0.0.0.0:8050 (Press CTRL+C to quit)

注意:该服务器不支持--help标志,因为它被设计为 MCP 服务器,而不是传统的 CLI 应用程序。

使用 stdio 模式

当使用 stdio 模式时,您不需要单独启动服务器 - MCP 客户端将在正确配置后自动启动它(请参阅与 MCP 客户端集成)。

MCP 工具

Backlog Manager 通过 MCP 公开以下工具:

问题管理

工具

描述

参数

create_issue

创建新问题

name (字符串)、 description (字符串,可选)、 status (字符串,可选)

list_issues

显示所有可用问题

没有任何

select_issue

设置活动问题

name (字符串)

initialize_issue

创建或重置问题

name (字符串)、 description (字符串,可选)、 status (字符串,可选)

update_issue_status

更新问题状态

name (字符串)、 status (字符串)

任务管理

工具

描述

参数

add_task

将任务添加到活动问题

title (字符串)、 description (字符串,可选)

list_tasks

列出活动问题中的任务

status (字符串,可选)

update_task_status

更新任务状态

task_id (字符串), status (字符串)

状态值

任务和问题可以具有以下状态之一:

  • New (新任务/问题的默认设置)

  • InWork (进行中)

  • Done (完成)

与 MCP 客户端集成

SSE配置

一旦服务器运行了 SSE 传输,请使用以下配置连接到它:

{
  "mcpServers": {
    "backlog-manager": {
      "transport": "sse",
      "url": "http://localhost:8050/sse"
    }
  }
}

风帆冲浪配置:

{
  "mcpServers": {
    "backlog-manager": {
      "transport": "sse",
      "serverUrl": "http://localhost:8050/sse"
    }
  }
}

n8n配置:

使用host.docker.internal而不是localhost从 n8n 容器访问主机:

http://host.docker.internal:8050/sse

Python 与 Stdio 配置

{
  "mcpServers": {
    "backlog-manager": {
      "command": "python",
      "args": ["path/to/backlog-manager/src/backlog_manager/main.py"],
      "env": {
        "TRANSPORT": "stdio",
        "TASKS_FILE": "tasks.json"
      }
    }
  }
}

Docker 与 Stdio 配置

{
  "mcpServers": {
    "backlog-manager": {
      "command": "docker",
      "args": ["run", "--rm", "-i", "-e", "TRANSPORT=stdio", "backlog/manager"],
      "env": {
        "TRANSPORT": "stdio"
      }
    }
  }
}

例子

Backlog Manager 旨在与 AI 助手无缝协作,帮助您组织项目工作。其最强大的用例是让 AI 读取规范并自动创建结构化的待办事项。

只需询问你的人工智能助手:

Read the spec and create a backlog for features not completed.

人工智能助手将:

  1. 阅读并分析规范文档

  2. 确定关键特征和组件

  3. 为主要功能区域创建问题

  4. 将每个问题分解成具体的任务

  5. 将所有内容整理到结构化的待办事项中

F
license - not found
-
quality - not tested
C
maintenance

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/danielscholl/backlog-manager-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server