Skip to main content
Glama

Backlog Manager MCP Server

by danielscholl

待办事项管理器 MCP 服务器

一个简单的任务跟踪和积压管理 MCP 服务器,用于 AI 助手(黑客项目)

目录

概述

Backlog Manager 是一款基于文件的 MCP(机器可消费编程)服务器,用于问题和任务管理。它为 AI 代理和其他客户端提供工具,用于创建问题、添加任务以及跟踪任务状态。问题代表高级功能请求或错误,而任务代表解决问题所需的具体工作项。

它使用 Anthropic 的 MCP 协议构建,支持 SSE 和 stdio 传输,可与 Claude 等 AI 助手或其他 MCP 兼容客户端灵活集成。

特征

  • 问题管理:创建、列出、选择和跟踪问题并附带描述
  • 任务跟踪:向问题添加标题、描述和状态跟踪的任务
  • 状态工作流:通过“新建”、“工作中”和“完成”状态跟踪任务进度
  • 基于文件的存储:便携式 JSON 存储格式,方便备份和版本控制
  • 灵活传输:支持 SSE(HTTP)和 stdio 通信
  • Docker 支持:在容器中运行,方便部署和隔离

先决条件

  • Python :3.12 或更高版本
  • 包管理器:uv(推荐)或pip
  • Docker :(可选)用于容器化部署
  • MCP 客户端:Claude Code、Windsurf 或任何其他与 MCP 兼容的客户端

安装

使用 uv(推荐)

# Clone the repository git clone https://github.com/username/backlog-manager-mcp.git cd backlog-manager-mcp # Install dependencies uv pip install -e . # Verify installation uv run backlog-manager # This should start the server

使用 Docker

# Build the Docker image docker build -t backlog/manager --build-arg PORT=8050 . # Run the container docker run -p 8050:8050 backlog/manager # Verify container is running docker ps | grep backlog/manager

配置

使用.env文件中的环境变量配置服务器行为:

# Create environment file from example cp .env.example .env

示例.env文件内容:

# Transport mode: 'sse' or 'stdio' TRANSPORT=sse # Server configuration (for SSE transport) HOST=0.0.0.0 PORT=8050 # Data storage TASKS_FILE=tasks.json
多变的描述默认必需的
TRANSPORT传输协议(sse 或 stdio)sse
HOST使用 SSE 传输时绑定到的主机0.0.0.0
PORT使用 SSE 传输时监听的端口8050
TASKS_FILE任务存储文件的路径tasks.json

运行服务器

启动服务器(SSE模式)

# Using the CLI command uv run backlog-manager # Or directly with Python uv run src/backlog_manager/main.py

您应该看到类似以下内容的输出:

INFO: Started server process [12345] INFO: Waiting for application startup. INFO: Application startup complete. INFO: Uvicorn running on http://0.0.0.0:8050 (Press CTRL+C to quit)

注意:该服务器不支持--help标志,因为它被设计为 MCP 服务器,而不是传统的 CLI 应用程序。

使用 stdio 模式

当使用 stdio 模式时,您不需要单独启动服务器 - MCP 客户端将在正确配置后自动启动它(请参阅与 MCP 客户端集成)。

MCP 工具

Backlog Manager 通过 MCP 公开以下工具:

问题管理

工具描述参数
create_issue创建新问题name (字符串)、 description (字符串,可选)、 status (字符串,可选)
list_issues显示所有可用问题没有任何
select_issue设置活动问题name (字符串)
initialize_issue创建或重置问题name (字符串)、 description (字符串,可选)、 status (字符串,可选)
update_issue_status更新问题状态name (字符串)、 status (字符串)

任务管理

工具描述参数
add_task将任务添加到活动问题title (字符串)、 description (字符串,可选)
list_tasks列出活动问题中的任务status (字符串,可选)
update_task_status更新任务状态task_id (字符串), status (字符串)

状态值

任务和问题可以具有以下状态之一:

  • New (新任务/问题的默认设置)
  • InWork (进行中)
  • Done (完成)

与 MCP 客户端集成

SSE配置

一旦服务器运行了 SSE 传输,请使用以下配置连接到它:

{ "mcpServers": { "backlog-manager": { "transport": "sse", "url": "http://localhost:8050/sse" } } }

风帆冲浪配置:

{ "mcpServers": { "backlog-manager": { "transport": "sse", "serverUrl": "http://localhost:8050/sse" } } }

n8n配置:

使用host.docker.internal而不是localhost从 n8n 容器访问主机:

http://host.docker.internal:8050/sse

Python 与 Stdio 配置

{ "mcpServers": { "backlog-manager": { "command": "python", "args": ["path/to/backlog-manager/src/backlog_manager/main.py"], "env": { "TRANSPORT": "stdio", "TASKS_FILE": "tasks.json" } } } }

Docker 与 Stdio 配置

{ "mcpServers": { "backlog-manager": { "command": "docker", "args": ["run", "--rm", "-i", "-e", "TRANSPORT=stdio", "backlog/manager"], "env": { "TRANSPORT": "stdio" } } } }

例子

Backlog Manager 旨在与 AI 助手无缝协作,帮助您组织项目工作。其最强大的用例是让 AI 读取规范并自动创建结构化的待办事项。

只需询问你的人工智能助手:

Read the spec and create a backlog for features not completed.

人工智能助手将:

  1. 阅读并分析规范文档
  2. 确定关键特征和组件
  3. 为主要功能区域创建问题
  4. 将每个问题分解成具体的任务
  5. 将所有内容整理到结构化的待办事项中
-
security - not tested
F
license - not found
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

任务跟踪和积压管理工具,使 AI 助手能够通过 MCP 协议创建、组织和跟踪具有状态工作流的问题和任务。

  1. 目录
    1. 概述
      1. 特征
        1. 先决条件
          1. 安装
            1. 使用 uv(推荐)
            2. 使用 Docker
          2. 配置
            1. 运行服务器
              1. 启动服务器(SSE模式)
              2. 使用 stdio 模式
            2. MCP 工具
              1. 问题管理
              2. 任务管理
              3. 状态值
            3. 与 MCP 客户端集成
              1. SSE配置
              2. Python 与 Stdio 配置
              3. Docker 与 Stdio 配置
            4. 例子

              Related MCP Servers

              • A
                security
                A
                license
                A
                quality
                Provides tools for interacting with Targetprocess, a project management and agile planning platform, enabling AI assistants to search, create, and update project entities with proper validation.
                Last updated -
                5
                4
                TypeScript
                MIT License
              • A
                security
                A
                license
                A
                quality
                A Model Context Protocol server that enables AI assistants to interact with Linear project management systems, allowing users to retrieve, create, and update issues, projects, and teams through natural language.
                Last updated -
                32
                80
                5
                TypeScript
                MIT License
                • Apple
              • -
                security
                F
                license
                -
                quality
                An MCP server that enables AI assistants to interact with the Plane project management platform, allowing them to manage workspaces, projects, issues, and comments through a structured API.
                Last updated -
                JavaScript
              • -
                security
                A
                license
                -
                quality
                AI-driven task management application that operates via MCP, enabling autonomous creation, organization, and execution of tasks with support for subtasks, priorities, and progress tracking.
                Last updated -
                Python
                MIT License
                • Linux

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/danielscholl/backlog-manager-mcp'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server