Skip to main content
Glama

Backlog Manager MCP Server

by danielscholl

待办事项管理器 MCP 服务器

一个简单的任务跟踪和积压管理 MCP 服务器,用于 AI 助手(黑客项目)

目录

概述

Backlog Manager 是一款基于文件的 MCP(机器可消费编程)服务器,用于问题和任务管理。它为 AI 代理和其他客户端提供工具,用于创建问题、添加任务以及跟踪任务状态。问题代表高级功能请求或错误,而任务代表解决问题所需的具体工作项。

它使用 Anthropic 的 MCP 协议构建,支持 SSE 和 stdio 传输,可与 Claude 等 AI 助手或其他 MCP 兼容客户端灵活集成。

特征

  • 问题管理:创建、列出、选择和跟踪问题并附带描述

  • 任务跟踪:向问题添加标题、描述和状态跟踪的任务

  • 状态工作流:通过“新建”、“工作中”和“完成”状态跟踪任务进度

  • 基于文件的存储:便携式 JSON 存储格式,方便备份和版本控制

  • 灵活传输:支持 SSE(HTTP)和 stdio 通信

  • Docker 支持:在容器中运行,方便部署和隔离

先决条件

  • Python :3.12 或更高版本

  • 包管理器:uv(推荐)或pip

  • Docker :(可选)用于容器化部署

  • MCP 客户端:Claude Code、Windsurf 或任何其他与 MCP 兼容的客户端

安装

使用 uv(推荐)

# Clone the repository git clone https://github.com/username/backlog-manager-mcp.git cd backlog-manager-mcp # Install dependencies uv pip install -e . # Verify installation uv run backlog-manager # This should start the server

使用 Docker

# Build the Docker image docker build -t backlog/manager --build-arg PORT=8050 . # Run the container docker run -p 8050:8050 backlog/manager # Verify container is running docker ps | grep backlog/manager

配置

使用.env文件中的环境变量配置服务器行为:

# Create environment file from example cp .env.example .env

示例.env文件内容:

# Transport mode: 'sse' or 'stdio' TRANSPORT=sse # Server configuration (for SSE transport) HOST=0.0.0.0 PORT=8050 # Data storage TASKS_FILE=tasks.json

多变的

描述

默认

必需的

TRANSPORT

传输协议(sse 或 stdio)

sse

HOST

使用 SSE 传输时绑定到的主机

0.0.0.0

PORT

使用 SSE 传输时监听的端口

8050

TASKS_FILE

任务存储文件的路径

tasks.json

运行服务器

启动服务器(SSE模式)

# Using the CLI command uv run backlog-manager # Or directly with Python uv run src/backlog_manager/main.py

您应该看到类似以下内容的输出:

INFO: Started server process [12345] INFO: Waiting for application startup. INFO: Application startup complete. INFO: Uvicorn running on http://0.0.0.0:8050 (Press CTRL+C to quit)

注意:该服务器不支持--help标志,因为它被设计为 MCP 服务器,而不是传统的 CLI 应用程序。

使用 stdio 模式

当使用 stdio 模式时,您不需要单独启动服务器 - MCP 客户端将在正确配置后自动启动它(请参阅与 MCP 客户端集成)。

MCP 工具

Backlog Manager 通过 MCP 公开以下工具:

问题管理

工具

描述

参数

create_issue

创建新问题

name

(字符串)、

description

(字符串,可选)、

status

(字符串,可选)

list_issues

显示所有可用问题

没有任何

select_issue

设置活动问题

name

(字符串)

initialize_issue

创建或重置问题

name

(字符串)、

description

(字符串,可选)、

status

(字符串,可选)

update_issue_status

更新问题状态

name

(字符串)、

status

(字符串)

任务管理

工具

描述

参数

add_task

将任务添加到活动问题

title

(字符串)、

description

(字符串,可选)

list_tasks

列出活动问题中的任务

status

(字符串,可选)

update_task_status

更新任务状态

task_id

(字符串),

status

(字符串)

状态值

任务和问题可以具有以下状态之一:

  • New (新任务/问题的默认设置)

  • InWork (进行中)

  • Done (完成)

与 MCP 客户端集成

SSE配置

一旦服务器运行了 SSE 传输,请使用以下配置连接到它:

{ "mcpServers": { "backlog-manager": { "transport": "sse", "url": "http://localhost:8050/sse" } } }

风帆冲浪配置:

{ "mcpServers": { "backlog-manager": { "transport": "sse", "serverUrl": "http://localhost:8050/sse" } } }

n8n配置:

使用host.docker.internal而不是localhost从 n8n 容器访问主机:

http://host.docker.internal:8050/sse

Python 与 Stdio 配置

{ "mcpServers": { "backlog-manager": { "command": "python", "args": ["path/to/backlog-manager/src/backlog_manager/main.py"], "env": { "TRANSPORT": "stdio", "TASKS_FILE": "tasks.json" } } } }

Docker 与 Stdio 配置

{ "mcpServers": { "backlog-manager": { "command": "docker", "args": ["run", "--rm", "-i", "-e", "TRANSPORT=stdio", "backlog/manager"], "env": { "TRANSPORT": "stdio" } } } }

例子

Backlog Manager 旨在与 AI 助手无缝协作,帮助您组织项目工作。其最强大的用例是让 AI 读取规范并自动创建结构化的待办事项。

只需询问你的人工智能助手:

Read the spec and create a backlog for features not completed.

人工智能助手将:

  1. 阅读并分析规范文档

  2. 确定关键特征和组件

  3. 为主要功能区域创建问题

  4. 将每个问题分解成具体的任务

  5. 将所有内容整理到结构化的待办事项中

-
security - not tested
F
license - not found
-
quality - not tested

Related MCP Servers

  • A
    security
    A
    license
    A
    quality
    An MCP server implementation that integrates with Backlog API, enabling project management operations including issues, projects, and wikis through natural language interactions.
    Last updated -
    12
    5,730
    3
    MIT License
  • -
    security
    F
    license
    -
    quality
    A Model Context Protocol server that provides persistent task management capabilities for AI assistants, allowing them to create, update, and track tasks beyond their usual context limitations.
    Last updated -
    5
  • -
    security
    A
    license
    -
    quality
    AI-driven task management application that operates via MCP, enabling autonomous creation, organization, and execution of tasks with support for subtasks, priorities, and progress tracking.
    Last updated -
    2
    MIT License
    • Linux
  • A
    security
    F
    license
    A
    quality
    An MCP server that connects to Backlog API, providing functionality to search, retrieve, and update issues through natural language commands.
    Last updated -
    4
    5,730
    6
    • Apple

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/danielscholl/backlog-manager-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server