Integrations
Provides environment variable configuration support for storing LLM API keys and server settings via .env files
Supports containerized deployment of the Task Manager MCP server, with configuration for building and running the server as a Docker container
Offers alternative LLM provider integration for task management functions, allowing use of locally deployed Ollama models for PRD parsing and task suggestions
Administrador de tareas del servidor MCP
Implementación de plantilla del servidor del Protocolo de Contexto de Modelo (MCP) para la gestión de tareas y proyectos. Este servidor proporciona un sistema integral de gestión de tareas compatible con la organización de proyectos, el seguimiento de tareas y el análisis de PRD.
Descripción general
Este proyecto demuestra cómo construir un servidor MCP que permite a los agentes de IA gestionar tareas, supervisar el progreso del proyecto y desglosar los Documentos de Requisitos del Producto (PRD) en tareas prácticas. Sirve como plantilla práctica para crear sus propios servidores MCP con funciones de gestión de tareas.
La implementación sigue las mejores prácticas establecidas por Anthropic para construir servidores MCP, lo que permite una integración perfecta con cualquier cliente compatible con MCP.
Características
El servidor proporciona varias herramientas esenciales de gestión de tareas:
- Gestión de tareas
create_task_file
: Crea nuevos archivos de tareas de proyectoadd_task
: Agregar tareas a proyectos con descripciones y subtareasupdate_task_status
: Actualizar el estado de las tareas y subtareasget_next_task
: Obtener la siguiente tarea incompleta de un proyecto
- Planificación de proyectos
parse_prd
: Convierte PRD en tareas estructuradas automáticamenteexpand_task
: Divida las tareas en subtareas más pequeñas y manejablesestimate_task_complexity
: Estima la complejidad de la tarea y los requisitos de tiempoget_task_dependencies
: Realiza un seguimiento de las dependencias de las tareas
- Apoyo al desarrollo
generate_task_file
: Genera plantillas de archivos basadas en descripciones de tareassuggest_next_actions
: Obtenga sugerencias impulsadas por IA para los próximos pasos
Prerrequisitos
- Python 3.12+
- Claves API para el proveedor LLM elegido (OpenAI, OpenRouter u Ollama)
- Docker si se ejecuta el servidor MCP como contenedor (recomendado)
Instalación
Usando uv
- Instalar uv si no lo tienes:Copy
- Clonar este repositorio:Copy
- Instalar dependencias:Copy
- Cree un archivo
.env
basado en.env.example
:Copy - Configure sus variables de entorno en el archivo
.env
(ver sección Configuración)
Uso de Docker (recomendado)
- Construya la imagen de Docker:Copy
- Cree un archivo
.env
basado en.env.example
y configure sus variables de entorno
Configuración
Las siguientes variables de entorno se pueden configurar en su archivo .env
:
Variable | Descripción | Ejemplo |
---|---|---|
TRANSPORT | Protocolo de transporte (sse o stdio) | sse |
HOST | Host al que vincularse cuando se utiliza el transporte SSE | 0.0.0.0 |
PORT | Puerto para escuchar cuando se utiliza el transporte SSE | 8050 |
LLM_PROVIDER | Proveedor de LLM (openai, openrouter o ollama) | openai |
LLM_BASE_URL | URL base para la API de LLM | https://api.openai.com/v1 |
LLM_API_KEY | Clave API para el proveedor LLM | sk-... |
LLM_CHOICE | Modelo LLM para utilizar en el análisis de tareas | gpt-4 |
Ejecución del servidor
Usando Python 3
El servidor se iniciará en el host y puerto configurados (predeterminado: http://0.0.0.0:8050 ).
Usando Docker
Uso del Administrador de tareas
Creando un nuevo proyecto
- Crea un archivo de tareas para tu proyecto:
- Añade tareas a tu proyecto:
- Analizar un PRD para crear tareas automáticamente:
Gestión de tareas
- Actualizar el estado de la tarea:
- Consiga la siguiente tarea en la que trabajar:
- Expandir una tarea en subtareas:
Flujo de trabajo de desarrollo
- Generar una plantilla de archivo para una tarea:
- Obtener una estimación de la complejidad de la tarea:
- Obtenga sugerencias para las próximas acciones:
Integración con clientes MCP
Configuración de SSE
Para conectarse al servidor mediante el transporte SSE, utilice esta configuración:
Configuración de Stdio
Para el transporte stdio, utilice esta configuración:
Construyendo su propio servidor
Esta plantilla proporciona una base para crear servidores MCP de gestión de tareas más complejos. Para ampliarla:
- Agregue nuevas herramientas de gestión de tareas usando el decorador
@mcp.tool()
- Implementar funciones de automatización y análisis de tareas personalizadas
- Agregar plantillas de tareas y flujos de trabajo específicos del proyecto
- Integre con sus herramientas y procesos de desarrollo existentes
This server cannot be installed
Un servidor de protocolo de contexto de modelo que proporciona capacidades integrales de gestión de tareas con soporte para la organización de proyectos, seguimiento de tareas y análisis automático de PRD en elementos procesables.