Task Manager MCP Server

Integrations

  • Provides environment variable configuration support for storing LLM API keys and server settings via .env files

  • Supports containerized deployment of the Task Manager MCP server, with configuration for building and running the server as a Docker container

  • Offers alternative LLM provider integration for task management functions, allowing use of locally deployed Ollama models for PRD parsing and task suggestions

Administrador de tareas del servidor MCP

Implementación de plantilla del servidor del Protocolo de Contexto de Modelo (MCP) para la gestión de tareas y proyectos. Este servidor proporciona un sistema integral de gestión de tareas compatible con la organización de proyectos, el seguimiento de tareas y el análisis de PRD.

Descripción general

Este proyecto demuestra cómo construir un servidor MCP que permite a los agentes de IA gestionar tareas, supervisar el progreso del proyecto y desglosar los Documentos de Requisitos del Producto (PRD) en tareas prácticas. Sirve como plantilla práctica para crear sus propios servidores MCP con funciones de gestión de tareas.

La implementación sigue las mejores prácticas establecidas por Anthropic para construir servidores MCP, lo que permite una integración perfecta con cualquier cliente compatible con MCP.

Características

El servidor proporciona varias herramientas esenciales de gestión de tareas:

  1. Gestión de tareas
    • create_task_file : Crea nuevos archivos de tareas de proyecto
    • add_task : Agregar tareas a proyectos con descripciones y subtareas
    • update_task_status : Actualizar el estado de las tareas y subtareas
    • get_next_task : Obtener la siguiente tarea incompleta de un proyecto
  2. Planificación de proyectos
    • parse_prd : Convierte PRD en tareas estructuradas automáticamente
    • expand_task : Divida las tareas en subtareas más pequeñas y manejables
    • estimate_task_complexity : Estima la complejidad de la tarea y los requisitos de tiempo
    • get_task_dependencies : Realiza un seguimiento de las dependencias de las tareas
  3. Apoyo al desarrollo
    • generate_task_file : Genera plantillas de archivos basadas en descripciones de tareas
    • suggest_next_actions : Obtenga sugerencias impulsadas por IA para los próximos pasos

Prerrequisitos

  • Python 3.12+
  • Claves API para el proveedor LLM elegido (OpenAI, OpenRouter u Ollama)
  • Docker si se ejecuta el servidor MCP como contenedor (recomendado)

Instalación

Usando uv

  1. Instalar uv si no lo tienes:
    pip install uv
  2. Clonar este repositorio:
    git clone https://github.com/coleam00/mcp-mem0.git cd mcp-mem0
  3. Instalar dependencias:
    uv pip install -e .
  4. Cree un archivo .env basado en .env.example :
    cp .env.example .env
  5. Configure sus variables de entorno en el archivo .env (ver sección Configuración)

Uso de Docker (recomendado)

  1. Construya la imagen de Docker:
    docker build -t mcp/mem0 --build-arg PORT=8050 .
  2. Cree un archivo .env basado en .env.example y configure sus variables de entorno

Configuración

Las siguientes variables de entorno se pueden configurar en su archivo .env :

VariableDescripciónEjemplo
TRANSPORTProtocolo de transporte (sse o stdio)sse
HOSTHost al que vincularse cuando se utiliza el transporte SSE0.0.0.0
PORTPuerto para escuchar cuando se utiliza el transporte SSE8050
LLM_PROVIDERProveedor de LLM (openai, openrouter o ollama)openai
LLM_BASE_URLURL base para la API de LLMhttps://api.openai.com/v1
LLM_API_KEYClave API para el proveedor LLMsk-...
LLM_CHOICEModelo LLM para utilizar en el análisis de tareasgpt-4

Ejecución del servidor

Usando Python 3

# Set TRANSPORT=sse in .env then: python3 src/main.py

El servidor se iniciará en el host y puerto configurados (predeterminado: http://0.0.0.0:8050 ).

Usando Docker

docker build -t task-manager-mcp . docker run --env-file .env -p 8050:8050 task-manager-mcp

Uso del Administrador de tareas

Creando un nuevo proyecto

  1. Crea un archivo de tareas para tu proyecto:
await mcp.create_task_file(project_name="my-project")
  1. Añade tareas a tu proyecto:
await mcp.add_task( project_name="my-project", title="Setup Development Environment", description="Configure the development environment with required tools", subtasks=[ "Install dependencies", "Configure linters", "Set up testing framework" ] )
  1. Analizar un PRD para crear tareas automáticamente:
await mcp.parse_prd( project_name="my-project", prd_content="# Your PRD content..." )

Gestión de tareas

  1. Actualizar el estado de la tarea:
await mcp.update_task_status( project_name="my-project", task_title="Setup Development Environment", subtask_title="Install dependencies", status="done" )
  1. Consiga la siguiente tarea en la que trabajar:
next_task = await mcp.get_next_task(project_name="my-project")
  1. Expandir una tarea en subtareas:
await mcp.expand_task( project_name="my-project", task_title="Implement Authentication" )

Flujo de trabajo de desarrollo

  1. Generar una plantilla de archivo para una tarea:
await mcp.generate_task_file( project_name="my-project", task_title="User Authentication" )
  1. Obtener una estimación de la complejidad de la tarea:
complexity = await mcp.estimate_task_complexity( project_name="my-project", task_title="User Authentication" )
  1. Obtenga sugerencias para las próximas acciones:
suggestions = await mcp.suggest_next_actions( project_name="my-project", task_title="User Authentication" )

Integración con clientes MCP

Configuración de SSE

Para conectarse al servidor mediante el transporte SSE, utilice esta configuración:

{ "mcpServers": { "task-manager": { "transport": "sse", "url": "http://localhost:8050/sse" } } }

Configuración de Stdio

Para el transporte stdio, utilice esta configuración:

{ "mcpServers": { "task-manager": { "command": "python3", "args": ["src/main.py"], "env": { "TRANSPORT": "stdio", "LLM_PROVIDER": "openai", "LLM_API_KEY": "YOUR-API-KEY", "LLM_CHOICE": "gpt-4" } } } }

Construyendo su propio servidor

Esta plantilla proporciona una base para crear servidores MCP de gestión de tareas más complejos. Para ampliarla:

  1. Agregue nuevas herramientas de gestión de tareas usando el decorador @mcp.tool()
  2. Implementar funciones de automatización y análisis de tareas personalizadas
  3. Agregar plantillas de tareas y flujos de trabajo específicos del proyecto
  4. Integre con sus herramientas y procesos de desarrollo existentes
-
security - not tested
A
license - permissive license
-
quality - not tested

Un servidor de protocolo de contexto de modelo que proporciona capacidades integrales de gestión de tareas con soporte para la organización de proyectos, seguimiento de tareas y análisis automático de PRD en elementos procesables.

  1. Overview
    1. Features
      1. Prerequisites
        1. Installation
          1. Using uv
          2. Using Docker (Recommended)
        2. Configuration
          1. Running the Server
            1. Using Python 3
            2. Using Docker
          2. Using the Task Manager
            1. Creating a New Project
            2. Managing Tasks
            3. Development Workflow
          3. Integration with MCP Clients
            1. SSE Configuration
            2. Stdio Configuration
          4. Building Your Own Server
            ID: ofgb72kid6