Task Manager MCP Server

Integrations

  • Provides environment variable configuration support for storing LLM API keys and server settings via .env files

  • Supports containerized deployment of the Task Manager MCP server, with configuration for building and running the server as a Docker container

  • Offers alternative LLM provider integration for task management functions, allowing use of locally deployed Ollama models for PRD parsing and task suggestions

작업 관리자 MCP 서버

작업 및 프로젝트 관리를 위한 모델 컨텍스트 프로토콜(MCP) 서버의 템플릿 구현입니다. 이 서버는 프로젝트 구성, 작업 추적 및 PRD 파싱을 지원하는 포괄적인 작업 관리 시스템을 제공합니다.

개요

이 프로젝트는 AI 에이전트가 작업을 관리하고, 프로젝트 진행 상황을 추적하고, 제품 요구 사항 문서(PRD)를 실행 가능한 작업으로 분류할 수 있도록 하는 MCP 서버를 구축하는 방법을 보여줍니다. 작업 관리 기능을 갖춘 자체 MCP 서버를 구축하기 위한 실용적인 템플릿 역할을 합니다.

구현은 Anthropic이 MCP 서버를 구축하기 위해 제시한 모범 사례를 따르므로 모든 MCP 호환 클라이언트와 원활하게 통합할 수 있습니다.

특징

서버는 몇 가지 필수적인 작업 관리 도구를 제공합니다.

  1. 작업 관리
    • create_task_file : 새로운 프로젝트 작업 파일을 생성합니다.
    • add_task : 설명과 하위 작업을 포함하여 프로젝트에 작업을 추가합니다.
    • update_task_status : 작업 및 하위 작업의 상태를 업데이트합니다.
    • get_next_task : 프로젝트에서 완료되지 않은 다음 작업을 가져옵니다.
  2. 프로젝트 계획
    • parse_prd : PRD를 자동으로 구조화된 작업으로 변환합니다.
    • expand_task : 작업을 더 작고 관리하기 쉬운 하위 작업으로 분할합니다.
    • estimate_task_complexity : 작업 복잡성 및 시간 요구 사항을 추정합니다.
    • get_task_dependencies : 작업 종속성 추적
  3. 개발 지원
    • generate_task_file : 작업 설명을 기반으로 파일 템플릿을 생성합니다.
    • suggest_next_actions : 다음 단계에 대한 AI 기반 제안을 받으세요

필수 조건

  • 파이썬 3.12+
  • 선택한 LLM 공급자(OpenAI, OpenRouter 또는 Ollama)에 대한 API 키
  • MCP 서버를 컨테이너로 실행하는 경우 Docker(권장)

설치

uv를 사용하여

  1. uv가 없다면 설치하세요:지엑스피1
  2. 이 저장소를 복제하세요:
    git clone https://github.com/coleam00/mcp-mem0.git cd mcp-mem0
  3. 종속성 설치:
    uv pip install -e .
  4. .env.example 기반으로 .env 파일을 만듭니다.
    cp .env.example .env
  5. .env 파일에서 환경 변수를 구성합니다(구성 섹션 참조)

Docker 사용(권장)

  1. Docker 이미지를 빌드합니다.
    docker build -t mcp/mem0 --build-arg PORT=8050 .
  2. .env.example 을 기반으로 .env 파일을 만들고 환경 변수를 구성합니다.

구성

다음 환경 변수는 .env 파일에서 구성할 수 있습니다.

변하기 쉬운설명
TRANSPORT전송 프로토콜(sse 또는 stdio)sse
HOSTSSE 전송을 사용할 때 바인딩할 호스트0.0.0.0
PORTSSE 전송을 사용할 때 수신할 포트8050
LLM_PROVIDERLLM 제공자(openai, openrouter 또는 ollama)openai
LLM_BASE_URLLLM API의 기본 URLhttps://api.openai.com/v1
LLM_API_KEYLLM 공급자를 위한 API 키sk-...
LLM_CHOICE작업 분석에 사용할 LLM 모델gpt-4

서버 실행

파이썬 3 사용하기

# Set TRANSPORT=sse in .env then: python3 src/main.py

서버는 구성된 호스트와 포트(기본값: http://0.0.0.0:8050 )에서 시작됩니다.

Docker 사용하기

docker build -t task-manager-mcp . docker run --env-file .env -p 8050:8050 task-manager-mcp

작업 관리자 사용

새 프로젝트 만들기

  1. 프로젝트에 대한 작업 파일을 만듭니다.
await mcp.create_task_file(project_name="my-project")
  1. 프로젝트에 작업을 추가하세요:
await mcp.add_task( project_name="my-project", title="Setup Development Environment", description="Configure the development environment with required tools", subtasks=[ "Install dependencies", "Configure linters", "Set up testing framework" ] )
  1. PRD를 구문 분석하여 자동으로 작업을 생성합니다.
await mcp.parse_prd( project_name="my-project", prd_content="# Your PRD content..." )

작업 관리

  1. 작업 상태 업데이트:
await mcp.update_task_status( project_name="my-project", task_title="Setup Development Environment", subtask_title="Install dependencies", status="done" )
  1. 다음 작업을 시작하세요.
next_task = await mcp.get_next_task(project_name="my-project")
  1. 작업을 하위 작업으로 확장:
await mcp.expand_task( project_name="my-project", task_title="Implement Authentication" )

개발 워크플로

  1. 작업에 대한 파일 템플릿을 생성합니다.
await mcp.generate_task_file( project_name="my-project", task_title="User Authentication" )
  1. 작업 복잡성 추정치 얻기:
complexity = await mcp.estimate_task_complexity( project_name="my-project", task_title="User Authentication" )
  1. 다음 작업에 대한 제안을 받으세요:
suggestions = await mcp.suggest_next_actions( project_name="my-project", task_title="User Authentication" )

MCP 클라이언트와의 통합

SSE 구성

SSE 전송을 사용하여 서버에 연결하려면 다음 구성을 사용하세요.

{ "mcpServers": { "task-manager": { "transport": "sse", "url": "http://localhost:8050/sse" } } }

Stdio 구성

stdio 전송의 경우 다음 구성을 사용하세요.

{ "mcpServers": { "task-manager": { "command": "python3", "args": ["src/main.py"], "env": { "TRANSPORT": "stdio", "LLM_PROVIDER": "openai", "LLM_API_KEY": "YOUR-API-KEY", "LLM_CHOICE": "gpt-4" } } } }

나만의 서버 구축

이 템플릿은 더욱 복잡한 작업 관리 MCP 서버를 구축하기 위한 기반을 제공합니다. 확장하려면 다음을 수행하세요.

  1. @mcp.tool() 데코레이터를 사용하여 새로운 작업 관리 도구를 추가합니다.
  2. 사용자 정의 작업 분석 및 자동화 기능 구현
  3. 프로젝트별 작업 템플릿 및 워크플로 추가
  4. 기존 개발 도구 및 프로세스와 통합
-
security - not tested
A
license - permissive license
-
quality - not tested

프로젝트 구성, 작업 추적, PRD를 자동으로 분석하여 실행 가능한 항목을 생성하는 포괄적인 작업 관리 기능을 제공하는 모델 컨텍스트 프로토콜 서버입니다.

  1. Overview
    1. Features
      1. Prerequisites
        1. Installation
          1. Using uv
          2. Using Docker (Recommended)
        2. Configuration
          1. Running the Server
            1. Using Python 3
            2. Using Docker
          2. Using the Task Manager
            1. Creating a New Project
            2. Managing Tasks
            3. Development Workflow
          3. Integration with MCP Clients
            1. SSE Configuration
            2. Stdio Configuration
          4. Building Your Own Server
            ID: ofgb72kid6