Task Manager MCP Server

Integrations

  • Provides environment variable configuration support for storing LLM API keys and server settings via .env files

  • Supports containerized deployment of the Task Manager MCP server, with configuration for building and running the server as a Docker container

  • Offers alternative LLM provider integration for task management functions, allowing use of locally deployed Ollama models for PRD parsing and task suggestions

タスクマネージャー MCP サーバー

タスクとプロジェクトを管理するためのモデルコンテキストプロトコル(MCP)サーバーのテンプレート実装です。このサーバーは、プロジェクトの編成、タスクの追跡、PRD解析をサポートする包括的なタスク管理システムを提供します。

概要

このプロジェクトでは、AIエージェントがタスク管理、プロジェクトの進捗状況の追跡、製品要件ドキュメント(PRD)を実行可能なタスクに分解できるようにするMCPサーバーの構築方法を説明します。これは、タスク管理機能を備えた独自のMCPサーバーを作成するための実用的なテンプレートとして役立ちます。

この実装は、MCP サーバーの構築に関して Anthropic が示したベスト プラクティスに従っており、MCP 互換のあらゆるクライアントとのシームレスな統合を可能にします。

特徴

サーバーはいくつかの重要なタスク管理ツールを提供します。

  1. タスク管理
    • create_task_file : 新しいプロジェクトタスクファイルを作成する
    • add_task : 説明とサブタスクを含むタスクをプロジェクトに追加する
    • update_task_status : タスクとサブタスクのステータスを更新する
    • get_next_task : プロジェクトから次の未完了タスクを取得する
  2. プロジェクト計画
    • parse_prd : PRD を構造化されたタスクに自動的に変換します
    • expand_task : タスクをより小さく管理しやすいサブタスクに分割する
    • estimate_task_complexity : タスクの複雑さと所要時間を見積もる
    • get_task_dependencies : タスクの依存関係を追跡する
  3. 開発サポート
    • generate_task_file : タスクの説明に基づいてファイルテンプレートを生成する
    • suggest_next_actions : AI を活用した次のステップの提案を取得します

前提条件

  • Python 3.12以上
  • 選択した LLM プロバイダー (OpenAI、OpenRouter、または Ollama) の API キー
  • MCP サーバーをコンテナとして実行する場合は Docker (推奨)

インストール

UVの使用

  1. uv がインストールされていない場合はインストールします。
    pip install uv
  2. このリポジトリをクローンします:
    git clone https://github.com/coleam00/mcp-mem0.git cd mcp-mem0
  3. 依存関係をインストールします:
    uv pip install -e .
  4. .env.exampleに基づいて.envファイルを作成します。
    cp .env.example .env
  5. .envファイルで環境変数を設定します(構成セクションを参照)。

Dockerの使用(推奨)

  1. Docker イメージをビルドします。
    docker build -t mcp/mem0 --build-arg PORT=8050 .
  2. .env.exampleに基づいて.envファイルを作成し、環境変数を設定します。

構成

.envファイルでは次の環境変数を設定できます。

変数説明
TRANSPORTトランスポートプロトコル(sse または stdio)sse
HOSTSSEトランスポートを使用するときにバインドするホスト0.0.0.0
PORTSSE トランスポートを使用するときにリッスンするポート8050
LLM_PROVIDERLLM プロバイダー (openai、openrouter、または ollama)openai
LLM_BASE_URLLLM API のベース URLhttps://api.openai.com/v1
LLM_API_KEYLLMプロバイダーのAPIキーsk-...
LLM_CHOICEタスク分析に使用するLLMモデルgpt-4

サーバーの実行

Python 3の使用

# Set TRANSPORT=sse in .env then: python3 src/main.py

サーバーは設定されたホストとポート (デフォルト: http://0.0.0.0:8050 ) で起動します。

Dockerの使用

docker build -t task-manager-mcp . docker run --env-file .env -p 8050:8050 task-manager-mcp

タスクマネージャーの使用

新しいプロジェクトの作成

  1. プロジェクトのタスク ファイルを作成します。
await mcp.create_task_file(project_name="my-project")
  1. プロジェクトにタスクを追加します。
await mcp.add_task( project_name="my-project", title="Setup Development Environment", description="Configure the development environment with required tools", subtasks=[ "Install dependencies", "Configure linters", "Set up testing framework" ] )
  1. PRD を解析してタスクを自動的に作成します。
await mcp.parse_prd( project_name="my-project", prd_content="# Your PRD content..." )

タスクの管理

  1. タスクのステータスを更新します:
await mcp.update_task_status( project_name="my-project", task_title="Setup Development Environment", subtask_title="Install dependencies", status="done" )
  1. 次のタスクに取り組みます:
next_task = await mcp.get_next_task(project_name="my-project")
  1. タスクをサブタスクに展開します。
await mcp.expand_task( project_name="my-project", task_title="Implement Authentication" )

開発ワークフロー

  1. タスクのファイル テンプレートを生成します。
await mcp.generate_task_file( project_name="my-project", task_title="User Authentication" )
  1. タスクの複雑さの見積もりを取得します。
complexity = await mcp.estimate_task_complexity( project_name="my-project", task_title="User Authentication" )
  1. 次のアクションの提案を取得します。
suggestions = await mcp.suggest_next_actions( project_name="my-project", task_title="User Authentication" )

MCPクライアントとの統合

SSE構成

SSE トランスポートを使用してサーバーに接続するには、次の構成を使用します。

{ "mcpServers": { "task-manager": { "transport": "sse", "url": "http://localhost:8050/sse" } } }

標準入出力設定

stdio トランスポートの場合は、次の構成を使用します。

{ "mcpServers": { "task-manager": { "command": "python3", "args": ["src/main.py"], "env": { "TRANSPORT": "stdio", "LLM_PROVIDER": "openai", "LLM_API_KEY": "YOUR-API-KEY", "LLM_CHOICE": "gpt-4" } } } }

独自のサーバーを構築する

このテンプレートは、より複雑なタスク管理MCPサーバーを構築するための基盤を提供します。拡張するには、以下の手順に従ってください。

  1. @mcp.tool()デコレータを使用して新しいタスク管理ツールを追加する
  2. カスタムタスク分析および自動化機能を実装する
  3. プロジェクト固有のタスクテンプレートとワークフローを追加する
  4. 既存の開発ツールやプロセスと統合
-
security - not tested
A
license - permissive license
-
quality - not tested

プロジェクトの編成、タスクの追跡、および PRD を実行可能な項目に自動解析する機能をサポートする包括的なタスク管理機能を提供するモデル コンテキスト プロトコル サーバー。

  1. Overview
    1. Features
      1. Prerequisites
        1. Installation
          1. Using uv
          2. Using Docker (Recommended)
        2. Configuration
          1. Running the Server
            1. Using Python 3
            2. Using Docker
          2. Using the Task Manager
            1. Creating a New Project
            2. Managing Tasks
            3. Development Workflow
          3. Integration with MCP Clients
            1. SSE Configuration
            2. Stdio Configuration
          4. Building Your Own Server
            ID: ofgb72kid6