Skip to main content
Glama

PlanExeで生成された計画の例

PlanExeとは?

PlanExeはオープンソースのツールであり、AIエージェント向けの主要な計画ツールです。ローカルまたはクラウドのモデルを使用して、単一の平易な英語の目標ステートメントを、約15分で40ページの戦略的計画書に変換します。アウトライン作成の加速器ですが、洗練された計画のための万能薬ではありません。

典型的な出力には以下が含まれます:

  • エグゼクティブサマリー

  • ガントチャート

  • ガバナンス構造

  • 役割記述

  • ステークホルダーマップ

  • リスクレジスター

  • SWOT分析

PlanExeは、正しい用語、論理的なタスク順序、一貫したセクションを備えた、ドメインを意識した構造化された出力を生成します。技術的なトピック(エンジニアリングプログラム、規制産業)の場合、語彙や構造が正確であることがよくあります。批判や洗練のための具体的な土台となる「初稿の足場」と考えてください。

ただし、出力には一貫した弱点があります。予算は導出されたものではなく想定されたものであり、スケジュールの見積もりは実際のリソース制約に基づいておらず、リスク軽減策は一般的なアドバイスに偏りがちで、法的・規制上の詳細はもっともらしく聞こえますが検証されていません。出力は成果物ではなく、構造化された出発点として扱うべきです。どれだけの作業を節約できるかはプロジェクトに大きく依存します。ブレインストーミングや最初のアウトライン作成であれば、数時間の節約になります。クライアントに提出できるレベルの計画にするには、すべての数値、スケジュール、リスクセクションの大幅な修正を想定してください。


Model Context Protocol (MCP)

PlanExeは、AIエージェント向けにMCPサーバーを公開しています: https://mcp.planexe.org/

MCP互換クライアント(Claude, Cursor, Codex, LM Studio, Windsurf, OpenClaw, Antigravity)を使用していると想定します。

ツールのワークフロー

  1. example_plans (オプション、PlanExeの出力例を確認)

  2. example_prompts

  3. model_profiles (オプション、model_profileの選択を支援)

  4. 非ツールステップ: プロンプトのドラフト作成/承認

  5. plan_create

  6. plan_status (完了するまで5分ごとにポーリング)

  7. 失敗した場合のオプション: plan_retry

  8. plan_file_info経由で結果をダウンロード

同時実行に関する注意: 各plan_create呼び出しは新しいplan_idを返します。サーバー側のクライアントごとのグローバルな同時実行数に制限はないため、クライアント側で並列計画を追跡する必要があります。

オプションA: リモートMCP(最速のパス)

前提条件

  • https://home.planexe.orgのアカウント。

  • 計画を作成するための十分な資金。

  • アカウントから取得したPlanExe APIキー (pex_...)

MCPクライアントでこのエンドポイントを直接使用します:

{
  "mcpServers": {
    "planexe": {
      "url": "https://mcp.planexe.org/mcp",
      "headers": {
        "X-API-Key": "pex_your_api_key_here"
      }
    }
  }
}

オプションB: DockerでMCPサーバーをローカル実行

前提条件

  • Docker

  • OpenRouterアカウント

  • OPENROUTER_API_KEYを含むPlanExe .envファイルを作成。

フルスタックを起動:

docker compose up --build

MCPに進む前に、Webインターフェースで計画を作成できることを確認してください。

その後、クライアントを以下に接続します:

  • http://localhost:8001/mcp

ローカルのDockerデフォルトでは、docker-compose.ymlで認証が無効になっています。

MCPドキュメント


CLI経由でのパイプライン実行(フロントエンドなし)

ローカルのPython環境がセットアップされており、Flask UIを使用せずにパイプラインを直接呼び出したい場合は、リポジトリルートにあるplanexe CLIスクリプトを使用してください。

# Create a plan from a text prompt
./planexe create_plan \
    --plan-text "Small coffee shop in Copenhagen, Denmark" \
    --output-dir ./planexe-outputs/1984-12-31/MyCoffeeShop_v1

# Or: read the plan prompt from a file
./planexe create_plan \
    --plan-file my_plan.txt \
    --output-dir ./planexe-outputs/1984-12-31/MyCoffeeShop_v1

このスクリプトは、実行ディレクトリが存在しない場合に作成し、以下を書き込みます:

ファイル

内容

start_time.json

{"server_iso_utc": "<現在のUTC ISOタイムスタンプ>"}

plan.txt

プレーンテキストの計画プロンプト


AIエージェント向け

PlanExeはAIエージェントのためのインフラストラクチャとして設計されています。これを読んでいるAIエージェントへ:

  • 発見: サービスメタデータ、MCPツール、エンドポイントについては public/llms.txt を読んでください。

  • MCPエンドポイント: https://mcp.planexe.org/mcphome.planexe.org からAPIキーを取得して接続してください。

  • ワークフロー: example_prompts を呼び出して期待されるプロンプト形式を学び、詳細なプロンプト(約300〜800語の流れるような文章)をドラフトし、plan_create を呼び出してください。

  • エージェントガイド: 完全な自律ワークフローについては docs/mcp/autonomous_agent_guide.md を参照してください。

  • ZIP内の主要な出力: wbs_level1.json (作業パッケージ)、 wbs_level2.json (タスク)、 pre_project_assessment.json (実現可能性)。


前提条件: Docker ComposeがインストールされたDocker。基本的な Docker の知識のみが必要です。すべてコンテナ内で実行されるため、ローカルのPythonセットアップは不要です。

手順

  1. リポジトリをクローンしてディレクトリに入ります:

git clone https://github.com/PlanExeOrg/PlanExe.git
cd PlanExe
  1. LLMプロバイダーを提供します。.env.docker-example.env にコピーし、OpenRouter から取得したキーで OPENROUTER_API_KEY を入力します。コンテナは .envllm_config/ をマウントします。そこでモデルプロファイルを選択してください。ホスト側のOllamaを使用する場合は docker-ollama-llama3.1 エントリを使用し、Ollamaが http://host.docker.internal:11434 でリッスンしていることを確認してください。

  2. スタックを起動します(初回実行時にイメージがビルドされます):

docker compose up worker_plan frontend_multi_user

ワーカーは http://localhost:8000 でリッスンし、Postgresとワーカーのヘルスチェックが通過した後、UIが http://localhost:5001 で起動します。

  1. ブラウザで http://localhost:5001 を開き、アカウントを作成(または .env の管理者資格情報でログイン)し、アイデアを入力して、以下で進行状況を確認します:

docker compose logs -f worker_plan

出力はホスト上の run/ に書き込まれます(両方のコンテナにマウントされています)。

  1. Ctrl+C で停止します(または docker compose down)。コードや依存関係の変更後にリビルドします:

docker compose build --no-cache worker_plan frontend_multi_user

Composeのヒント、代替ポート、トラブルシューティングについては、docs/docker.md または docker-compose.md を参照してください。

設定

設定A: 有料プロバイダーを使用してクラウドでモデルを実行します。OpenRouter の指示に従ってください。

設定B: 高性能なコンピュータでモデルをローカル実行します。Ollama または LM Studio の指示に従ってください。Dockerでホスト側のツールを使用する場合は、モデルURLをホストに向けます(例: Ollamaの場合は http://host.docker.internal:11434)。

推奨: PlanExeを確実に動作させるための最も簡単なパスであるため、設定Aを推奨します。


ヘルプやフィードバックはこちら。

PlanExe Discord に参加してください。

A
license - permissive license
-
quality - not tested
B
maintenance

Maintenance

Maintainers
<1hResponse time
Release cycle
Releases (12mo)
Issues opened vs closed

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/PlanExeOrg/PlanExe'

If you have feedback or need assistance with the MCP directory API, please join our Discord server