PlanExe
OfficialPlanExeで生成された計画の例
マインクラフトをテーマにした脱出ゲームの事業計画。
ファラデーケージ製造会社の事業計画。
Human as-a Serviceのパイロットプロジェクト。
PlanExeとは?
PlanExeはオープンソースのツールであり、AIエージェント向けの主要な計画ツールです。ローカルまたはクラウドのモデルを使用して、単一の平易な英語の目標ステートメントを、約15分で40ページの戦略的計画書に変換します。アウトライン作成の加速器ですが、洗練された計画のための万能薬ではありません。
典型的な出力には以下が含まれます:
エグゼクティブサマリー
ガントチャート
ガバナンス構造
役割記述
ステークホルダーマップ
リスクレジスター
SWOT分析
PlanExeは、正しい用語、論理的なタスク順序、一貫したセクションを備えた、ドメインを意識した構造化された出力を生成します。技術的なトピック(エンジニアリングプログラム、規制産業)の場合、語彙や構造が正確であることがよくあります。批判や洗練のための具体的な土台となる「初稿の足場」と考えてください。
ただし、出力には一貫した弱点があります。予算は導出されたものではなく想定されたものであり、スケジュールの見積もりは実際のリソース制約に基づいておらず、リスク軽減策は一般的なアドバイスに偏りがちで、法的・規制上の詳細はもっともらしく聞こえますが検証されていません。出力は成果物ではなく、構造化された出発点として扱うべきです。どれだけの作業を節約できるかはプロジェクトに大きく依存します。ブレインストーミングや最初のアウトライン作成であれば、数時間の節約になります。クライアントに提出できるレベルの計画にするには、すべての数値、スケジュール、リスクセクションの大幅な修正を想定してください。
Model Context Protocol (MCP)
PlanExeは、AIエージェント向けにMCPサーバーを公開しています: https://mcp.planexe.org/
MCP互換クライアント(Claude, Cursor, Codex, LM Studio, Windsurf, OpenClaw, Antigravity)を使用していると想定します。
ツールのワークフロー
example_plans(オプション、PlanExeの出力例を確認)example_promptsmodel_profiles(オプション、model_profileの選択を支援)非ツールステップ: プロンプトのドラフト作成/承認
plan_createplan_status(完了するまで5分ごとにポーリング)失敗した場合のオプション:
plan_retryplan_file_info経由で結果をダウンロード
同時実行に関する注意: 各plan_create呼び出しは新しいplan_idを返します。サーバー側のクライアントごとのグローバルな同時実行数に制限はないため、クライアント側で並列計画を追跡する必要があります。
オプションA: リモートMCP(最速のパス)
前提条件
https://home.planexe.orgのアカウント。
計画を作成するための十分な資金。
アカウントから取得したPlanExe APIキー (
pex_...)
MCPクライアントでこのエンドポイントを直接使用します:
{
"mcpServers": {
"planexe": {
"url": "https://mcp.planexe.org/mcp",
"headers": {
"X-API-Key": "pex_your_api_key_here"
}
}
}
}オプションB: DockerでMCPサーバーをローカル実行
前提条件
Docker
OpenRouterアカウント
OPENROUTER_API_KEYを含むPlanExe.envファイルを作成。
フルスタックを起動:
docker compose up --buildMCPに進む前に、Webインターフェースで計画を作成できることを確認してください。
その後、クライアントを以下に接続します:
http://localhost:8001/mcp
ローカルのDockerデフォルトでは、docker-compose.ymlで認証が無効になっています。
MCPドキュメント
セットアップの概要: https://docs.planexe.org/mcp/mcp_setup/
ツールの詳細とフロー: https://docs.planexe.org/mcp/mcp_details/
PlanExe MCPインターフェース: https://docs.planexe.org/mcp/planexe_mcp_interface/
MCPレジストリ公開メタデータ (
server.json):mcp_cloud/server.jsonllms.txt: https://mcp.planexe.org/llms.txt
CLI経由でのパイプライン実行(フロントエンドなし)
ローカルのPython環境がセットアップされており、Flask UIを使用せずにパイプラインを直接呼び出したい場合は、リポジトリルートにあるplanexe CLIスクリプトを使用してください。
# Create a plan from a text prompt
./planexe create_plan \
--plan-text "Small coffee shop in Copenhagen, Denmark" \
--output-dir ./planexe-outputs/1984-12-31/MyCoffeeShop_v1
# Or: read the plan prompt from a file
./planexe create_plan \
--plan-file my_plan.txt \
--output-dir ./planexe-outputs/1984-12-31/MyCoffeeShop_v1このスクリプトは、実行ディレクトリが存在しない場合に作成し、以下を書き込みます:
ファイル | 内容 |
|
|
| プレーンテキストの計画プロンプト |
AIエージェント向け
PlanExeはAIエージェントのためのインフラストラクチャとして設計されています。これを読んでいるAIエージェントへ:
発見: サービスメタデータ、MCPツール、エンドポイントについては
public/llms.txtを読んでください。MCPエンドポイント:
https://mcp.planexe.org/mcp— home.planexe.org からAPIキーを取得して接続してください。ワークフロー:
example_promptsを呼び出して期待されるプロンプト形式を学び、詳細なプロンプト(約300〜800語の流れるような文章)をドラフトし、plan_createを呼び出してください。エージェントガイド: 完全な自律ワークフローについては
docs/mcp/autonomous_agent_guide.mdを参照してください。ZIP内の主要な出力:
wbs_level1.json(作業パッケージ)、wbs_level2.json(タスク)、pre_project_assessment.json(実現可能性)。
前提条件: Docker ComposeがインストールされたDocker。基本的な Docker の知識のみが必要です。すべてコンテナ内で実行されるため、ローカルのPythonセットアップは不要です。
手順
リポジトリをクローンしてディレクトリに入ります:
git clone https://github.com/PlanExeOrg/PlanExe.git
cd PlanExeLLMプロバイダーを提供します。
.env.docker-exampleを.envにコピーし、OpenRouter から取得したキーでOPENROUTER_API_KEYを入力します。コンテナは.envとllm_config/をマウントします。そこでモデルプロファイルを選択してください。ホスト側のOllamaを使用する場合はdocker-ollama-llama3.1エントリを使用し、Ollamaがhttp://host.docker.internal:11434でリッスンしていることを確認してください。スタックを起動します(初回実行時にイメージがビルドされます):
docker compose up worker_plan frontend_multi_userワーカーは http://localhost:8000 でリッスンし、Postgresとワーカーのヘルスチェックが通過した後、UIが http://localhost:5001 で起動します。
ブラウザで http://localhost:5001 を開き、アカウントを作成(または
.envの管理者資格情報でログイン)し、アイデアを入力して、以下で進行状況を確認します:
docker compose logs -f worker_plan出力はホスト上の run/ に書き込まれます(両方のコンテナにマウントされています)。
Ctrl+Cで停止します(またはdocker compose down)。コードや依存関係の変更後にリビルドします:
docker compose build --no-cache worker_plan frontend_multi_userComposeのヒント、代替ポート、トラブルシューティングについては、docs/docker.md または docker-compose.md を参照してください。
設定
設定A: 有料プロバイダーを使用してクラウドでモデルを実行します。OpenRouter の指示に従ってください。
設定B: 高性能なコンピュータでモデルをローカル実行します。Ollama または LM Studio の指示に従ってください。Dockerでホスト側のツールを使用する場合は、モデルURLをホストに向けます(例: Ollamaの場合は http://host.docker.internal:11434)。
推奨: PlanExeを確実に動作させるための最も簡単なパスであるため、設定Aを推奨します。
ヘルプやフィードバックはこちら。
PlanExe Discord に参加してください。
This server cannot be installed
Maintenance
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/PlanExeOrg/PlanExe'
If you have feedback or need assistance with the MCP directory API, please join our Discord server