Skip to main content
Glama

Mit PlanExe erstellte Beispielpläne

Was ist PlanExe?

PlanExe ist ein Open-Source-Tool und das führende Planungstool für KI-Agenten. Es verwandelt eine einzelne, in einfachem Englisch formulierte Zielvorgabe in etwa 15 Minuten in einen 40-seitigen strategischen Plan, wobei lokale oder Cloud-Modelle verwendet werden. Es ist ein Beschleuniger für Gliederungen, aber kein Allheilmittel für ausgefeilte Pläne.

Typische Ergebnisse enthalten:

  • Zusammenfassung für Führungskräfte

  • Gantt-Diagramm

  • Governance-Struktur

  • Rollenbeschreibungen

  • Stakeholder-Karten

  • Risikoregister

  • SWOT-Analysen

PlanExe erstellt gut strukturierte, fachkundige Ergebnisse: korrekte Terminologie, logische Aufgabenabfolge und kohärente Abschnitte. Bei technischen Themen (Ingenieurprogramme, regulierte Branchen) trifft es oft das richtige Vokabular und die richtige Struktur. Betrachten Sie es als ein Gerüst für einen ersten Entwurf, das Ihnen etwas Konkretes zum Kritisieren und Verfeinern gibt.

Allerdings weist das Ergebnis konsistente Schwächen auf, die wichtig sind: Budgets werden eher angenommen als abgeleitet, Zeitschätzungen basieren nicht auf realen Ressourcenbeschränkungen, Risikominderungen neigen zu allgemeiner Beratung, und rechtliche/regulatorische Details klingen plausibel, sind aber ungeprüft. Das Ergebnis sollte als strukturierter Ausgangspunkt betrachtet werden, nicht als fertiges Lieferobjekt. Wie viel Arbeit es spart, hängt stark vom Projekt ab. Für Brainstorming oder eine erste Gliederung kann es Stunden sparen. Für einen kundenfertigen Plan sollten Sie mit erheblicher Nacharbeit bei jeder Zahl, jedem Zeitplan und jedem Risikoabschnitt rechnen.


Model Context Protocol (MCP)

PlanExe stellt einen MCP-Server für KI-Agenten unter https://mcp.planexe.org/ bereit.

Angenommen, Sie haben einen MCP-kompatiblen Client (Claude, Cursor, Codex, LM Studio, Windsurf, OpenClaw, Antigravity).

Der Tool-Workflow:

  1. example_plans (optional, Vorschau auf das PlanExe-Ergebnis)

  2. example_prompts

  3. model_profiles (optional, hilft bei der Auswahl des model_profile)

  4. Nicht-Tool-Schritt: Prompt entwerfen/genehmigen

  5. plan_create

  6. plan_status (alle 5 Minuten abfragen, bis fertig)

  7. Optional bei Fehler: plan_retry

  8. Ergebnis herunterladen über plan_file_info

Hinweis zur Nebenläufigkeit: Jeder plan_create-Aufruf gibt eine neue plan_id zurück; die serverseitige globale Nebenläufigkeit pro Client ist nicht begrenzt, daher sollten Clients ihre eigenen parallelen Pläne verfolgen.

Option A: Remote MCP (schnellster Weg)

Voraussetzungen

  • Ein Konto unter https://home.planexe.org.

  • Ausreichend Guthaben zur Erstellung von Plänen.

  • Ein PlanExe-API-Schlüssel (pex_...) aus Ihrem Konto.

Verwenden Sie diesen Endpunkt direkt in Ihrem MCP-Client:

{
  "mcpServers": {
    "planexe": {
      "url": "https://mcp.planexe.org/mcp",
      "headers": {
        "X-API-Key": "pex_your_api_key_here"
      }
    }
  }
}

Option B: MCP-Server lokal mit Docker ausführen

Voraussetzungen

  • Docker

  • OpenRouter-Konto

  • Erstellen Sie eine PlanExe .env-Datei mit OPENROUTER_API_KEY.

Starten Sie den gesamten Stack:

docker compose up --build

Stellen Sie sicher, dass Sie Pläne in der Weboberfläche erstellen können, bevor Sie mit MCP fortfahren.

Verbinden Sie dann Ihren Client mit:

  • http://localhost:8001/mcp

Bei lokalen Docker-Standardeinstellungen ist die Authentifizierung in docker-compose.yml deaktiviert.

MCP-Dokumentation


Ausführen der Pipeline über CLI (ohne Frontend)

Wenn Sie eine lokale Python-Umgebung eingerichtet haben und die Pipeline direkt aufrufen möchten – ohne die Flask-Benutzeroberfläche –, verwenden Sie das planexe-CLI-Skript im Repository-Stammverzeichnis.

# Create a plan from a text prompt
./planexe create_plan \
    --plan-text "Small coffee shop in Copenhagen, Denmark" \
    --output-dir ./planexe-outputs/1984-12-31/MyCoffeeShop_v1

# Or: read the plan prompt from a file
./planexe create_plan \
    --plan-file my_plan.txt \
    --output-dir ./planexe-outputs/1984-12-31/MyCoffeeShop_v1

Das Skript erstellt das Ausführungsverzeichnis, falls es nicht existiert, und schreibt:

Datei

Inhalt

start_time.json

{"server_iso_utc": "<aktueller UTC ISO-Zeitstempel>"}

plan.txt

Der Klartext-Plan-Prompt


Für KI-Agenten

PlanExe ist als Infrastruktur für KI-Agenten konzipiert. Wenn Sie ein KI-Agent sind, der dies liest:

  • Entdeckung: Lesen Sie public/llms.txt für Dienstmetadaten, MCP-Tools und Endpunkte.

  • MCP-Endpunkt: https://mcp.planexe.org/mcp — verbinden Sie sich mit einem API-Schlüssel von home.planexe.org.

  • Workflow: Rufen Sie example_prompts auf, um das erwartete Prompt-Format zu lernen, entwerfen Sie einen detaillierten Prompt (~300-800 Wörter fließender Text) und rufen Sie dann plan_create auf.

  • Agenten-Leitfaden: Siehe docs/mcp/autonomous_agent_guide.md für den vollständigen autonomen Workflow.

  • Wichtige Ausgaben im Zip: wbs_level1.json (Arbeitspakete), wbs_level2.json (Aufgaben), pre_project_assessment.json (Machbarkeit).


Voraussetzung: Docker mit installiertem Docker Compose; Sie benötigen nur grundlegende Docker-Kenntnisse. Es ist keine lokale Python-Einrichtung erforderlich, da alles in Containern läuft.

Befolgen Sie diese Schritte

  1. Klonen Sie das Repo und gehen Sie hinein:

git clone https://github.com/PlanExeOrg/PlanExe.git
cd PlanExe
  1. Stellen Sie einen LLM-Anbieter bereit. Kopieren Sie .env.docker-example nach .env und füllen Sie OPENROUTER_API_KEY mit Ihrem Schlüssel von OpenRouter aus. Die Container mounten .env und llm_config/; wählen Sie dort ein Modellprofil aus. Für hostseitiges Ollama verwenden Sie den Eintrag docker-ollama-llama3.1 und stellen Sie sicher, dass Ollama auf http://host.docker.internal:11434 lauscht.

  2. Starten Sie den Stack (der erste Lauf baut die Images):

docker compose up worker_plan frontend_multi_user

Der Worker lauscht auf http://localhost:8000 und die Benutzeroberfläche erscheint auf http://localhost:5001, nachdem die Postgres- und Worker-Gesundheitsprüfungen bestanden wurden.

  1. Öffnen Sie http://localhost:5001 in Ihrem Browser, erstellen Sie ein Konto (oder melden Sie sich mit den Admin-Anmeldedaten aus .env an), geben Sie Ihre Idee ein und beobachten Sie den Fortschritt mit:

docker compose logs -f worker_plan

Die Ausgaben werden auf dem Host in run/ geschrieben (in beide Container gemountet).

  1. Stoppen Sie mit Strg+C (oder docker compose down). Nach Code-/Abhängigkeitsänderungen neu erstellen:

docker compose build --no-cache worker_plan frontend_multi_user

Für Compose-Tipps, alternative Ports oder Fehlerbehebung siehe docs/docker.md oder docker-compose.md.

Konfiguration

Konfiguration A: Führen Sie ein Modell in der Cloud mit einem kostenpflichtigen Anbieter aus. Befolgen Sie die Anweisungen in OpenRouter.

Konfiguration B: Führen Sie Modelle lokal auf einem High-End-Computer aus. Befolgen Sie die Anweisungen für entweder Ollama oder LM Studio. Wenn Sie hostseitige Tools mit Docker verwenden, zeigen Sie mit der Modell-URL auf den Host (zum Beispiel http://host.docker.internal:11434 für Ollama).

Empfehlung: Ich empfehle Konfiguration A, da sie den direktesten Weg bietet, PlanExe zuverlässig zum Laufen zu bringen.


Für Hilfe oder Feedback.

Treten Sie dem PlanExe Discord bei.

A
license - permissive license
-
quality - not tested
B
maintenance

Maintenance

Maintainers
<1hResponse time
Release cycle
Releases (12mo)
Issues opened vs closed

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/PlanExeOrg/PlanExe'

If you have feedback or need assistance with the MCP directory API, please join our Discord server