Skip to main content
Glama

Ejemplos de planes generados con PlanExe

¿Qué es PlanExe?

PlanExe es una herramienta de código abierto y la principal herramienta de planificación para agentes de IA. Convierte una única declaración de objetivos en inglés sencillo en un plan estratégico de 40 páginas en unos 15 minutos utilizando modelos locales o en la nube. Es un acelerador para esquemas, pero no una solución mágica para planes pulidos.

El resultado típico contiene:

  • Resumen ejecutivo

  • Diagrama de Gantt

  • Estructura de gobernanza

  • Descripciones de roles

  • Mapas de partes interesadas

  • Registros de riesgos

  • Análisis DAFO

PlanExe produce resultados bien estructurados y conscientes del dominio: terminología correcta, secuenciación lógica de tareas y secciones coherentes. Para temas técnicos (programas de ingeniería, industrias reguladas), a menudo acierta con el vocabulario y la estructura. Piénsalo como un andamio de primer borrador que te da algo concreto para criticar y refinar.

Sin embargo, el resultado tiene debilidades consistentes que importan: los presupuestos se asumen en lugar de derivarse, las estimaciones de cronograma no se basan en restricciones de recursos reales, las mitigaciones de riesgos tienden a ser consejos genéricos y los detalles legales/regulatorios suenan plausibles pero no están verificados. El resultado debe tratarse como un punto de partida estructurado, no como un entregable. Cuánto trabajo ahorra depende mucho del proyecto. Para una lluvia de ideas o un primer esquema, puede ahorrar horas. Para un plan listo para el cliente, espera una reelaboración significativa en cada número, cronograma y sección de riesgos.


Protocolo de Contexto de Modelo (MCP)

PlanExe expone un servidor MCP para agentes de IA en https://mcp.planexe.org/

Suponiendo que tienes un cliente compatible con MCP (Claude, Cursor, Codex, LM Studio, Windsurf, OpenClaw, Antigravity).

El flujo de trabajo de la herramienta

  1. example_plans (opcional, vista previa de cómo se ve el resultado de PlanExe)

  2. example_prompts

  3. model_profiles (opcional, ayuda a elegir model_profile)

  4. paso sin herramienta: redactar/aprobar prompt

  5. plan_create

  6. plan_status (consultar cada 5 minutos hasta que termine)

  7. opcional si falla: plan_retry

  8. descarga el resultado a través de plan_file_info

Nota sobre concurrencia: cada llamada a plan_create devuelve un nuevo plan_id; la concurrencia global por cliente en el lado del servidor no está limitada, por lo que los clientes deben realizar un seguimiento de sus propios planes paralelos.

Opción A: MCP remoto (la ruta más rápida)

Requisitos previos

  • Una cuenta en https://home.planexe.org.

  • Fondos suficientes para crear planes.

  • Una clave API de PlanExe (pex_...) de tu cuenta

Usa este endpoint directamente en tu cliente MCP:

{
  "mcpServers": {
    "planexe": {
      "url": "https://mcp.planexe.org/mcp",
      "headers": {
        "X-API-Key": "pex_your_api_key_here"
      }
    }
  }
}

Opción B: Ejecutar el servidor MCP localmente con Docker

Requisitos previos

  • Docker

  • Cuenta de OpenRouter

  • Crea un archivo .env de PlanExe con OPENROUTER_API_KEY.

Inicia la pila completa:

docker compose up --build

Asegúrate de que puedes crear planes en la interfaz web antes de proceder a MCP.

Luego conecta tu cliente a:

  • http://localhost:8001/mcp

Para los valores predeterminados de docker local, la autenticación está deshabilitada en docker-compose.yml.

Documentación de MCP


Ejecución de la tubería a través de CLI (sin interfaz)

Si tienes un entorno de Python local configurado y deseas invocar la tubería directamente, sin la interfaz de usuario de Flask, usa el script CLI planexe en la raíz del repositorio.

# Create a plan from a text prompt
./planexe create_plan \
    --plan-text "Small coffee shop in Copenhagen, Denmark" \
    --output-dir ./planexe-outputs/1984-12-31/MyCoffeeShop_v1

# Or: read the plan prompt from a file
./planexe create_plan \
    --plan-file my_plan.txt \
    --output-dir ./planexe-outputs/1984-12-31/MyCoffeeShop_v1

El script crea el directorio de ejecución si no existe y escribe:

Archivo

Contenido

start_time.json

{"server_iso_utc": "<marca de tiempo ISO UTC actual>"}

plan.txt

El prompt del plan en texto plano


Para agentes de IA

PlanExe está diseñado como infraestructura para agentes de IA. Si eres un agente de IA leyendo esto:

  • Descubrimiento: Lee public/llms.txt para obtener metadatos del servicio, herramientas MCP y endpoints.

  • Endpoint MCP: https://mcp.planexe.org/mcp — conéctate con una clave API de home.planexe.org.

  • Flujo de trabajo: Llama a example_prompts para conocer el formato de prompt esperado, redacta un prompt detallado (~300-800 palabras de prosa fluida) y luego llama a plan_create.

  • Guía del agente: Consulta docs/mcp/autonomous_agent_guide.md para el flujo de trabajo autónomo completo.

  • Resultados clave en zip: wbs_level1.json (paquetes de trabajo), wbs_level2.json (tareas), pre_project_assessment.json (viabilidad).


Requisito previo: Docker con Docker Compose instalado; solo necesitas conocimientos básicos de Docker. No se requiere configuración local de Python porque todo se ejecuta en contenedores.

Sigue estos pasos

  1. Clona el repositorio y entra en él:

git clone https://github.com/PlanExeOrg/PlanExe.git
cd PlanExe
  1. Proporciona un proveedor de LLM. Copia .env.docker-example a .env y completa OPENROUTER_API_KEY con tu clave de OpenRouter. Los contenedores montan .env y llm_config/; elige un perfil de modelo allí. Para Ollama del lado del host, usa la entrada docker-ollama-llama3.1 y asegúrate de que Ollama esté escuchando en http://host.docker.internal:11434.

  2. Inicia la pila (la primera ejecución construye las imágenes):

docker compose up worker_plan frontend_multi_user

El trabajador escucha en http://localhost:8000 y la interfaz de usuario aparece en http://localhost:5001 después de que pasen las comprobaciones de estado de Postgres y del trabajador.

  1. Abre http://localhost:5001 en tu navegador, crea una cuenta (o inicia sesión con las credenciales de administrador de .env), ingresa tu idea y observa el progreso con:

docker compose logs -f worker_plan

Los resultados se escriben en run/ en el host (montado en ambos contenedores).

  1. Detén con Ctrl+C (o docker compose down). Reconstruye después de cambios en el código/dependencias:

docker compose build --no-cache worker_plan frontend_multi_user

Para consejos de composición, puertos alternativos o solución de problemas, consulta docs/docker.md o docker-compose.md.

Configuración

Configuración A: Ejecuta un modelo en la nube utilizando un proveedor de pago. Sigue las instrucciones en OpenRouter.

Configuración B: Ejecuta modelos localmente en una computadora de gama alta. Sigue las instrucciones para Ollama o LM Studio. Cuando utilices herramientas del lado del host con Docker, apunta la URL del modelo al host (por ejemplo, http://host.docker.internal:11434 para Ollama).

Recomendación: Recomiendo la Configuración A ya que ofrece la ruta más directa para que PlanExe funcione de manera confiable.


Para ayuda o comentarios.

Únete al Discord de PlanExe.

A
license - permissive license
-
quality - not tested
B
maintenance

Maintenance

Maintainers
<1hResponse time
Release cycle
Releases (12mo)
Issues opened vs closed

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/PlanExeOrg/PlanExe'

If you have feedback or need assistance with the MCP directory API, please join our Discord server