PlanExe
OfficialEjemplos de planes generados con PlanExe
Un plan de negocio para una sala de escape temática de Minecraft.
Un plan de negocio para una empresa de fabricación de jaulas de Faraday.
Un proyecto piloto para un servicio de humanos como servicio.
Ver más ejemplos aquí.
¿Qué es PlanExe?
PlanExe es una herramienta de código abierto y la principal herramienta de planificación para agentes de IA. Convierte una única declaración de objetivos en inglés sencillo en un plan estratégico de 40 páginas en unos 15 minutos utilizando modelos locales o en la nube. Es un acelerador para esquemas, pero no una solución mágica para planes pulidos.
El resultado típico contiene:
Resumen ejecutivo
Diagrama de Gantt
Estructura de gobernanza
Descripciones de roles
Mapas de partes interesadas
Registros de riesgos
Análisis DAFO
PlanExe produce resultados bien estructurados y conscientes del dominio: terminología correcta, secuenciación lógica de tareas y secciones coherentes. Para temas técnicos (programas de ingeniería, industrias reguladas), a menudo acierta con el vocabulario y la estructura. Piénsalo como un andamio de primer borrador que te da algo concreto para criticar y refinar.
Sin embargo, el resultado tiene debilidades consistentes que importan: los presupuestos se asumen en lugar de derivarse, las estimaciones de cronograma no se basan en restricciones de recursos reales, las mitigaciones de riesgos tienden a ser consejos genéricos y los detalles legales/regulatorios suenan plausibles pero no están verificados. El resultado debe tratarse como un punto de partida estructurado, no como un entregable. Cuánto trabajo ahorra depende mucho del proyecto. Para una lluvia de ideas o un primer esquema, puede ahorrar horas. Para un plan listo para el cliente, espera una reelaboración significativa en cada número, cronograma y sección de riesgos.
Protocolo de Contexto de Modelo (MCP)
PlanExe expone un servidor MCP para agentes de IA en https://mcp.planexe.org/
Suponiendo que tienes un cliente compatible con MCP (Claude, Cursor, Codex, LM Studio, Windsurf, OpenClaw, Antigravity).
El flujo de trabajo de la herramienta
example_plans(opcional, vista previa de cómo se ve el resultado de PlanExe)example_promptsmodel_profiles(opcional, ayuda a elegirmodel_profile)paso sin herramienta: redactar/aprobar prompt
plan_createplan_status(consultar cada 5 minutos hasta que termine)opcional si falla:
plan_retrydescarga el resultado a través de
plan_file_info
Nota sobre concurrencia: cada llamada a plan_create devuelve un nuevo plan_id; la concurrencia global por cliente en el lado del servidor no está limitada, por lo que los clientes deben realizar un seguimiento de sus propios planes paralelos.
Opción A: MCP remoto (la ruta más rápida)
Requisitos previos
Una cuenta en https://home.planexe.org.
Fondos suficientes para crear planes.
Una clave API de PlanExe (
pex_...) de tu cuenta
Usa este endpoint directamente en tu cliente MCP:
{
"mcpServers": {
"planexe": {
"url": "https://mcp.planexe.org/mcp",
"headers": {
"X-API-Key": "pex_your_api_key_here"
}
}
}
}Opción B: Ejecutar el servidor MCP localmente con Docker
Requisitos previos
Docker
Cuenta de OpenRouter
Crea un archivo
.envde PlanExe conOPENROUTER_API_KEY.
Inicia la pila completa:
docker compose up --buildAsegúrate de que puedes crear planes en la interfaz web antes de proceder a MCP.
Luego conecta tu cliente a:
http://localhost:8001/mcp
Para los valores predeterminados de docker local, la autenticación está deshabilitada en docker-compose.yml.
Documentación de MCP
Descripción general de la configuración: https://docs.planexe.org/mcp/mcp_setup/
Detalles y flujo de la herramienta: https://docs.planexe.org/mcp/mcp_details/
Interfaz MCP de PlanExe: https://docs.planexe.org/mcp/planexe_mcp_interface/
Metadatos de publicación del registro MCP (
server.json):mcp_cloud/server.jsonllms.txt: https://mcp.planexe.org/llms.txt
Ejecución de la tubería a través de CLI (sin interfaz)
Si tienes un entorno de Python local configurado y deseas invocar la tubería
directamente, sin la interfaz de usuario de Flask, usa el script CLI planexe en
la raíz del repositorio.
# Create a plan from a text prompt
./planexe create_plan \
--plan-text "Small coffee shop in Copenhagen, Denmark" \
--output-dir ./planexe-outputs/1984-12-31/MyCoffeeShop_v1
# Or: read the plan prompt from a file
./planexe create_plan \
--plan-file my_plan.txt \
--output-dir ./planexe-outputs/1984-12-31/MyCoffeeShop_v1El script crea el directorio de ejecución si no existe y escribe:
Archivo | Contenido |
|
|
| El prompt del plan en texto plano |
Para agentes de IA
PlanExe está diseñado como infraestructura para agentes de IA. Si eres un agente de IA leyendo esto:
Descubrimiento: Lee
public/llms.txtpara obtener metadatos del servicio, herramientas MCP y endpoints.Endpoint MCP:
https://mcp.planexe.org/mcp— conéctate con una clave API de home.planexe.org.Flujo de trabajo: Llama a
example_promptspara conocer el formato de prompt esperado, redacta un prompt detallado (~300-800 palabras de prosa fluida) y luego llama aplan_create.Guía del agente: Consulta
docs/mcp/autonomous_agent_guide.mdpara el flujo de trabajo autónomo completo.Resultados clave en zip:
wbs_level1.json(paquetes de trabajo),wbs_level2.json(tareas),pre_project_assessment.json(viabilidad).
Requisito previo: Docker con Docker Compose instalado; solo necesitas conocimientos básicos de Docker. No se requiere configuración local de Python porque todo se ejecuta en contenedores.
Sigue estos pasos
Clona el repositorio y entra en él:
git clone https://github.com/PlanExeOrg/PlanExe.git
cd PlanExeProporciona un proveedor de LLM. Copia
.env.docker-examplea.envy completaOPENROUTER_API_KEYcon tu clave de OpenRouter. Los contenedores montan.envyllm_config/; elige un perfil de modelo allí. Para Ollama del lado del host, usa la entradadocker-ollama-llama3.1y asegúrate de que Ollama esté escuchando enhttp://host.docker.internal:11434.Inicia la pila (la primera ejecución construye las imágenes):
docker compose up worker_plan frontend_multi_userEl trabajador escucha en http://localhost:8000 y la interfaz de usuario aparece en http://localhost:5001 después de que pasen las comprobaciones de estado de Postgres y del trabajador.
Abre http://localhost:5001 en tu navegador, crea una cuenta (o inicia sesión con las credenciales de administrador de
.env), ingresa tu idea y observa el progreso con:
docker compose logs -f worker_planLos resultados se escriben en run/ en el host (montado en ambos contenedores).
Detén con
Ctrl+C(odocker compose down). Reconstruye después de cambios en el código/dependencias:
docker compose build --no-cache worker_plan frontend_multi_userPara consejos de composición, puertos alternativos o solución de problemas, consulta docs/docker.md o docker-compose.md.
Configuración
Configuración A: Ejecuta un modelo en la nube utilizando un proveedor de pago. Sigue las instrucciones en OpenRouter.
Configuración B: Ejecuta modelos localmente en una computadora de gama alta. Sigue las instrucciones para Ollama o LM Studio. Cuando utilices herramientas del lado del host con Docker, apunta la URL del modelo al host (por ejemplo, http://host.docker.internal:11434 para Ollama).
Recomendación: Recomiendo la Configuración A ya que ofrece la ruta más directa para que PlanExe funcione de manera confiable.
Para ayuda o comentarios.
Únete al Discord de PlanExe.
This server cannot be installed
Maintenance
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/PlanExeOrg/PlanExe'
If you have feedback or need assistance with the MCP directory API, please join our Discord server