PlanExe
OfficialPlanExe로 생성된 계획 예시
마인크래프트 테마 방탈출을 위한 사업 계획서.
패러데이 케이지 제조 회사를 위한 사업 계획서.
Human as-a Service를 위한 파일럿 프로젝트.
PlanExe란 무엇인가요?
PlanExe는 오픈 소스 도구이자 AI 에이전트를 위한 최고의 계획 도구입니다. 단일 평문 영어 목표 진술을 로컬 또는 클라우드 모델을 사용하여 약 15분 만에 40페이지 분량의 전략적 계획서로 변환합니다. 개요를 작성하는 데는 가속기 역할을 하지만, 완벽한 계획을 위한 만능 해결책은 아닙니다.
일반적인 출력물에는 다음이 포함됩니다:
요약 보고서
간트 차트
거버넌스 구조
역할 설명
이해관계자 지도
위험 등록부
SWOT 분석
PlanExe는 잘 구조화되고 도메인 지식을 갖춘 출력물을 생성합니다: 정확한 용어, 논리적인 작업 순서, 일관된 섹션 구성. 기술적인 주제(엔지니어링 프로그램, 규제 산업)의 경우, 종종 어휘와 구조를 정확하게 파악합니다. 이를 비판하고 다듬을 수 있는 구체적인 초안 틀로 생각하십시오.
하지만 출력물에는 중요한 일관된 약점이 있습니다: 예산은 도출된 것이 아니라 가정된 것이며, 일정 추정치는 실제 자원 제약에 근거하지 않고, 위험 완화 조치는 일반적인 조언에 그치는 경향이 있으며, 법적/규제적 세부 사항은 그럴듯해 보이지만 검증되지 않았습니다. 출력물은 결과물이 아닌 구조화된 시작점으로 취급해야 합니다. 얼마나 많은 작업이 절약되는지는 프로젝트에 따라 크게 다릅니다. 브레인스토밍이나 첫 개요 작성 시에는 몇 시간을 절약할 수 있습니다. 고객에게 바로 제출할 계획서라면 모든 숫자, 일정, 위험 섹션에 대해 상당한 수정 작업이 필요할 것입니다.
모델 컨텍스트 프로토콜 (MCP)
PlanExe는 https://mcp.planexe.org/에서 AI 에이전트를 위한 MCP 서버를 제공합니다.
MCP 호환 클라이언트(Claude, Cursor, Codex, LM Studio, Windsurf, OpenClaw, Antigravity)가 있다고 가정합니다.
도구 워크플로우
example_plans(선택 사항, PlanExe 출력물 미리보기)example_promptsmodel_profiles(선택 사항,model_profile선택 도움)비도구 단계: 프롬프트 초안 작성/승인
plan_createplan_status(완료될 때까지 5분마다 폴링)실패 시 선택 사항:
plan_retryplan_file_info를 통해 결과 다운로드
동시성 참고: 각 plan_create 호출은 새로운 plan_id를 반환합니다. 서버 측 클라이언트별 전역 동시성 제한은 없으므로, 클라이언트는 자체적인 병렬 계획을 추적해야 합니다.
옵션 A: 원격 MCP (가장 빠른 경로)
사전 요구 사항
계획을 생성할 충분한 자금.
계정에서 발급받은 PlanExe API 키 (
pex_...)
MCP 클라이언트에서 이 엔드포인트를 직접 사용하세요:
{
"mcpServers": {
"planexe": {
"url": "https://mcp.planexe.org/mcp",
"headers": {
"X-API-Key": "pex_your_api_key_here"
}
}
}
}옵션 B: Docker로 로컬에서 MCP 서버 실행
사전 요구 사항
Docker
OpenRouter 계정
OPENROUTER_API_KEY가 포함된 PlanExe.env파일 생성.
전체 스택 시작:
docker compose up --buildMCP로 진행하기 전에 웹 인터페이스에서 계획을 생성할 수 있는지 확인하십시오.
그런 다음 클라이언트를 다음에 연결하세요:
http://localhost:8001/mcp
로컬 docker 기본 설정의 경우, docker-compose.yml에서 인증이 비활성화되어 있습니다.
MCP 문서
도구 세부 정보 및 흐름: https://docs.planexe.org/mcp/mcp_details/
PlanExe MCP 인터페이스: https://docs.planexe.org/mcp/planexe_mcp_interface/
MCP 레지스트리 게시 메타데이터 (
server.json):mcp_cloud/server.jsonllms.txt: https://mcp.planexe.org/llms.txt
CLI를 통한 파이프라인 실행 (프론트엔드 없음)
로컬 Python 환경이 설정되어 있고 Flask UI 없이 파이프라인을 직접 호출하려면 저장소 루트에 있는 planexe CLI 스크립트를 사용하세요.
# Create a plan from a text prompt
./planexe create_plan \
--plan-text "Small coffee shop in Copenhagen, Denmark" \
--output-dir ./planexe-outputs/1984-12-31/MyCoffeeShop_v1
# Or: read the plan prompt from a file
./planexe create_plan \
--plan-file my_plan.txt \
--output-dir ./planexe-outputs/1984-12-31/MyCoffeeShop_v1이 스크립트는 실행 디렉토리가 없으면 생성하고 다음을 기록합니다:
파일 | 내용 |
|
|
| 일반 텍스트 계획 프롬프트 |
AI 에이전트를 위한 안내
PlanExe는 AI 에이전트를 위한 인프라로 설계되었습니다. 이 글을 읽는 AI 에이전트라면 다음을 참고하세요:
검색: 서비스 메타데이터, MCP 도구 및 엔드포인트는
public/llms.txt를 읽으세요.MCP 엔드포인트:
https://mcp.planexe.org/mcp— home.planexe.org에서 API 키를 받아 연결하세요.워크플로우:
example_prompts를 호출하여 예상되는 프롬프트 형식을 학습하고, 상세한 프롬프트(약 300-800단어의 흐르는 산문)를 작성한 후plan_create를 호출하세요.에이전트 가이드: 전체 자율 워크플로우는
docs/mcp/autonomous_agent_guide.md를 참조하세요.zip 파일 내 주요 출력물:
wbs_level1.json(작업 패키지),wbs_level2.json(작업),pre_project_assessment.json(타당성).
사전 요구 사항: Docker Compose가 설치된 Docker; 기본적인 Docker 지식만 있으면 됩니다. 모든 것이 컨테이너에서 실행되므로 로컬 Python 설정은 필요하지 않습니다.
다음 단계를 따르세요
저장소를 복제하고 진입합니다:
git clone https://github.com/PlanExeOrg/PlanExe.git
cd PlanExeLLM 제공자를 제공합니다.
.env.docker-example을.env로 복사하고 OpenRouter에서 받은 키로OPENROUTER_API_KEY를 채우세요. 컨테이너는.env와llm_config/를 마운트합니다. 거기서 모델 프로필을 선택하세요. 호스트 측 Ollama의 경우docker-ollama-llama3.1항목을 사용하고 Ollama가http://host.docker.internal:11434에서 수신 대기 중인지 확인하세요.스택을 시작합니다 (첫 실행 시 이미지를 빌드합니다):
docker compose up worker_plan frontend_multi_user워커는 http://localhost:8000에서 수신 대기하며, Postgres 및 워커 상태 확인이 통과되면 UI가 http://localhost:5001에 나타납니다.
브라우저에서 http://localhost:5001을 열고, 계정을 만들거나(또는
.env의 관리자 자격 증명으로 로그인), 아이디어를 입력하고 다음으로 진행 상황을 확인하세요:
docker compose logs -f worker_plan출력물은 호스트의 run/에 기록됩니다 (두 컨테이너 모두에 마운트됨).
Ctrl+C로 중지합니다 (또는docker compose down). 코드/종속성 변경 후 다시 빌드하려면:
docker compose build --no-cache worker_plan frontend_multi_userCompose 팁, 대체 포트 또는 문제 해결은 docs/docker.md 또는 docker-compose.md를 참조하세요.
구성
구성 A: 유료 제공자를 사용하여 클라우드에서 모델을 실행합니다. OpenRouter의 지침을 따르세요.
구성 B: 고성능 컴퓨터에서 로컬로 모델을 실행합니다. Ollama 또는 LM Studio에 대한 지침을 따르세요. Docker와 함께 호스트 측 도구를 사용할 때는 모델 URL을 호스트로 지정하세요 (예: Ollama의 경우 http://host.docker.internal:11434).
권장 사항: PlanExe를 안정적으로 작동시키는 가장 간단한 경로를 제공하는 구성 A를 권장합니다.
도움이나 피드백이 필요하시면,
PlanExe Discord에 참여하세요.
This server cannot be installed
Maintenance
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/PlanExeOrg/PlanExe'
If you have feedback or need assistance with the MCP directory API, please join our Discord server