Bernstein - Multi-agent orchestration
모든 AI 코딩 에이전트를 오케스트레이션하세요. 어떤 모델이든. 단 하나의 명령어로.
명예의 전당
"ㅋㅋ 행운을 빈다, 잘 알지도 못하는 걸로 계속 바이브코딩이나 해라 xD" — PeaceFirePL, Reddit
Bernstein은 목표를 받아 작업을 분할하고, 병렬로 실행되는 AI 코딩 에이전트에 할당하며, 결과를 검증하고 병합합니다. 당신은 작동하는 코드, 통과하는 테스트, 깔끔한 git 기록을 얻게 됩니다.
배워야 할 프레임워크도, 특정 벤더에 종속될 일도 없습니다. 에이전트는 상호 교환 가능한 작업자이므로 어떤 에이전트, 어떤 모델, 어떤 제공업체든 자유롭게 교체할 수 있습니다. 오케스트레이터 자체는 결정론적인 Python 코드로 작성되었습니다. 스케줄링 시 LLM 토큰을 전혀 사용하지 않습니다.
pip install bernstein
bernstein -g "Add JWT auth with refresh tokens, tests, and API docs"pipx, uv tool install, brew, dnf copr, npx bernstein-orchestrator를 통해서도 사용할 수 있습니다. 설치 옵션을 참조하세요.
지원되는 에이전트
Bernstein은 설치된 CLI 에이전트를 자동으로 검색합니다. 동일한 실행 내에서 이들을 혼합하여 사용할 수 있습니다. 보일러플레이트 코드에는 저렴한 로컬 모델을, 아키텍처 설계에는 강력한 클라우드 모델을 사용하세요.
에이전트 | 모델 | 설치 |
opus 4.6, sonnet 4.6, haiku 4.5 |
| |
gpt-5.4, o3, o4-mini |
| |
gemini-3-pro, 3-flash |
| |
sonnet 4.6, opus 4.6, gpt-5.4 | ||
모든 OpenAI/Anthropic 호환 모델 |
| |
Ollama + Aider | 로컬 모델 (오프라인) |
|
Amp, Cody, Continue.dev, Goose, Kilo, Kiro, OpenCode, Qwen, Roo Code, Tabby | 다양함 | 문서 참조 |
일반(Generic) |
| 내장 |
CI 파이프라인의 경우bernstein --headless를 실행하세요. TUI가 표시되지 않으며, 구조화된 JSON 출력을 제공하고 실패 시 0이 아닌 종료 코드를 반환합니다.
빠른 시작
cd your-project
bernstein init # creates .sdd/ workspace + bernstein.yaml
bernstein -g "Add rate limiting" # agents spawn, work in parallel, verify, exit
bernstein live # watch progress in the TUI dashboard
bernstein stop # graceful shutdown with drain다단계 프로젝트의 경우 YAML 계획을 정의하세요:
bernstein run plan.yaml # skips LLM planning, goes straight to execution
bernstein run --dry-run plan.yaml # preview tasks and estimated cost작동 원리
분해(Decompose) — 관리자가 목표를 역할, 소유 파일, 완료 신호가 포함된 작업으로 분할합니다.
생성(Spawn) — 에이전트가 작업당 하나씩 격리된 git 작업 트리에서 시작됩니다. 메인 브랜치는 깨끗하게 유지됩니다.
검증(Verify) — 관리자(janitor)가 구체적인 신호(테스트 통과, 파일 존재 여부, 린트 통과, 타입 정확성 등)를 확인합니다.
병합(Merge) — 검증된 작업이 메인 브랜치에 반영됩니다. 실패한 작업은 재시도되거나 다른 모델로 라우팅됩니다.
오케스트레이터는 LLM이 아닌 Python 스케줄러입니다. 스케줄링 결정은 결정론적이며, 감사 가능하고 재현 가능합니다.
기능
핵심 오케스트레이션 — 병렬 실행, git 작업 트리 격리, 관리자 검증, 품질 게이트(린트 + 타입 + PII 스캔), 모델 간 코드 리뷰, 오작동 에이전트에 대한 회로 차단기, 자동 개입을 포함한 토큰 증가 모니터링.
지능형 기능 — 문맥적 밴딧 라우터가 시간이 지남에 따라 최적의 모델/노력 조합을 학습합니다. 코드베이스 영향 분석을 위한 지식 그래프. 의미론적 캐싱으로 반복 패턴에서 토큰을 절약합니다. Z-점수 플래깅을 통한 비용 이상 탐지.
엔터프라이즈 — HMAC 체인 방식의 변조 방지 감사 로그. 실패 시 개방(fail-open) 기본값 및 멀티 테넌트 격리를 포함한 정책 제한. PII 출력 게이팅. OAuth 2.0 PKCE. SSO/SAML/OIDC 인증. WAL 충돌 복구 — 데이터 손실 방지.
관측 가능성 — Prometheus /metrics, OTel 익스포터 프리셋, Grafana 대시보드. 모델별 비용 추적 (bernstein cost). 터미널 TUI 및 웹 대시보드. ps에서 에이전트 프로세스 가시성 확인.
생태계 — MCP 서버 모드, A2A 프로토콜 지원, GitHub 앱 통합, pluggy 기반 플러그인 시스템, 멀티 리포지토리 워크스페이스, 분산 실행을 위한 클러스터 모드, --evolve를 통한 자가 진화.
전체 기능 매트릭스: FEATURE_MATRIX.md
비교
Bernstein | CrewAI | AutoGen | LangGraph | |
오케스트레이터 | 결정론적 코드 | LLM 기반 | LLM 기반 | 그래프 + LLM |
호환성 | 모든 CLI 에이전트 (18개 이상) | Python SDK 클래스 | Python 에이전트 | LangChain 노드 |
Git 격리 | 에이전트당 작업 트리 | 없음 | 없음 | 없음 |
검증 | 관리자 + 품질 게이트 | 없음 | 없음 | 조건부 엣지 |
비용 추적 | 내장 | 없음 | 없음 | 없음 |
상태 모델 | 파일 기반 (.sdd/) | 메모리 내 | 메모리 내 | 체크포인터 |
자가 진화 | 내장 | 없음 | 없음 | 없음 |
상세한 기능 매트릭스가 포함된 전체 비교 페이지를 확인하세요.
모니터링
bernstein live # TUI dashboard
bernstein dashboard # web dashboard
bernstein status # task summary
bernstein ps # running agents
bernstein cost # spend by model/task
bernstein doctor # pre-flight checks
bernstein recap # post-run summary
bernstein trace <ID> # agent decision trace
bernstein explain <cmd> # detailed help with examples
bernstein dry-run # preview tasks without executing
bernstein aliases # show command shortcuts
bernstein config-path # show config file locations
bernstein init-wizard # interactive project setup설치
방법 | 명령어 |
pip |
|
pipx |
|
uv |
|
Homebrew |
|
Fedora / RHEL |
|
npm (래퍼) |
|
에디터 확장 프로그램: VS Marketplace · Open VSX
기여
PR을 환영합니다. 설정 및 코드 스타일은 CONTRIBUTING.md를 참조하세요.
지원
Bernstein이 시간을 절약해 주었다면: GitHub Sponsors · Open Collective
라이선스
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/chernistry/bernstein'
If you have feedback or need assistance with the MCP directory API, please join our Discord server