Bernstein - Multi-agent orchestration
Orchestrieren Sie jeden KI-Coding-Agenten. Jedes Modell. Ein Befehl.
Dokumentation · Erste Schritte · Glossar · Einschränkungen
Wall of Fame
"lol, viel Glück, codet weiter euren Kram, von dem ihr keine Ahnung habt xD" — PeaceFirePL, Reddit
Bernstein nimmt ein Ziel entgegen, unterteilt es in Aufgaben, weist diese parallel laufenden KI-Coding-Agenten zu, überprüft die Ausgabe und führt die Ergebnisse zusammen. Sie erhalten funktionierenden Code, bestandene Tests und eine saubere Git-Historie zurück.
Kein Framework, das man lernen muss. Kein Vendor-Lock-in. Agenten sind austauschbare Mitarbeiter – tauschen Sie jeden Agenten, jedes Modell und jeden Anbieter aus. Der Orchestrator selbst ist deterministischer Python-Code. Null LLM-Token für die Planung.
pip install bernstein
bernstein -g "Add JWT auth with refresh tokens, tests, and API docs"Auch verfügbar über pipx, uv tool install, brew, dnf copr und npx bernstein-orchestrator. Siehe Installationsoptionen.
Unterstützte Agenten
Bernstein erkennt installierte CLI-Agenten automatisch. Kombinieren Sie diese in einem Durchlauf – günstige lokale Modelle für Boilerplate, leistungsstarke Cloud-Modelle für die Architektur.
Agent | Modelle | Installation |
opus 4.6, sonnet 4.6, haiku 4.5 |
| |
gpt-5.4, o3, o4-mini |
| |
gemini-3-pro, 3-flash |
| |
sonnet 4.6, opus 4.6, gpt-5.4 | ||
Jedes OpenAI/Anthropic-kompatible |
| |
Ollama + Aider | Lokale Modelle (offline) |
|
Amp, Cody, Continue.dev, Goose, Kilo, Kiro, OpenCode, Qwen, Roo Code, Tabby | Verschiedene | Siehe Doku |
Generisch | Jedes CLI mit | Integriert |
Führen Siebernstein --headless für CI-Pipelines aus – keine TUI, strukturierte JSON-Ausgabe, Exit-Code ungleich Null bei Fehlern.
Schnellstart
cd your-project
bernstein init # creates .sdd/ workspace + bernstein.yaml
bernstein -g "Add rate limiting" # agents spawn, work in parallel, verify, exit
bernstein live # watch progress in the TUI dashboard
bernstein stop # graceful shutdown with drainFür mehrstufige Projekte definieren Sie einen YAML-Plan:
bernstein run plan.yaml # skips LLM planning, goes straight to execution
bernstein run --dry-run plan.yaml # preview tasks and estimated costFunktionsweise
Dekomposition – der Manager unterteilt Ihr Ziel in Aufgaben mit Rollen, zugehörigen Dateien und Abschluss-Signalen.
Spawn – Agenten starten in isolierten Git-Worktrees, einer pro Aufgabe. Der Haupt-Branch bleibt sauber.
Verifizierung – der Hausmeister (Janitor) prüft konkrete Signale: Tests bestanden, Dateien vorhanden, Linting sauber, Typen korrekt.
Merge – verifizierte Arbeit landet im Haupt-Branch. Fehlgeschlagene Aufgaben werden erneut versucht oder an ein anderes Modell weitergeleitet.
Der Orchestrator ist ein Python-Scheduler, keine LLM. Planungsentscheidungen sind deterministisch, prüfbar und reproduzierbar.
Fähigkeiten
Kern-Orchestrierung – parallele Ausführung, Git-Worktree-Isolierung, Janitor-Verifizierung, Qualitäts-Gates (Lint + Typen + PII-Scan), modellübergreifende Code-Reviews, Schutzschalter für fehlerhafte Agenten, Überwachung des Token-Wachstums mit automatischer Intervention.
Intelligenz – Contextual Bandit Router lernt im Laufe der Zeit optimale Modell/Aufwand-Paare. Wissensgraph für die Analyse der Auswirkungen auf die Codebasis. Semantisches Caching spart Token bei wiederholten Mustern. Kostenanomalie-Erkennung mit Z-Score-Markierung.
Enterprise – HMAC-verkettete, manipulationssichere Audit-Logs. Richtlinienbeschränkungen mit Fail-Open-Standardeinstellungen und Multi-Tenant-Isolierung. PII-Ausgabefilterung. OAuth 2.0 PKCE. SSO/SAML/OIDC-Authentifizierung. WAL-Absturzwiederherstellung – kein stiller Datenverlust.
Observability – Prometheus /metrics, OTel-Exporter-Presets, Grafana-Dashboards. Modellbasierte Kostenverfolgung (bernstein cost). Terminal-TUI und Web-Dashboard. Sichtbarkeit von Agenten-Prozessen in ps.
Ökosystem – MCP-Server-Modus, A2A-Protokollunterstützung, GitHub-App-Integration, Pluggy-basiertes Plugin-System, Multi-Repo-Workspaces, Cluster-Modus für verteilte Ausführung, Selbstevolution via --evolve.
Vollständige Funktionsmatrix: FEATURE_MATRIX.md
Vergleich
Bernstein | CrewAI | AutoGen | LangGraph | |
Orchestrator | Deterministischer Code | LLM-gesteuert | LLM-gesteuert | Graph + LLM |
Funktioniert mit | Jedem CLI-Agenten (18+) | Python SDK Klassen | Python-Agenten | LangChain Nodes |
Git-Isolierung | Worktrees pro Agent | Nein | Nein | Nein |
Verifizierung | Janitor + Quality Gates | Nein | Nein | Bedingte Kanten |
Kostenverfolgung | Integriert | Nein | Nein | Nein |
Zustandsmodell | Dateibasiert (.sdd/) | Im Arbeitsspeicher | Im Arbeitsspeicher | Checkpointer |
Selbstevolution | Integriert | Nein | Nein | Nein |
Vollständige Vergleichsseiten mit detaillierten Funktionsmatrizen.
Überwachung
bernstein live # TUI dashboard
bernstein dashboard # web dashboard
bernstein status # task summary
bernstein ps # running agents
bernstein cost # spend by model/task
bernstein doctor # pre-flight checks
bernstein recap # post-run summary
bernstein trace <ID> # agent decision trace
bernstein explain <cmd> # detailed help with examples
bernstein dry-run # preview tasks without executing
bernstein aliases # show command shortcuts
bernstein config-path # show config file locations
bernstein init-wizard # interactive project setupInstallation
Methode | Befehl |
pip |
|
pipx |
|
uv |
|
Homebrew |
|
Fedora / RHEL |
|
npm (Wrapper) |
|
Editor-Erweiterungen: VS Marketplace · Open VSX
Mitwirken
PRs sind willkommen. Siehe CONTRIBUTING.md für Setup und Code-Stil.
Support
Wenn Bernstein Ihnen Zeit spart: GitHub Sponsors · Open Collective
Lizenz
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/chernistry/bernstein'
If you have feedback or need assistance with the MCP directory API, please join our Discord server