Skip to main content
Glama
chernistry

Bernstein - Multi-agent orchestration

Orchestrieren Sie jeden KI-Coding-Agenten. Jedes Modell. Ein Befehl.

CI codecov PyPI npm VS Marketplace Python 3.12+ License MCP Compatible A2A Compatible

Dokumentation · Erste Schritte · Glossar · Einschränkungen

Wall of Fame

"lol, viel Glück, codet weiter euren Kram, von dem ihr keine Ahnung habt xD"PeaceFirePL, Reddit


Bernstein nimmt ein Ziel entgegen, unterteilt es in Aufgaben, weist diese parallel laufenden KI-Coding-Agenten zu, überprüft die Ausgabe und führt die Ergebnisse zusammen. Sie erhalten funktionierenden Code, bestandene Tests und eine saubere Git-Historie zurück.

Kein Framework, das man lernen muss. Kein Vendor-Lock-in. Agenten sind austauschbare Mitarbeiter – tauschen Sie jeden Agenten, jedes Modell und jeden Anbieter aus. Der Orchestrator selbst ist deterministischer Python-Code. Null LLM-Token für die Planung.

pip install bernstein
bernstein -g "Add JWT auth with refresh tokens, tests, and API docs"

Auch verfügbar über pipx, uv tool install, brew, dnf copr und npx bernstein-orchestrator. Siehe Installationsoptionen.

Unterstützte Agenten

Bernstein erkennt installierte CLI-Agenten automatisch. Kombinieren Sie diese in einem Durchlauf – günstige lokale Modelle für Boilerplate, leistungsstarke Cloud-Modelle für die Architektur.

Agent

Modelle

Installation

Claude Code

opus 4.6, sonnet 4.6, haiku 4.5

npm install -g @anthropic-ai/claude-code

Codex CLI

gpt-5.4, o3, o4-mini

npm install -g @openai/codex

Gemini CLI

gemini-3-pro, 3-flash

npm install -g @google/gemini-cli

Cursor

sonnet 4.6, opus 4.6, gpt-5.4

Cursor App

Aider

Jedes OpenAI/Anthropic-kompatible

pip install aider-chat

Ollama + Aider

Lokale Modelle (offline)

brew install ollama

Amp, Cody, Continue.dev, Goose, Kilo, Kiro, OpenCode, Qwen, Roo Code, Tabby

Verschiedene

Siehe Doku

Generisch

Jedes CLI mit --prompt

Integriert

TIP

Führen Siebernstein --headless für CI-Pipelines aus – keine TUI, strukturierte JSON-Ausgabe, Exit-Code ungleich Null bei Fehlern.

Schnellstart

cd your-project
bernstein init                    # creates .sdd/ workspace + bernstein.yaml
bernstein -g "Add rate limiting"  # agents spawn, work in parallel, verify, exit
bernstein live                    # watch progress in the TUI dashboard
bernstein stop                    # graceful shutdown with drain

Für mehrstufige Projekte definieren Sie einen YAML-Plan:

bernstein run plan.yaml           # skips LLM planning, goes straight to execution
bernstein run --dry-run plan.yaml # preview tasks and estimated cost

Funktionsweise

  1. Dekomposition – der Manager unterteilt Ihr Ziel in Aufgaben mit Rollen, zugehörigen Dateien und Abschluss-Signalen.

  2. Spawn – Agenten starten in isolierten Git-Worktrees, einer pro Aufgabe. Der Haupt-Branch bleibt sauber.

  3. Verifizierung – der Hausmeister (Janitor) prüft konkrete Signale: Tests bestanden, Dateien vorhanden, Linting sauber, Typen korrekt.

  4. Merge – verifizierte Arbeit landet im Haupt-Branch. Fehlgeschlagene Aufgaben werden erneut versucht oder an ein anderes Modell weitergeleitet.

Der Orchestrator ist ein Python-Scheduler, keine LLM. Planungsentscheidungen sind deterministisch, prüfbar und reproduzierbar.

Fähigkeiten

Kern-Orchestrierung – parallele Ausführung, Git-Worktree-Isolierung, Janitor-Verifizierung, Qualitäts-Gates (Lint + Typen + PII-Scan), modellübergreifende Code-Reviews, Schutzschalter für fehlerhafte Agenten, Überwachung des Token-Wachstums mit automatischer Intervention.

Intelligenz – Contextual Bandit Router lernt im Laufe der Zeit optimale Modell/Aufwand-Paare. Wissensgraph für die Analyse der Auswirkungen auf die Codebasis. Semantisches Caching spart Token bei wiederholten Mustern. Kostenanomalie-Erkennung mit Z-Score-Markierung.

Enterprise – HMAC-verkettete, manipulationssichere Audit-Logs. Richtlinienbeschränkungen mit Fail-Open-Standardeinstellungen und Multi-Tenant-Isolierung. PII-Ausgabefilterung. OAuth 2.0 PKCE. SSO/SAML/OIDC-Authentifizierung. WAL-Absturzwiederherstellung – kein stiller Datenverlust.

Observability – Prometheus /metrics, OTel-Exporter-Presets, Grafana-Dashboards. Modellbasierte Kostenverfolgung (bernstein cost). Terminal-TUI und Web-Dashboard. Sichtbarkeit von Agenten-Prozessen in ps.

Ökosystem – MCP-Server-Modus, A2A-Protokollunterstützung, GitHub-App-Integration, Pluggy-basiertes Plugin-System, Multi-Repo-Workspaces, Cluster-Modus für verteilte Ausführung, Selbstevolution via --evolve.

Vollständige Funktionsmatrix: FEATURE_MATRIX.md

Vergleich

Bernstein

CrewAI

AutoGen

LangGraph

Orchestrator

Deterministischer Code

LLM-gesteuert

LLM-gesteuert

Graph + LLM

Funktioniert mit

Jedem CLI-Agenten (18+)

Python SDK Klassen

Python-Agenten

LangChain Nodes

Git-Isolierung

Worktrees pro Agent

Nein

Nein

Nein

Verifizierung

Janitor + Quality Gates

Nein

Nein

Bedingte Kanten

Kostenverfolgung

Integriert

Nein

Nein

Nein

Zustandsmodell

Dateibasiert (.sdd/)

Im Arbeitsspeicher

Im Arbeitsspeicher

Checkpointer

Selbstevolution

Integriert

Nein

Nein

Nein

Vollständige Vergleichsseiten mit detaillierten Funktionsmatrizen.

Überwachung

bernstein live       # TUI dashboard
bernstein dashboard  # web dashboard
bernstein status     # task summary
bernstein ps         # running agents
bernstein cost       # spend by model/task
bernstein doctor     # pre-flight checks
bernstein recap      # post-run summary
bernstein trace <ID> # agent decision trace
bernstein explain <cmd>  # detailed help with examples
bernstein dry-run    # preview tasks without executing
bernstein aliases    # show command shortcuts
bernstein config-path    # show config file locations
bernstein init-wizard    # interactive project setup

Installation

Methode

Befehl

pip

pip install bernstein

pipx

pipx install bernstein

uv

uv tool install bernstein

Homebrew

brew tap chernistry/bernstein && brew install bernstein

Fedora / RHEL

sudo dnf copr enable alexchernysh/bernstein && sudo dnf install bernstein

npm (Wrapper)

npx bernstein-orchestrator

Editor-Erweiterungen: VS Marketplace · Open VSX

Mitwirken

PRs sind willkommen. Siehe CONTRIBUTING.md für Setup und Code-Stil.

Support

Wenn Bernstein Ihnen Zeit spart: GitHub Sponsors · Open Collective

Lizenz

Apache License 2.0

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/chernistry/bernstein'

If you have feedback or need assistance with the MCP directory API, please join our Discord server