Bernstein - Multi-agent orchestration
编排任何 AI 编码智能体。任何模型。一条命令。
名人堂
“哈哈,祝你好运,继续去搞那些你根本不懂的 vibecoding 玩意儿吧 xD” — PeaceFirePL, Reddit
Bernstein 接收一个目标,将其分解为多个任务,分配给并行运行的 AI 编码智能体,验证输出,并合并结果。你最终得到的是可运行的代码、通过的测试以及整洁的 git 提交历史。
无需学习框架。没有供应商锁定。智能体是可互换的工人——可以随意更换任何智能体、任何模型、任何提供商。编排器本身是确定性的 Python 代码。调度时零 LLM token 消耗。
pip install bernstein
bernstein -g "Add JWT auth with refresh tokens, tests, and API docs"也可通过 pipx、uv tool install、brew、dnf copr 和 npx bernstein-orchestrator 获取。请参阅 安装选项。
支持的智能体
Bernstein 会自动发现已安装的 CLI 智能体。在同一次运行中混合使用它们——用廉价的本地模型处理样板代码,用强大的云端模型处理架构设计。
智能体 | 模型 | 安装 |
opus 4.6, sonnet 4.6, haiku 4.5 |
| |
gpt-5.4, o3, o4-mini |
| |
gemini-3-pro, 3-flash |
| |
sonnet 4.6, opus 4.6, gpt-5.4 | ||
任何兼容 OpenAI/Anthropic 的模型 |
| |
Ollama + Aider | 本地模型 (离线) |
|
Amp, Cody, Continue.dev, Goose, Kilo, Kiro, OpenCode, Qwen, Roo Code, Tabby | 各种 | 参见文档 |
通用 | 任何带有 | 内置 |
在 CI 流水线中运行bernstein --headless — 无 TUI,结构化 JSON 输出,失败时返回非零退出码。
快速开始
cd your-project
bernstein init # creates .sdd/ workspace + bernstein.yaml
bernstein -g "Add rate limiting" # agents spawn, work in parallel, verify, exit
bernstein live # watch progress in the TUI dashboard
bernstein stop # graceful shutdown with drain对于多阶段项目,定义一个 YAML 计划:
bernstein run plan.yaml # skips LLM planning, goes straight to execution
bernstein run --dry-run plan.yaml # preview tasks and estimated cost工作原理
分解 — 管理器将你的目标分解为带有角色、所属文件和完成信号的任务。
生成 — 智能体在隔离的 git 工作树中启动,每个任务一个。主分支保持整洁。
验证 — 清理程序检查具体信号:测试通过、文件存在、lint 清洁、类型正确。
合并 — 验证后的工作合并到主分支。失败的任务会被重试或路由到不同的模型。
编排器是一个 Python 调度器,而不是 LLM。调度决策是确定性的、可审计且可复现的。
功能特性
核心编排 — 并行执行、git 工作树隔离、清理程序验证、质量门禁(lint + 类型 + PII 扫描)、跨模型代码审查、针对异常智能体的断路器、带自动干预的 token 增长监控。
智能 — 上下文多臂老虎机路由,随时间学习最优的模型/工作量配对。用于代码库影响分析的知识图谱。语义缓存可在重复模式下节省 token。带 Z 分数标记的成本异常检测。
企业级 — HMAC 链式防篡改审计日志。带故障开放默认值和多租户隔离的策略限制。PII 输出门控。OAuth 2.0 PKCE。SSO/SAML/OIDC 认证。WAL 崩溃恢复 — 无静默数据丢失。
可观测性 — Prometheus /metrics,OTel 导出器预设,Grafana 仪表板。按模型成本跟踪 (bernstein cost)。终端 TUI 和 Web 仪表板。ps 中的智能体进程可见性。
生态系统 — MCP 服务器模式,A2A 协议支持,GitHub App 集成,基于 pluggy 的插件系统,多仓库工作区,用于分布式执行的集群模式,通过 --evolve 实现自我进化。
完整功能矩阵:FEATURE_MATRIX.md
对比
Bernstein | CrewAI | AutoGen | LangGraph | |
编排器 | 确定性代码 | LLM 驱动 | LLM 驱动 | 图 + LLM |
兼容性 | 任何 CLI 智能体 (18+) | Python SDK 类 | Python 智能体 | LangChain 节点 |
Git 隔离 | 每个智能体一个工作树 | 无 | 无 | 无 |
验证 | 清理程序 + 质量门禁 | 无 | 无 | 条件边 |
成本跟踪 | 内置 | 无 | 无 | 无 |
状态模型 | 基于文件 (.sdd/) | 内存中 | 内存中 | 检查点 |
自我进化 | 内置 | 无 | 无 | 无 |
完整对比页面 包含详细的功能矩阵。
监控
bernstein live # TUI dashboard
bernstein dashboard # web dashboard
bernstein status # task summary
bernstein ps # running agents
bernstein cost # spend by model/task
bernstein doctor # pre-flight checks
bernstein recap # post-run summary
bernstein trace <ID> # agent decision trace
bernstein explain <cmd> # detailed help with examples
bernstein dry-run # preview tasks without executing
bernstein aliases # show command shortcuts
bernstein config-path # show config file locations
bernstein init-wizard # interactive project setup安装
方法 | 命令 |
pip |
|
pipx |
|
uv |
|
Homebrew |
|
Fedora / RHEL |
|
npm (包装器) |
|
编辑器扩展:VS Marketplace · Open VSX
贡献
欢迎提交 PR。请参阅 CONTRIBUTING.md 了解设置和代码风格。
支持
如果 Bernstein 节省了你的时间:GitHub Sponsors · Open Collective
许可证
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/chernistry/bernstein'
If you have feedback or need assistance with the MCP directory API, please join our Discord server