Skip to main content
Glama
chernistry

Bernstein - Multi-agent orchestration

编排任何 AI 编码智能体。任何模型。一条命令。

CI codecov PyPI npm VS Marketplace Python 3.12+ License MCP Compatible A2A Compatible

文档 · 入门指南 · 术语表 · 局限性

名人堂

“哈哈,祝你好运,继续去搞那些你根本不懂的 vibecoding 玩意儿吧 xD”PeaceFirePL, Reddit


Bernstein 接收一个目标,将其分解为多个任务,分配给并行运行的 AI 编码智能体,验证输出,并合并结果。你最终得到的是可运行的代码、通过的测试以及整洁的 git 提交历史。

无需学习框架。没有供应商锁定。智能体是可互换的工人——可以随意更换任何智能体、任何模型、任何提供商。编排器本身是确定性的 Python 代码。调度时零 LLM token 消耗。

pip install bernstein
bernstein -g "Add JWT auth with refresh tokens, tests, and API docs"

也可通过 pipxuv tool installbrewdnf coprnpx bernstein-orchestrator 获取。请参阅 安装选项

支持的智能体

Bernstein 会自动发现已安装的 CLI 智能体。在同一次运行中混合使用它们——用廉价的本地模型处理样板代码,用强大的云端模型处理架构设计。

智能体

模型

安装

Claude Code

opus 4.6, sonnet 4.6, haiku 4.5

npm install -g @anthropic-ai/claude-code

Codex CLI

gpt-5.4, o3, o4-mini

npm install -g @openai/codex

Gemini CLI

gemini-3-pro, 3-flash

npm install -g @google/gemini-cli

Cursor

sonnet 4.6, opus 4.6, gpt-5.4

Cursor app

Aider

任何兼容 OpenAI/Anthropic 的模型

pip install aider-chat

Ollama + Aider

本地模型 (离线)

brew install ollama

Amp, Cody, Continue.dev, Goose, Kilo, Kiro, OpenCode, Qwen, Roo Code, Tabby

各种

参见文档

通用

任何带有 --prompt 的 CLI

内置

TIP

在 CI 流水线中运行bernstein --headless — 无 TUI,结构化 JSON 输出,失败时返回非零退出码。

快速开始

cd your-project
bernstein init                    # creates .sdd/ workspace + bernstein.yaml
bernstein -g "Add rate limiting"  # agents spawn, work in parallel, verify, exit
bernstein live                    # watch progress in the TUI dashboard
bernstein stop                    # graceful shutdown with drain

对于多阶段项目,定义一个 YAML 计划:

bernstein run plan.yaml           # skips LLM planning, goes straight to execution
bernstein run --dry-run plan.yaml # preview tasks and estimated cost

工作原理

  1. 分解 — 管理器将你的目标分解为带有角色、所属文件和完成信号的任务。

  2. 生成 — 智能体在隔离的 git 工作树中启动,每个任务一个。主分支保持整洁。

  3. 验证 — 清理程序检查具体信号:测试通过、文件存在、lint 清洁、类型正确。

  4. 合并 — 验证后的工作合并到主分支。失败的任务会被重试或路由到不同的模型。

编排器是一个 Python 调度器,而不是 LLM。调度决策是确定性的、可审计且可复现的。

功能特性

核心编排 — 并行执行、git 工作树隔离、清理程序验证、质量门禁(lint + 类型 + PII 扫描)、跨模型代码审查、针对异常智能体的断路器、带自动干预的 token 增长监控。

智能 — 上下文多臂老虎机路由,随时间学习最优的模型/工作量配对。用于代码库影响分析的知识图谱。语义缓存可在重复模式下节省 token。带 Z 分数标记的成本异常检测。

企业级 — HMAC 链式防篡改审计日志。带故障开放默认值和多租户隔离的策略限制。PII 输出门控。OAuth 2.0 PKCE。SSO/SAML/OIDC 认证。WAL 崩溃恢复 — 无静默数据丢失。

可观测性 — Prometheus /metrics,OTel 导出器预设,Grafana 仪表板。按模型成本跟踪 (bernstein cost)。终端 TUI 和 Web 仪表板。ps 中的智能体进程可见性。

生态系统 — MCP 服务器模式,A2A 协议支持,GitHub App 集成,基于 pluggy 的插件系统,多仓库工作区,用于分布式执行的集群模式,通过 --evolve 实现自我进化。

完整功能矩阵:FEATURE_MATRIX.md

对比

Bernstein

CrewAI

AutoGen

LangGraph

编排器

确定性代码

LLM 驱动

LLM 驱动

图 + LLM

兼容性

任何 CLI 智能体 (18+)

Python SDK 类

Python 智能体

LangChain 节点

Git 隔离

每个智能体一个工作树

验证

清理程序 + 质量门禁

条件边

成本跟踪

内置

状态模型

基于文件 (.sdd/)

内存中

内存中

检查点

自我进化

内置

完整对比页面 包含详细的功能矩阵。

监控

bernstein live       # TUI dashboard
bernstein dashboard  # web dashboard
bernstein status     # task summary
bernstein ps         # running agents
bernstein cost       # spend by model/task
bernstein doctor     # pre-flight checks
bernstein recap      # post-run summary
bernstein trace <ID> # agent decision trace
bernstein explain <cmd>  # detailed help with examples
bernstein dry-run    # preview tasks without executing
bernstein aliases    # show command shortcuts
bernstein config-path    # show config file locations
bernstein init-wizard    # interactive project setup

安装

方法

命令

pip

pip install bernstein

pipx

pipx install bernstein

uv

uv tool install bernstein

Homebrew

brew tap chernistry/bernstein && brew install bernstein

Fedora / RHEL

sudo dnf copr enable alexchernysh/bernstein && sudo dnf install bernstein

npm (包装器)

npx bernstein-orchestrator

编辑器扩展:VS Marketplace · Open VSX

贡献

欢迎提交 PR。请参阅 CONTRIBUTING.md 了解设置和代码风格。

支持

如果 Bernstein 节省了你的时间:GitHub Sponsors · Open Collective

许可证

Apache License 2.0

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/chernistry/bernstein'

If you have feedback or need assistance with the MCP directory API, please join our Discord server