Skip to main content
Glama
chernistry

Bernstein - Multi-agent orchestration

あらゆるAIコーディングエージェントをオーケストレーション。あらゆるモデルで。コマンド一つで。

CI codecov PyPI npm VS Marketplace Python 3.12+ License MCP Compatible A2A Compatible

ドキュメント · はじめに · 用語集 · 制限事項

殿堂入り

"lol, good luck, keep vibecoding shit that you have no idea about xD"PeaceFirePL, Reddit


Bernsteinは目標を受け取り、それをタスクに分割し、並行して実行されるAIコーディングエージェントに割り当て、出力を検証し、結果をマージします。あなたは、動作するコード、パスするテスト、そしてクリーンなgit履歴を手に入れることができます。

学習すべきフレームワークはありません。ベンダーロックインもありません。エージェントは交換可能な作業員であり、あらゆるエージェント、あらゆるモデル、あらゆるプロバイダーを入れ替え可能です。オーケストレーター自体は決定論的なPythonコードです。スケジューリングにLLMトークンは消費しません。

pip install bernstein
bernstein -g "Add JWT auth with refresh tokens, tests, and API docs"

pipxuv tool installbrewdnf copr、および npx bernstein-orchestrator からも利用可能です。インストールオプションを参照してください。

サポートされているエージェント

BernsteinはインストールされているCLIエージェントを自動検出します。同じ実行内でそれらを混在させることができます。ボイラープレートには安価なローカルモデルを、アーキテクチャには強力なクラウドモデルを使用してください。

エージェント

モデル

インストール

Claude Code

opus 4.6, sonnet 4.6, haiku 4.5

npm install -g @anthropic-ai/claude-code

Codex CLI

gpt-5.4, o3, o4-mini

npm install -g @openai/codex

Gemini CLI

gemini-3-pro, 3-flash

npm install -g @google/gemini-cli

Cursor

sonnet 4.6, opus 4.6, gpt-5.4

Cursor app

Aider

OpenAI/Anthropic互換のすべて

pip install aider-chat

Ollama + Aider

ローカルモデル (オフライン)

brew install ollama

Amp, Cody, Continue.dev, Goose, Kilo, Kiro, OpenCode, Qwen, Roo Code, Tabby

各種

ドキュメントを参照

汎用

--prompt を持つCLIすべて

ビルトイン

TIP

CIパイプライン用にbernstein --headless を実行してください。TUIなし、構造化されたJSON出力、失敗時に非ゼロ終了コードを返します。

クイックスタート

cd your-project
bernstein init                    # creates .sdd/ workspace + bernstein.yaml
bernstein -g "Add rate limiting"  # agents spawn, work in parallel, verify, exit
bernstein live                    # watch progress in the TUI dashboard
bernstein stop                    # graceful shutdown with drain

マルチステージプロジェクトの場合は、YAMLプランを定義します:

bernstein run plan.yaml           # skips LLM planning, goes straight to execution
bernstein run --dry-run plan.yaml # preview tasks and estimated cost

仕組み

  1. 分解 — マネージャーが目標を、役割、所有ファイル、完了シグナルを持つタスクに分割します。

  2. 生成 — エージェントが分離されたgitワークツリーでタスクごとに開始されます。メインブランチはクリーンなままです。

  3. 検証 — ジャニター(管理人)が具体的なシグナル(テスト通過、ファイル存在、lintクリーン、型チェック)をチェックします。

  4. マージ — 検証済みの作業がメインに反映されます。失敗したタスクは再試行されるか、別のモデルにルーティングされます。

オーケストレーターはLLMではなく、Pythonのスケジューラーです。スケジューリングの決定は決定論的であり、監査可能で、再現性があります。

機能

コアオーケストレーション — 並行実行、gitワークツリーの分離、ジャニターによる検証、品質ゲート(lint + 型 + PIIスキャン)、モデル間コードレビュー、誤動作するエージェントのサーキットブレーカー、自動介入を伴うトークン増加監視。

インテリジェンス — コンテキストバンディットルーターが、時間の経過とともに最適なモデル/労力のペアを学習します。コードベースのインパクト分析のためのナレッジグラフ。セマンティックキャッシュが繰り返されるパターンのトークンを節約します。Zスコアフラグ付きのコスト異常検知。

エンタープライズ — HMACチェーンによる改ざん防止監査ログ。フェイルオープンデフォルトとマルチテナント分離を備えたポリシー制限。PII出力ゲート。OAuth 2.0 PKCE。SSO/SAML/OIDC認証。WALクラッシュリカバリ — サイレントなデータ損失はありません。

可観測性 — Prometheus /metrics、OTelエクスポータープリセット、Grafanaダッシュボード。モデルごとのコスト追跡 (bernstein cost)。ターミナルTUIおよびWebダッシュボード。ps でのエージェントプロセスの可視化。

エコシステム — MCPサーバーモード、A2Aプロトコルサポート、GitHub App統合、pluggyベースのプラグインシステム、マルチリポジトリワークスペース、分散実行用のクラスターモード、--evolve による自己進化。

完全な機能マトリックス: FEATURE_MATRIX.md

比較

Bernstein

CrewAI

AutoGen

LangGraph

オーケストレーター

決定論的コード

LLM駆動

LLM駆動

グラフ + LLM

対応エージェント

あらゆるCLIエージェント (18+)

Python SDKクラス

Pythonエージェント

LangChainノード

Git分離

エージェントごとのワークツリー

なし

なし

なし

検証

ジャニター + 品質ゲート

なし

なし

条件付きエッジ

コスト追跡

ビルトイン

なし

なし

なし

状態モデル

ファイルベース (.sdd/)

インメモリ

インメモリ

チェックポインター

自己進化

ビルトイン

なし

なし

なし

詳細な機能マトリックスを含む完全な比較ページ

モニタリング

bernstein live       # TUI dashboard
bernstein dashboard  # web dashboard
bernstein status     # task summary
bernstein ps         # running agents
bernstein cost       # spend by model/task
bernstein doctor     # pre-flight checks
bernstein recap      # post-run summary
bernstein trace <ID> # agent decision trace
bernstein explain <cmd>  # detailed help with examples
bernstein dry-run    # preview tasks without executing
bernstein aliases    # show command shortcuts
bernstein config-path    # show config file locations
bernstein init-wizard    # interactive project setup

インストール

方法

コマンド

pip

pip install bernstein

pipx

pipx install bernstein

uv

uv tool install bernstein

Homebrew

brew tap chernistry/bernstein && brew install bernstein

Fedora / RHEL

sudo dnf copr enable alexchernysh/bernstein && sudo dnf install bernstein

npm (ラッパー)

npx bernstein-orchestrator

エディタ拡張機能: VS Marketplace · Open VSX

貢献

PRを歓迎します。セットアップとコードスタイルについては CONTRIBUTING.md を参照してください。

サポート

Bernsteinが時間を節約できた場合は、こちらから支援してください: GitHub Sponsors · Open Collective

ライセンス

Apache License 2.0

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/chernistry/bernstein'

If you have feedback or need assistance with the MCP directory API, please join our Discord server