ContextLattice
ContextLattice
ContextLatticeを選ぶ理由
ContextLatticeは、過去のプロジェクト作業をシグナルの高い検索可能なコンテキストに変換することで、繰り返される推論を削減します。
専門ストアへのファンアウトを伴う永続的なメモリ書き込み。
ステージングされたフェッチとフェイルオープンな継続機能を備えた、高速かつ詳細な検索モード。
トークン使用量を効率的に保ちつつ、生のアーティファクトへのドリルダウンパスを保持するロールアップファーストなコンテキスト。
オプションのクラウドバックエンド依存関係を備えたローカルファーストなデプロイメント。
HTTP API、MCPトランスポート、および運用ダッシュボードを通じた人間とエージェントのUX。
Related MCP server: Context Fabric
アーキテクチャ (Public v3レーン)
レイヤー | プライマリランタイム | 役割 |
ゲートウェイ/API | Go |
|
検索 + メモリサービス | Go + Rust | 高速/永続的な検索レーン、ロールアップ処理、メモリバンクアダプター |
レガシーフォールバック | Python | 互換性フォールバックのみ(デフォルトのホットパスではありません) |
ダッシュボード | TypeScript/Next.js | コンソール、マインドマップ、ステータス、課金、セットアップUX |
インストール
一般的なインストーラー
macOS DMG:
https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-macOS-universal.dmgLinuxバンドル:
https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-linux-bootstrap.tar.gzWindows MSI:
https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-windows-x64.msi
開発者向けインストール
git clone git@github.com:sheawinkler/ContextLattice.git
cd ContextLattice
gmake quickstartクイックスタート
前提条件
Docker/Compose v2互換ランタイム
macOS、Linux、またはWindows (WSL2)
gmake,jq,rg,python3,curl
起動
1) 環境設定
cp .env.example .env
ln -svf ../../.env infra/compose/.env
gmake quickstartgmake quickstart はランタイムプロファイルの入力を求め、適切なデフォルト設定で起動します。
macOS DMGブートストラップから起動した場合、以下も生成されます:
~/ContextLattice/setup/agent_contextlattice_instructions.md(クリップボードにコピーされます)~/ContextLattice/setup/agent_smoke_write_read.md(オペレーターの書き込み/読み取りスモークチェック)
検証
ORCH_KEY="$(awk -F= '/^CONTEXTLATTICE_ORCHESTRATOR_API_KEY=/{print substr($0,index($0,"=")+1)}' .env)"
curl -fsS http://127.0.0.1:8075/health | jq
curl -fsS -H "x-api-key: ${ORCH_KEY}" http://127.0.0.1:8075/status | jq '.service,.sinks'ランタイムプロファイル
プロファイル | ユースケース | CPU | RAM | ストレージ |
| ノートPC向けのローカル利用 | 2-4 vCPU | 8-12 GB | 25-80 GB |
| より高いスループットと深いリコール | 6-8 vCPU | 12-20 GB | 100-180 GB |
コアAPIの例
MCPツールコントラクト (Glama-lite / stdioブリッジ)
Glamaシングルコンテナプロファイルは、明示的なスコープを持つ3つのMCPツールを公開します:
health: 読み取り専用の準備状況/トラブルシューティングチェック (GET /health)。副作用なし。memory.search: ライフサイクル状態 (ready|pending|degraded|empty) とオプションのグラウンディング/デバッグペイロードを備えた、読み取り専用のスコープ付き検索 (POST /memory/search)。memory.write: 明示的なファンアウトステータスと警告フィールドを備えた、状態を変更する永続的な書き込み (POST /memory/write)。
これら3つのツールはすべて、クライアントの互換性のために、テキストコンテンツと構造化ペイロードの両方の形式でJSONを返します。
メモリへの書き込み
curl -X POST "http://127.0.0.1:8075/memory/write" \
-H "Content-Type: application/json" \
-H "x-api-key: ${ORCH_KEY}" \
-d '{
"projectName": "my_project",
"fileName": "notes/decision.md",
"content": "Switched retrieval_mode to balanced for normal runs.",
"topicPath": "runbooks/retrieval"
}'メモリの読み取り
curl -X POST "http://127.0.0.1:8075/memory/search" \
-H "Content-Type: application/json" \
-H "x-api-key: ${ORCH_KEY}" \
-d '{
"project": "my_project",
"query": "retrieval mode decision",
"topic_path": "runbooks/retrieval",
"include_grounding": true
}'継続メタデータを用いた詳細な読み取り
curl -X POST "http://127.0.0.1:8075/memory/search" \
-H "Content-Type: application/json" \
-H "x-api-key: ${ORCH_KEY}" \
-d '{
"project": "my_project",
"query": "full architecture context",
"retrieval_mode": "deep",
"include_grounding": true,
"include_retrieval_debug": true
}'設定 (公開可能な必須項目)
通常の運用に必要な設定のみを行ってください:
CONTEXTLATTICE_ORCHESTRATOR_URL=http://127.0.0.1:8075
CONTEXTLATTICE_ORCHESTRATOR_API_KEY=<set-by-setup>
NEXTAUTH_URL=http://localhost:3000
NEXTAUTH_SECRET=<long-random-secret>
APP_URL=http://localhost:3000完全な設定リファレンスについては、.env.example を参照してください。
ダッシュボード
UI:
http://127.0.0.1:3000/consoleマインドマップ:
http://127.0.0.1:3000/mindmapステータス:
http://127.0.0.1:3000/status
パブリック版と有料版
このリポジトリはパブリックな無料レーン (v3.x) を追跡しています。
高度なプレミアムチューニング、独自の最適化ポリシー、および非公開の商用ドキュメントは、このパブリックレーンの外側に存在します。
ドキュメント
ウェブサイトドキュメント:
https://contextlattice.io/ローカルドキュメントインデックス:
docs/Hugging Face liteデプロイメント:
docs/huggingface-space-lite.md
ライセンス
Apache 2.0。 LICENSE を参照してください。
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/sheawinkler/context-lattice'
If you have feedback or need assistance with the MCP directory API, please join our Discord server