Skip to main content
Glama

ContextLattice

context-lattice MCP server

ContextLatticeを選ぶ理由

ContextLatticeは、過去のプロジェクト作業をシグナルの高い検索可能なコンテキストに変換することで、繰り返される推論を削減します。

  • 専門ストアへのファンアウトを伴う永続的なメモリ書き込み。

  • ステージングされたフェッチとフェイルオープンな継続機能を備えた、高速かつ詳細な検索モード。

  • トークン使用量を効率的に保ちつつ、生のアーティファクトへのドリルダウンパスを保持するロールアップファーストなコンテキスト。

  • オプションのクラウドバックエンド依存関係を備えたローカルファーストなデプロイメント。

  • HTTP API、MCPトランスポート、および運用ダッシュボードを通じた人間とエージェントのUX。

Related MCP server: Context Fabric

アーキテクチャ (Public v3レーン)

レイヤー

プライマリランタイム

役割

ゲートウェイ/API

Go

/memory/* + /v1/* オーケストレーション、ステージングされた検索ポリシー、継続ライフサイクル

検索 + メモリサービス

Go + Rust

高速/永続的な検索レーン、ロールアップ処理、メモリバンクアダプター

レガシーフォールバック

Python

互換性フォールバックのみ(デフォルトのホットパスではありません)

ダッシュボード

TypeScript/Next.js

コンソール、マインドマップ、ステータス、課金、セットアップUX

インストール

一般的なインストーラー

  • macOS DMG: https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-macOS-universal.dmg

  • Linuxバンドル: https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-linux-bootstrap.tar.gz

  • Windows MSI: https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-windows-x64.msi

開発者向けインストール

git clone git@github.com:sheawinkler/ContextLattice.git
cd ContextLattice
gmake quickstart

クイックスタート

前提条件

  • Docker/Compose v2互換ランタイム

  • macOS、Linux、またはWindows (WSL2)

  • gmake, jq, rg, python3, curl

起動

1) 環境設定

cp .env.example .env
ln -svf ../../.env infra/compose/.env
gmake quickstart

gmake quickstart はランタイムプロファイルの入力を求め、適切なデフォルト設定で起動します。 macOS DMGブートストラップから起動した場合、以下も生成されます:

  • ~/ContextLattice/setup/agent_contextlattice_instructions.md (クリップボードにコピーされます)

  • ~/ContextLattice/setup/agent_smoke_write_read.md (オペレーターの書き込み/読み取りスモークチェック)

検証

ORCH_KEY="$(awk -F= '/^CONTEXTLATTICE_ORCHESTRATOR_API_KEY=/{print substr($0,index($0,"=")+1)}' .env)"

curl -fsS http://127.0.0.1:8075/health | jq
curl -fsS -H "x-api-key: ${ORCH_KEY}" http://127.0.0.1:8075/status | jq '.service,.sinks'

ランタイムプロファイル

プロファイル

ユースケース

CPU

RAM

ストレージ

lite

ノートPC向けのローカル利用

2-4 vCPU

8-12 GB

25-80 GB

full

より高いスループットと深いリコール

6-8 vCPU

12-20 GB

100-180 GB

コアAPIの例

MCPツールコントラクト (Glama-lite / stdioブリッジ)

Glamaシングルコンテナプロファイルは、明示的なスコープを持つ3つのMCPツールを公開します:

  • health: 読み取り専用の準備状況/トラブルシューティングチェック (GET /health)。副作用なし。

  • memory.search: ライフサイクル状態 (ready|pending|degraded|empty) とオプションのグラウンディング/デバッグペイロードを備えた、読み取り専用のスコープ付き検索 (POST /memory/search)。

  • memory.write: 明示的なファンアウトステータスと警告フィールドを備えた、状態を変更する永続的な書き込み (POST /memory/write)。

これら3つのツールはすべて、クライアントの互換性のために、テキストコンテンツと構造化ペイロードの両方の形式でJSONを返します。

メモリへの書き込み

curl -X POST "http://127.0.0.1:8075/memory/write" \
  -H "Content-Type: application/json" \
  -H "x-api-key: ${ORCH_KEY}" \
  -d '{
    "projectName": "my_project",
    "fileName": "notes/decision.md",
    "content": "Switched retrieval_mode to balanced for normal runs.",
    "topicPath": "runbooks/retrieval"
  }'

メモリの読み取り

curl -X POST "http://127.0.0.1:8075/memory/search" \
  -H "Content-Type: application/json" \
  -H "x-api-key: ${ORCH_KEY}" \
  -d '{
    "project": "my_project",
    "query": "retrieval mode decision",
    "topic_path": "runbooks/retrieval",
    "include_grounding": true
  }'

継続メタデータを用いた詳細な読み取り

curl -X POST "http://127.0.0.1:8075/memory/search" \
  -H "Content-Type: application/json" \
  -H "x-api-key: ${ORCH_KEY}" \
  -d '{
    "project": "my_project",
    "query": "full architecture context",
    "retrieval_mode": "deep",
    "include_grounding": true,
    "include_retrieval_debug": true
  }'

設定 (公開可能な必須項目)

通常の運用に必要な設定のみを行ってください:

CONTEXTLATTICE_ORCHESTRATOR_URL=http://127.0.0.1:8075
CONTEXTLATTICE_ORCHESTRATOR_API_KEY=<set-by-setup>
NEXTAUTH_URL=http://localhost:3000
NEXTAUTH_SECRET=<long-random-secret>
APP_URL=http://localhost:3000

完全な設定リファレンスについては、.env.example を参照してください。

ダッシュボード

  • UI: http://127.0.0.1:3000/console

  • マインドマップ: http://127.0.0.1:3000/mindmap

  • ステータス: http://127.0.0.1:3000/status

パブリック版と有料版

このリポジトリはパブリックな無料レーン (v3.x) を追跡しています。 高度なプレミアムチューニング、独自の最適化ポリシー、および非公開の商用ドキュメントは、このパブリックレーンの外側に存在します。

ドキュメント

  • ウェブサイトドキュメント: https://contextlattice.io/

  • ローカルドキュメントインデックス: docs/

  • Hugging Face liteデプロイメント: docs/huggingface-space-lite.md

ライセンス

Apache 2.0。 LICENSE を参照してください。

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - A tier

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/sheawinkler/context-lattice'

If you have feedback or need assistance with the MCP directory API, please join our Discord server