Skip to main content
Glama

ContextLattice

context-lattice MCP server

Warum ContextLattice

ContextLattice reduziert wiederholte Inferenz, indem es frühere Projektarbeit in hochgradig signalstarken, abrufbaren Kontext umwandelt.

  • Dauerhafte Speicherschreibvorgänge mit Fanout zu spezialisierten Speichern.

  • Schnelle + tiefe Abrufmodi mit gestuftem Abruf und Fail-Open-Fortsetzung.

  • Rollup-First-Kontext, um die Token-Nutzung effizient zu halten und gleichzeitig Drill-Down-Pfade zu Rohartefakten zu bewahren.

  • Local-First-Bereitstellung mit optionalen Cloud-basierten Abhängigkeiten.

  • Mensch + Agent UX durch HTTP-APIs, MCP-Transport und Operations-Dashboard.

Related MCP server: Context Fabric

Architektur (Public v3 Lane)

Ebene

Primäre Laufzeit

Verantwortung

Gateway/API

Go

/memory/* + /v1/* Orchestrierung, gestufte Abrufrichtlinie, Fortsetzungs-Lebenszyklus

Abruf + Speicherdienste

Go + Rust

Schnelle/dauerhafte Abruf-Lanes, Rollup-Handhabung, Memory-Bank-Adapter

Legacy-Fallback

Python

Nur Kompatibilitäts-Fallback (kein Standard-Hot-Path)

Dashboard

TypeScript/Next.js

Konsole, Mindmap, Status, Abrechnung, Setup-UX

Installation

Weniger technische Installer

  • macOS DMG: https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-macOS-universal.dmg

  • Linux Bundle: https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-linux-bootstrap.tar.gz

  • Windows MSI: https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-windows-x64.msi

Entwickler-Installation

git clone git@github.com:sheawinkler/ContextLattice.git
cd ContextLattice
gmake quickstart

Schnellstart

Voraussetzungen

  • Docker/Compose v2-kompatible Laufzeit

  • macOS, Linux oder Windows (WSL2)

  • gmake, jq, rg, python3, curl

Starten

1) Umgebung konfigurieren

cp .env.example .env
ln -svf ../../.env infra/compose/.env
gmake quickstart

gmake quickstart fragt nach einem Laufzeitprofil und startet mit sinnvollen Standardeinstellungen. Wenn es vom macOS DMG-Bootstrap aus gestartet wird, generiert es außerdem:

  • ~/ContextLattice/setup/agent_contextlattice_instructions.md (in die Zwischenablage kopiert)

  • ~/ContextLattice/setup/agent_smoke_write_read.md (Operator Schreib-/Lese-Smoke-Test)

Überprüfung

ORCH_KEY="$(awk -F= '/^CONTEXTLATTICE_ORCHESTRATOR_API_KEY=/{print substr($0,index($0,"=")+1)}' .env)"

curl -fsS http://127.0.0.1:8075/health | jq
curl -fsS -H "x-api-key: ${ORCH_KEY}" http://127.0.0.1:8075/status | jq '.service,.sinks'

Laufzeitprofile

Profil

Anwendungsfall

CPU

RAM

Speicher

lite

Laptop-freundliche lokale Nutzung

2-4 vCPU

8-12 GB

25-80 GB

full

Höherer Durchsatz und tieferer Abruf

6-8 vCPU

12-20 GB

100-180 GB

Kern-API-Beispiele

MCP-Tool-Vertrag (Glama-lite / stdio-Brücke)

Das Glama-Single-Container-Profil stellt drei MCP-Tools mit explizitem Umfang bereit:

  • health: schreibgeschützte Bereitschafts-/Fehlerbehebungsprüfung (GET /health), keine Seiteneffekte.

  • memory.search: schreibgeschützter, bereichsbezogener Abruf (POST /memory/search) mit Lebenszyklus-Zuständen (ready|pending|degraded|empty) und optionalen Grounding-/Debug-Nutzlasten.

  • memory.write: zustandsändernder, dauerhafter Schreibvorgang (POST /memory/write) mit explizitem Fanout-Status und Warnfeldern.

Alle drei Tools geben JSON sowohl als Textinhalt als auch in strukturierter Nutzlastform für die Client-Kompatibilität zurück.

Speicher schreiben

curl -X POST "http://127.0.0.1:8075/memory/write" \
  -H "Content-Type: application/json" \
  -H "x-api-key: ${ORCH_KEY}" \
  -d '{
    "projectName": "my_project",
    "fileName": "notes/decision.md",
    "content": "Switched retrieval_mode to balanced for normal runs.",
    "topicPath": "runbooks/retrieval"
  }'

Speicher lesen

curl -X POST "http://127.0.0.1:8075/memory/search" \
  -H "Content-Type: application/json" \
  -H "x-api-key: ${ORCH_KEY}" \
  -d '{
    "project": "my_project",
    "query": "retrieval mode decision",
    "topic_path": "runbooks/retrieval",
    "include_grounding": true
  }'

Tiefer Lesezugriff mit Fortsetzungs-Metadaten

curl -X POST "http://127.0.0.1:8075/memory/search" \
  -H "Content-Type: application/json" \
  -H "x-api-key: ${ORCH_KEY}" \
  -d '{
    "project": "my_project",
    "query": "full architecture context",
    "retrieval_mode": "deep",
    "include_grounding": true,
    "include_retrieval_debug": true
  }'

Konfiguration (Public-Safe Essentials)

Legen Sie nur das fest, was Sie für den normalen Betrieb benötigen:

CONTEXTLATTICE_ORCHESTRATOR_URL=http://127.0.0.1:8075
CONTEXTLATTICE_ORCHESTRATOR_API_KEY=<set-by-setup>
NEXTAUTH_URL=http://localhost:3000
NEXTAUTH_SECRET=<long-random-secret>
APP_URL=http://localhost:3000

Für die vollständige Konfigurationsreferenz verwenden Sie .env.example.

Dashboard

  • UI: http://127.0.0.1:3000/console

  • Mindmap: http://127.0.0.1:3000/mindmap

  • Status: http://127.0.0.1:3000/status

Öffentlich vs. bezahlt

Dieses Repository verfolgt die öffentliche kostenlose Lane (v3.x). Erweiterte Premium-Optimierung, proprietäre Optimierungsrichtlinien und private kommerzielle Dokumentationen befinden sich außerhalb dieser öffentlichen Lane.

Dokumentation

  • Website-Dokumentation: https://contextlattice.io/

  • Lokaler Dokumentationsindex: docs/

  • Hugging Face Lite-Bereitstellung: docs/huggingface-space-lite.md

Lizenz

Apache 2.0. Siehe LICENSE.

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - A tier

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/sheawinkler/context-lattice'

If you have feedback or need assistance with the MCP directory API, please join our Discord server