ContextLattice
ContextLattice
Warum ContextLattice
ContextLattice reduziert wiederholte Inferenz, indem es frühere Projektarbeit in hochgradig signalstarken, abrufbaren Kontext umwandelt.
Dauerhafte Speicherschreibvorgänge mit Fanout zu spezialisierten Speichern.
Schnelle + tiefe Abrufmodi mit gestuftem Abruf und Fail-Open-Fortsetzung.
Rollup-First-Kontext, um die Token-Nutzung effizient zu halten und gleichzeitig Drill-Down-Pfade zu Rohartefakten zu bewahren.
Local-First-Bereitstellung mit optionalen Cloud-basierten Abhängigkeiten.
Mensch + Agent UX durch HTTP-APIs, MCP-Transport und Operations-Dashboard.
Related MCP server: Context Fabric
Architektur (Public v3 Lane)
Ebene | Primäre Laufzeit | Verantwortung |
Gateway/API | Go |
|
Abruf + Speicherdienste | Go + Rust | Schnelle/dauerhafte Abruf-Lanes, Rollup-Handhabung, Memory-Bank-Adapter |
Legacy-Fallback | Python | Nur Kompatibilitäts-Fallback (kein Standard-Hot-Path) |
Dashboard | TypeScript/Next.js | Konsole, Mindmap, Status, Abrechnung, Setup-UX |
Installation
Weniger technische Installer
macOS DMG:
https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-macOS-universal.dmgLinux Bundle:
https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-linux-bootstrap.tar.gzWindows MSI:
https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-windows-x64.msi
Entwickler-Installation
git clone git@github.com:sheawinkler/ContextLattice.git
cd ContextLattice
gmake quickstartSchnellstart
Voraussetzungen
Docker/Compose v2-kompatible Laufzeit
macOS, Linux oder Windows (WSL2)
gmake,jq,rg,python3,curl
Starten
1) Umgebung konfigurieren
cp .env.example .env
ln -svf ../../.env infra/compose/.env
gmake quickstartgmake quickstart fragt nach einem Laufzeitprofil und startet mit sinnvollen Standardeinstellungen.
Wenn es vom macOS DMG-Bootstrap aus gestartet wird, generiert es außerdem:
~/ContextLattice/setup/agent_contextlattice_instructions.md(in die Zwischenablage kopiert)~/ContextLattice/setup/agent_smoke_write_read.md(Operator Schreib-/Lese-Smoke-Test)
Überprüfung
ORCH_KEY="$(awk -F= '/^CONTEXTLATTICE_ORCHESTRATOR_API_KEY=/{print substr($0,index($0,"=")+1)}' .env)"
curl -fsS http://127.0.0.1:8075/health | jq
curl -fsS -H "x-api-key: ${ORCH_KEY}" http://127.0.0.1:8075/status | jq '.service,.sinks'Laufzeitprofile
Profil | Anwendungsfall | CPU | RAM | Speicher |
| Laptop-freundliche lokale Nutzung | 2-4 vCPU | 8-12 GB | 25-80 GB |
| Höherer Durchsatz und tieferer Abruf | 6-8 vCPU | 12-20 GB | 100-180 GB |
Kern-API-Beispiele
MCP-Tool-Vertrag (Glama-lite / stdio-Brücke)
Das Glama-Single-Container-Profil stellt drei MCP-Tools mit explizitem Umfang bereit:
health: schreibgeschützte Bereitschafts-/Fehlerbehebungsprüfung (GET /health), keine Seiteneffekte.memory.search: schreibgeschützter, bereichsbezogener Abruf (POST /memory/search) mit Lebenszyklus-Zuständen (ready|pending|degraded|empty) und optionalen Grounding-/Debug-Nutzlasten.memory.write: zustandsändernder, dauerhafter Schreibvorgang (POST /memory/write) mit explizitem Fanout-Status und Warnfeldern.
Alle drei Tools geben JSON sowohl als Textinhalt als auch in strukturierter Nutzlastform für die Client-Kompatibilität zurück.
Speicher schreiben
curl -X POST "http://127.0.0.1:8075/memory/write" \
-H "Content-Type: application/json" \
-H "x-api-key: ${ORCH_KEY}" \
-d '{
"projectName": "my_project",
"fileName": "notes/decision.md",
"content": "Switched retrieval_mode to balanced for normal runs.",
"topicPath": "runbooks/retrieval"
}'Speicher lesen
curl -X POST "http://127.0.0.1:8075/memory/search" \
-H "Content-Type: application/json" \
-H "x-api-key: ${ORCH_KEY}" \
-d '{
"project": "my_project",
"query": "retrieval mode decision",
"topic_path": "runbooks/retrieval",
"include_grounding": true
}'Tiefer Lesezugriff mit Fortsetzungs-Metadaten
curl -X POST "http://127.0.0.1:8075/memory/search" \
-H "Content-Type: application/json" \
-H "x-api-key: ${ORCH_KEY}" \
-d '{
"project": "my_project",
"query": "full architecture context",
"retrieval_mode": "deep",
"include_grounding": true,
"include_retrieval_debug": true
}'Konfiguration (Public-Safe Essentials)
Legen Sie nur das fest, was Sie für den normalen Betrieb benötigen:
CONTEXTLATTICE_ORCHESTRATOR_URL=http://127.0.0.1:8075
CONTEXTLATTICE_ORCHESTRATOR_API_KEY=<set-by-setup>
NEXTAUTH_URL=http://localhost:3000
NEXTAUTH_SECRET=<long-random-secret>
APP_URL=http://localhost:3000Für die vollständige Konfigurationsreferenz verwenden Sie .env.example.
Dashboard
UI:
http://127.0.0.1:3000/consoleMindmap:
http://127.0.0.1:3000/mindmapStatus:
http://127.0.0.1:3000/status
Öffentlich vs. bezahlt
Dieses Repository verfolgt die öffentliche kostenlose Lane (v3.x).
Erweiterte Premium-Optimierung, proprietäre Optimierungsrichtlinien und private kommerzielle Dokumentationen befinden sich außerhalb dieser öffentlichen Lane.
Dokumentation
Website-Dokumentation:
https://contextlattice.io/Lokaler Dokumentationsindex:
docs/Hugging Face Lite-Bereitstellung:
docs/huggingface-space-lite.md
Lizenz
Apache 2.0. Siehe LICENSE.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/sheawinkler/context-lattice'
If you have feedback or need assistance with the MCP directory API, please join our Discord server