ContextLattice
ContextLattice
Por qué ContextLattice
ContextLattice reduce la inferencia repetida al convertir el trabajo previo del proyecto en contexto recuperable de alta señal.
Escrituras de memoria duraderas con distribución (fanout) a almacenes especializados.
Modos de recuperación rápida y profunda con obtención por etapas y continuación en caso de fallo.
Contexto basado en resúmenes (rollup) para mantener el uso de tokens eficiente mientras se preservan las rutas de desglose hacia artefactos sin procesar.
Despliegue de prioridad local con dependencias opcionales respaldadas en la nube.
UX para humanos y agentes a través de APIs HTTP, transporte MCP y panel de operaciones.
Related MCP server: Context Fabric
Arquitectura (carril público v3)
Capa | Entorno de ejecución principal | Responsabilidad |
Puerta de enlace/API | Go | Orquestación de |
Servicios de recuperación + memoria | Go + Rust | Carriles de recuperación rápida/duradera, manejo de resúmenes, adaptadores de banco de memoria |
Respaldo heredado | Python | Solo respaldo de compatibilidad (no es la ruta principal predeterminada) |
Panel de control | TypeScript/Next.js | Consola, mapa mental, estado, facturación, UX de configuración |
Instalación
Instaladores para usuarios menos técnicos
macOS DMG:
https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-macOS-universal.dmgLinux bundle:
https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-linux-bootstrap.tar.gzWindows MSI:
https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-windows-x64.msi
Instalación para desarrolladores
git clone git@github.com:sheawinkler/ContextLattice.git
cd ContextLattice
gmake quickstartInicio rápido
Requisitos previos
Entorno de ejecución compatible con Docker/Compose v2
macOS, Linux o Windows (WSL2)
gmake,jq,rg,python3,curl
Lanzamiento
1) Configurar el entorno
cp .env.example .env
ln -svf ../../.env infra/compose/.env
gmake quickstartgmake quickstart solicita un perfil de ejecución y se inicia con valores predeterminados razonables.
Si se inicia desde el bootstrap DMG de macOS, también genera:
~/ContextLattice/setup/agent_contextlattice_instructions.md(copiado al portapapeles)~/ContextLattice/setup/agent_smoke_write_read.md(verificación de escritura/lectura del operador)
Verificar
ORCH_KEY="$(awk -F= '/^CONTEXTLATTICE_ORCHESTRATOR_API_KEY=/{print substr($0,index($0,"=")+1)}' .env)"
curl -fsS http://127.0.0.1:8075/health | jq
curl -fsS -H "x-api-key: ${ORCH_KEY}" http://127.0.0.1:8075/status | jq '.service,.sinks'Perfiles de ejecución
Perfil | Caso de uso | CPU | RAM | Almacenamiento |
| Uso local amigable para portátiles | 2-4 vCPU | 8-12 GB | 25-80 GB |
| Mayor rendimiento y recuperación más profunda | 6-8 vCPU | 12-20 GB | 100-180 GB |
Ejemplos de API principal
Contrato de herramientas MCP (Glama-lite / puente stdio)
El perfil de contenedor único de Glama expone tres herramientas MCP con alcance explícito:
health: verificación de preparación/solución de problemas de solo lectura (GET /health), sin efectos secundarios.memory.search: recuperación con alcance de solo lectura (POST /memory/search) con estados de ciclo de vida (ready|pending|degraded|empty) y cargas útiles opcionales de fundamentación/depuración.memory.write: escritura duradera que cambia el estado (POST /memory/write) con estado de distribución explícito y campos de advertencia.
Las tres herramientas devuelven JSON tanto en formato de texto como en forma de carga útil estructurada para compatibilidad con el cliente.
Escribir memoria
curl -X POST "http://127.0.0.1:8075/memory/write" \
-H "Content-Type: application/json" \
-H "x-api-key: ${ORCH_KEY}" \
-d '{
"projectName": "my_project",
"fileName": "notes/decision.md",
"content": "Switched retrieval_mode to balanced for normal runs.",
"topicPath": "runbooks/retrieval"
}'Leer memoria
curl -X POST "http://127.0.0.1:8075/memory/search" \
-H "Content-Type: application/json" \
-H "x-api-key: ${ORCH_KEY}" \
-d '{
"project": "my_project",
"query": "retrieval mode decision",
"topic_path": "runbooks/retrieval",
"include_grounding": true
}'Lectura profunda con metadatos de continuación
curl -X POST "http://127.0.0.1:8075/memory/search" \
-H "Content-Type: application/json" \
-H "x-api-key: ${ORCH_KEY}" \
-d '{
"project": "my_project",
"query": "full architecture context",
"retrieval_mode": "deep",
"include_grounding": true,
"include_retrieval_debug": true
}'Configuración (elementos esenciales seguros para el público)
Establezca solo lo que necesite para la operación normal:
CONTEXTLATTICE_ORCHESTRATOR_URL=http://127.0.0.1:8075
CONTEXTLATTICE_ORCHESTRATOR_API_KEY=<set-by-setup>
NEXTAUTH_URL=http://localhost:3000
NEXTAUTH_SECRET=<long-random-secret>
APP_URL=http://localhost:3000Para obtener una referencia completa de la configuración, utilice .env.example.
Panel de control
UI:
http://127.0.0.1:3000/consoleMapa mental:
http://127.0.0.1:3000/mindmapEstado:
http://127.0.0.1:3000/status
Público vs de pago
Este repositorio rastrea el carril público gratuito (v3.x).
El ajuste premium avanzado, la política de optimización propietaria y los documentos de comercialización privada viven fuera de este carril público.
Documentación
Documentos del sitio web:
https://contextlattice.io/Índice de documentos locales:
docs/Despliegue lite en Hugging Face:
docs/huggingface-space-lite.md
Licencia
Apache 2.0. Ver LICENSE.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/sheawinkler/context-lattice'
If you have feedback or need assistance with the MCP directory API, please join our Discord server