Skip to main content
Glama

ContextLattice

servidor MCP context-lattice

Por qué ContextLattice

ContextLattice reduce la inferencia repetida al convertir el trabajo previo del proyecto en contexto recuperable de alta señal.

  • Escrituras de memoria duraderas con distribución (fanout) a almacenes especializados.

  • Modos de recuperación rápida y profunda con obtención por etapas y continuación en caso de fallo.

  • Contexto basado en resúmenes (rollup) para mantener el uso de tokens eficiente mientras se preservan las rutas de desglose hacia artefactos sin procesar.

  • Despliegue de prioridad local con dependencias opcionales respaldadas en la nube.

  • UX para humanos y agentes a través de APIs HTTP, transporte MCP y panel de operaciones.

Related MCP server: Context Fabric

Arquitectura (carril público v3)

Capa

Entorno de ejecución principal

Responsabilidad

Puerta de enlace/API

Go

Orquestación de /memory/* + /v1/*, política de recuperación por etapas, ciclo de vida de continuación

Servicios de recuperación + memoria

Go + Rust

Carriles de recuperación rápida/duradera, manejo de resúmenes, adaptadores de banco de memoria

Respaldo heredado

Python

Solo respaldo de compatibilidad (no es la ruta principal predeterminada)

Panel de control

TypeScript/Next.js

Consola, mapa mental, estado, facturación, UX de configuración

Instalación

Instaladores para usuarios menos técnicos

  • macOS DMG: https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-macOS-universal.dmg

  • Linux bundle: https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-linux-bootstrap.tar.gz

  • Windows MSI: https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-windows-x64.msi

Instalación para desarrolladores

git clone git@github.com:sheawinkler/ContextLattice.git
cd ContextLattice
gmake quickstart

Inicio rápido

Requisitos previos

  • Entorno de ejecución compatible con Docker/Compose v2

  • macOS, Linux o Windows (WSL2)

  • gmake, jq, rg, python3, curl

Lanzamiento

1) Configurar el entorno

cp .env.example .env
ln -svf ../../.env infra/compose/.env
gmake quickstart

gmake quickstart solicita un perfil de ejecución y se inicia con valores predeterminados razonables. Si se inicia desde el bootstrap DMG de macOS, también genera:

  • ~/ContextLattice/setup/agent_contextlattice_instructions.md (copiado al portapapeles)

  • ~/ContextLattice/setup/agent_smoke_write_read.md (verificación de escritura/lectura del operador)

Verificar

ORCH_KEY="$(awk -F= '/^CONTEXTLATTICE_ORCHESTRATOR_API_KEY=/{print substr($0,index($0,"=")+1)}' .env)"

curl -fsS http://127.0.0.1:8075/health | jq
curl -fsS -H "x-api-key: ${ORCH_KEY}" http://127.0.0.1:8075/status | jq '.service,.sinks'

Perfiles de ejecución

Perfil

Caso de uso

CPU

RAM

Almacenamiento

lite

Uso local amigable para portátiles

2-4 vCPU

8-12 GB

25-80 GB

full

Mayor rendimiento y recuperación más profunda

6-8 vCPU

12-20 GB

100-180 GB

Ejemplos de API principal

Contrato de herramientas MCP (Glama-lite / puente stdio)

El perfil de contenedor único de Glama expone tres herramientas MCP con alcance explícito:

  • health: verificación de preparación/solución de problemas de solo lectura (GET /health), sin efectos secundarios.

  • memory.search: recuperación con alcance de solo lectura (POST /memory/search) con estados de ciclo de vida (ready|pending|degraded|empty) y cargas útiles opcionales de fundamentación/depuración.

  • memory.write: escritura duradera que cambia el estado (POST /memory/write) con estado de distribución explícito y campos de advertencia.

Las tres herramientas devuelven JSON tanto en formato de texto como en forma de carga útil estructurada para compatibilidad con el cliente.

Escribir memoria

curl -X POST "http://127.0.0.1:8075/memory/write" \
  -H "Content-Type: application/json" \
  -H "x-api-key: ${ORCH_KEY}" \
  -d '{
    "projectName": "my_project",
    "fileName": "notes/decision.md",
    "content": "Switched retrieval_mode to balanced for normal runs.",
    "topicPath": "runbooks/retrieval"
  }'

Leer memoria

curl -X POST "http://127.0.0.1:8075/memory/search" \
  -H "Content-Type: application/json" \
  -H "x-api-key: ${ORCH_KEY}" \
  -d '{
    "project": "my_project",
    "query": "retrieval mode decision",
    "topic_path": "runbooks/retrieval",
    "include_grounding": true
  }'

Lectura profunda con metadatos de continuación

curl -X POST "http://127.0.0.1:8075/memory/search" \
  -H "Content-Type: application/json" \
  -H "x-api-key: ${ORCH_KEY}" \
  -d '{
    "project": "my_project",
    "query": "full architecture context",
    "retrieval_mode": "deep",
    "include_grounding": true,
    "include_retrieval_debug": true
  }'

Configuración (elementos esenciales seguros para el público)

Establezca solo lo que necesite para la operación normal:

CONTEXTLATTICE_ORCHESTRATOR_URL=http://127.0.0.1:8075
CONTEXTLATTICE_ORCHESTRATOR_API_KEY=<set-by-setup>
NEXTAUTH_URL=http://localhost:3000
NEXTAUTH_SECRET=<long-random-secret>
APP_URL=http://localhost:3000

Para obtener una referencia completa de la configuración, utilice .env.example.

Panel de control

  • UI: http://127.0.0.1:3000/console

  • Mapa mental: http://127.0.0.1:3000/mindmap

  • Estado: http://127.0.0.1:3000/status

Público vs de pago

Este repositorio rastrea el carril público gratuito (v3.x). El ajuste premium avanzado, la política de optimización propietaria y los documentos de comercialización privada viven fuera de este carril público.

Documentación

  • Documentos del sitio web: https://contextlattice.io/

  • Índice de documentos locales: docs/

  • Despliegue lite en Hugging Face: docs/huggingface-space-lite.md

Licencia

Apache 2.0. Ver LICENSE.

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - A tier

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/sheawinkler/context-lattice'

If you have feedback or need assistance with the MCP directory API, please join our Discord server