Skip to main content
Glama

ContextLattice

context-lattice MCP server

Почему ContextLattice

ContextLattice сокращает количество повторных обращений к модели (inference), превращая результаты предыдущей работы над проектом в высококачественный, извлекаемый контекст.

  • Надежная запись в память с распределением (fanout) по специализированным хранилищам.

  • Режимы быстрого и глубокого поиска с поэтапной выборкой и продолжением при сбоях.

  • Контекст с приоритетом сводных данных (rollup) для эффективного использования токенов при сохранении путей к исходным артефактам.

  • Локальное развертывание с опциональными облачными зависимостями.

  • UX для людей и агентов через HTTP API, транспорт MCP и панель управления операциями.

Related MCP server: Context Fabric

Архитектура (публичная ветка v3)

Уровень

Основная среда выполнения

Ответственность

Шлюз/API

Go

Оркестрация /memory/* + /v1/*, политика поэтапного поиска, жизненный цикл продолжения

Сервисы поиска и памяти

Go + Rust

Каналы быстрого/надежного поиска, обработка сводных данных, адаптеры банков памяти

Устаревший резервный вариант

Python

Только для обеспечения совместимости (не основной путь)

Панель управления

TypeScript/Next.js

Консоль, интеллект-карта, статус, биллинг, UX настройки

Установка

Установка для обычных пользователей

  • macOS DMG: https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-macOS-universal.dmg

  • Linux bundle: https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-linux-bootstrap.tar.gz

  • Windows MSI: https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-windows-x64.msi

Установка для разработчиков

git clone git@github.com:sheawinkler/ContextLattice.git
cd ContextLattice
gmake quickstart

Быстрый старт

Предварительные требования

  • Среда выполнения, совместимая с Docker/Compose v2

  • macOS, Linux или Windows (WSL2)

  • gmake, jq, rg, python3, curl

Запуск

1) Настройка окружения

cp .env.example .env
ln -svf ../../.env infra/compose/.env
gmake quickstart

gmake quickstart запрашивает профиль среды выполнения и запускается с разумными настройками по умолчанию. При запуске из загрузчика macOS DMG также создаются:

  • ~/ContextLattice/setup/agent_contextlattice_instructions.md (скопировано в буфер обмена)

  • ~/ContextLattice/setup/agent_smoke_write_read.md (проверка записи/чтения оператором)

Проверка

ORCH_KEY="$(awk -F= '/^CONTEXTLATTICE_ORCHESTRATOR_API_KEY=/{print substr($0,index($0,"=")+1)}' .env)"

curl -fsS http://127.0.0.1:8075/health | jq
curl -fsS -H "x-api-key: ${ORCH_KEY}" http://127.0.0.1:8075/status | jq '.service,.sinks'

Профили среды выполнения

Профиль

Вариант использования

CPU

RAM

Хранилище

lite

Локальное использование на ноутбуке

2-4 vCPU

8-12 ГБ

25-80 ГБ

full

Более высокая пропускная способность и глубокий поиск

6-8 vCPU

12-20 ГБ

100-180 ГБ

Примеры основных API

Контракт инструментов MCP (Glama-lite / мост stdio)

Профиль Glama в одном контейнере предоставляет три инструмента MCP с явной областью действия:

  • health: проверка готовности/устранение неполадок только для чтения (GET /health), без побочных эффектов.

  • memory.search: поиск с ограниченным доступом только для чтения (POST /memory/search) с состояниями жизненного цикла (ready|pending|degraded|empty) и опциональными полезными данными для отладки.

  • memory.write: надежная запись с изменением состояния (POST /memory/write) с явным статусом распределения и полями предупреждений.

Все три инструмента возвращают JSON как в текстовом виде, так и в виде структурированных данных для совместимости с клиентами.

Запись в память

curl -X POST "http://127.0.0.1:8075/memory/write" \
  -H "Content-Type: application/json" \
  -H "x-api-key: ${ORCH_KEY}" \
  -d '{
    "projectName": "my_project",
    "fileName": "notes/decision.md",
    "content": "Switched retrieval_mode to balanced for normal runs.",
    "topicPath": "runbooks/retrieval"
  }'

Чтение из памяти

curl -X POST "http://127.0.0.1:8075/memory/search" \
  -H "Content-Type: application/json" \
  -H "x-api-key: ${ORCH_KEY}" \
  -d '{
    "project": "my_project",
    "query": "retrieval mode decision",
    "topic_path": "runbooks/retrieval",
    "include_grounding": true
  }'

Глубокое чтение с метаданными продолжения

curl -X POST "http://127.0.0.1:8075/memory/search" \
  -H "Content-Type: application/json" \
  -H "x-api-key: ${ORCH_KEY}" \
  -d '{
    "project": "my_project",
    "query": "full architecture context",
    "retrieval_mode": "deep",
    "include_grounding": true,
    "include_retrieval_debug": true
  }'

Конфигурация (основные параметры для публичного использования)

Устанавливайте только то, что необходимо для нормальной работы:

CONTEXTLATTICE_ORCHESTRATOR_URL=http://127.0.0.1:8075
CONTEXTLATTICE_ORCHESTRATOR_API_KEY=<set-by-setup>
NEXTAUTH_URL=http://localhost:3000
NEXTAUTH_SECRET=<long-random-secret>
APP_URL=http://localhost:3000

Для получения полной справки по конфигурации используйте .env.example.

Панель управления

  • UI: http://127.0.0.1:3000/console

  • Интеллект-карта: http://127.0.0.1:3000/mindmap

  • Статус: http://127.0.0.1:3000/status

Публичная и платная версии

Этот репозиторий отслеживает публичную бесплатную ветку (v3.x). Расширенная премиум-настройка, проприетарная политика оптимизации и документация по частной коммерциализации находятся вне этой публичной ветки.

Документация

  • Документация на сайте: https://contextlattice.io/

  • Индекс локальной документации: docs/

  • Развертывание Hugging Face lite: docs/huggingface-space-lite.md

Лицензия

Apache 2.0. См. LICENSE.

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - A tier

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/sheawinkler/context-lattice'

If you have feedback or need assistance with the MCP directory API, please join our Discord server