ContextLattice
ContextLattice
Почему ContextLattice
ContextLattice сокращает количество повторных обращений к модели (inference), превращая результаты предыдущей работы над проектом в высококачественный, извлекаемый контекст.
Надежная запись в память с распределением (fanout) по специализированным хранилищам.
Режимы быстрого и глубокого поиска с поэтапной выборкой и продолжением при сбоях.
Контекст с приоритетом сводных данных (rollup) для эффективного использования токенов при сохранении путей к исходным артефактам.
Локальное развертывание с опциональными облачными зависимостями.
UX для людей и агентов через HTTP API, транспорт MCP и панель управления операциями.
Related MCP server: Context Fabric
Архитектура (публичная ветка v3)
Уровень | Основная среда выполнения | Ответственность |
Шлюз/API | Go | Оркестрация |
Сервисы поиска и памяти | Go + Rust | Каналы быстрого/надежного поиска, обработка сводных данных, адаптеры банков памяти |
Устаревший резервный вариант | Python | Только для обеспечения совместимости (не основной путь) |
Панель управления | TypeScript/Next.js | Консоль, интеллект-карта, статус, биллинг, UX настройки |
Установка
Установка для обычных пользователей
macOS DMG:
https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-macOS-universal.dmgLinux bundle:
https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-linux-bootstrap.tar.gzWindows MSI:
https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-windows-x64.msi
Установка для разработчиков
git clone git@github.com:sheawinkler/ContextLattice.git
cd ContextLattice
gmake quickstartБыстрый старт
Предварительные требования
Среда выполнения, совместимая с Docker/Compose v2
macOS, Linux или Windows (WSL2)
gmake,jq,rg,python3,curl
Запуск
1) Настройка окружения
cp .env.example .env
ln -svf ../../.env infra/compose/.env
gmake quickstartgmake quickstart запрашивает профиль среды выполнения и запускается с разумными настройками по умолчанию.
При запуске из загрузчика macOS DMG также создаются:
~/ContextLattice/setup/agent_contextlattice_instructions.md(скопировано в буфер обмена)~/ContextLattice/setup/agent_smoke_write_read.md(проверка записи/чтения оператором)
Проверка
ORCH_KEY="$(awk -F= '/^CONTEXTLATTICE_ORCHESTRATOR_API_KEY=/{print substr($0,index($0,"=")+1)}' .env)"
curl -fsS http://127.0.0.1:8075/health | jq
curl -fsS -H "x-api-key: ${ORCH_KEY}" http://127.0.0.1:8075/status | jq '.service,.sinks'Профили среды выполнения
Профиль | Вариант использования | CPU | RAM | Хранилище |
| Локальное использование на ноутбуке | 2-4 vCPU | 8-12 ГБ | 25-80 ГБ |
| Более высокая пропускная способность и глубокий поиск | 6-8 vCPU | 12-20 ГБ | 100-180 ГБ |
Примеры основных API
Контракт инструментов MCP (Glama-lite / мост stdio)
Профиль Glama в одном контейнере предоставляет три инструмента MCP с явной областью действия:
health: проверка готовности/устранение неполадок только для чтения (GET /health), без побочных эффектов.memory.search: поиск с ограниченным доступом только для чтения (POST /memory/search) с состояниями жизненного цикла (ready|pending|degraded|empty) и опциональными полезными данными для отладки.memory.write: надежная запись с изменением состояния (POST /memory/write) с явным статусом распределения и полями предупреждений.
Все три инструмента возвращают JSON как в текстовом виде, так и в виде структурированных данных для совместимости с клиентами.
Запись в память
curl -X POST "http://127.0.0.1:8075/memory/write" \
-H "Content-Type: application/json" \
-H "x-api-key: ${ORCH_KEY}" \
-d '{
"projectName": "my_project",
"fileName": "notes/decision.md",
"content": "Switched retrieval_mode to balanced for normal runs.",
"topicPath": "runbooks/retrieval"
}'Чтение из памяти
curl -X POST "http://127.0.0.1:8075/memory/search" \
-H "Content-Type: application/json" \
-H "x-api-key: ${ORCH_KEY}" \
-d '{
"project": "my_project",
"query": "retrieval mode decision",
"topic_path": "runbooks/retrieval",
"include_grounding": true
}'Глубокое чтение с метаданными продолжения
curl -X POST "http://127.0.0.1:8075/memory/search" \
-H "Content-Type: application/json" \
-H "x-api-key: ${ORCH_KEY}" \
-d '{
"project": "my_project",
"query": "full architecture context",
"retrieval_mode": "deep",
"include_grounding": true,
"include_retrieval_debug": true
}'Конфигурация (основные параметры для публичного использования)
Устанавливайте только то, что необходимо для нормальной работы:
CONTEXTLATTICE_ORCHESTRATOR_URL=http://127.0.0.1:8075
CONTEXTLATTICE_ORCHESTRATOR_API_KEY=<set-by-setup>
NEXTAUTH_URL=http://localhost:3000
NEXTAUTH_SECRET=<long-random-secret>
APP_URL=http://localhost:3000Для получения полной справки по конфигурации используйте .env.example.
Панель управления
UI:
http://127.0.0.1:3000/consoleИнтеллект-карта:
http://127.0.0.1:3000/mindmapСтатус:
http://127.0.0.1:3000/status
Публичная и платная версии
Этот репозиторий отслеживает публичную бесплатную ветку (v3.x).
Расширенная премиум-настройка, проприетарная политика оптимизации и документация по частной коммерциализации находятся вне этой публичной ветки.
Документация
Документация на сайте:
https://contextlattice.io/Индекс локальной документации:
docs/Развертывание Hugging Face lite:
docs/huggingface-space-lite.md
Лицензия
Apache 2.0. См. LICENSE.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/sheawinkler/context-lattice'
If you have feedback or need assistance with the MCP directory API, please join our Discord server