Skip to main content
Glama

ContextLattice

context-lattice MCP server

ContextLattice를 사용하는 이유

ContextLattice는 이전 프로젝트 작업을 고신호의 검색 가능한 컨텍스트로 변환하여 반복적인 추론을 줄여줍니다.

  • 전문 저장소로 팬아웃되는 지속 가능한 메모리 쓰기.

  • 단계별 가져오기 및 실패 시 오픈 컨티뉴에이션(fail-open continuation)을 갖춘 빠르고 깊은 검색 모드.

  • 원시 아티팩트에 대한 드릴다운 경로를 보존하면서 토큰 사용을 효율적으로 유지하는 롤업 우선 컨텍스트.

  • 클라우드 기반 종속성을 선택적으로 포함하는 로컬 우선 배포.

  • HTTP API, MCP 전송 및 운영 대시보드를 통한 인간 및 에이전트 UX.

Related MCP server: Context Fabric

아키텍처 (Public v3 lane)

계층

기본 런타임

책임

게이트웨이/API

Go

/memory/* + /v1/* 오케스트레이션, 단계별 검색 정책, 컨티뉴에이션 수명 주기

검색 + 메모리 서비스

Go + Rust

빠르고 지속 가능한 검색 경로, 롤업 처리, 메모리 뱅크 어댑터

레거시 폴백

Python

호환성 폴백 전용 (기본 핫 경로 아님)

대시보드

TypeScript/Next.js

콘솔, 마인드맵, 상태, 결제, 설정 UX

설치

비기술자를 위한 설치 프로그램

  • macOS DMG: https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-macOS-universal.dmg

  • Linux 번들: https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-linux-bootstrap.tar.gz

  • Windows MSI: https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-windows-x64.msi

개발자 설치

git clone git@github.com:sheawinkler/ContextLattice.git
cd ContextLattice
gmake quickstart

퀵스타트

사전 요구 사항

  • Docker/Compose v2 호환 런타임

  • macOS, Linux 또는 Windows (WSL2)

  • gmake, jq, rg, python3, curl

실행

1) 환경 구성

cp .env.example .env
ln -svf ../../.env infra/compose/.env
gmake quickstart

gmake quickstart는 런타임 프로필을 묻고 합리적인 기본값으로 실행합니다. macOS DMG 부트스트랩에서 실행된 경우 다음도 생성합니다:

  • ~/ContextLattice/setup/agent_contextlattice_instructions.md (클립보드에 복사됨)

  • ~/ContextLattice/setup/agent_smoke_write_read.md (운영자 쓰기/읽기 스모크 체크)

확인

ORCH_KEY="$(awk -F= '/^CONTEXTLATTICE_ORCHESTRATOR_API_KEY=/{print substr($0,index($0,"=")+1)}' .env)"

curl -fsS http://127.0.0.1:8075/health | jq
curl -fsS -H "x-api-key: ${ORCH_KEY}" http://127.0.0.1:8075/status | jq '.service,.sinks'

런타임 프로필

프로필

사용 사례

CPU

RAM

스토리지

lite

노트북 친화적인 로컬 사용

2-4 vCPU

8-12 GB

25-80 GB

full

더 높은 처리량 및 더 깊은 리콜

6-8 vCPU

12-20 GB

100-180 GB

핵심 API 예제

MCP 도구 계약 (Glama-lite / stdio 브리지)

Glama 단일 컨테이너 프로필은 명시적 범위를 가진 세 가지 MCP 도구를 노출합니다:

  • health: 읽기 전용 준비 상태/문제 해결 체크 (GET /health), 부작용 없음.

  • memory.search: 수명 주기 상태(ready|pending|degraded|empty) 및 선택적 접지/디버그 페이로드가 포함된 읽기 전용 범위 검색 (POST /memory/search).

  • memory.write: 명시적 팬아웃 상태 및 경고 필드가 포함된 상태 변경 지속 쓰기 (POST /memory/write).

세 도구 모두 클라이언트 호환성을 위해 텍스트 콘텐츠와 구조화된 페이로드 형식으로 JSON을 반환합니다.

메모리 쓰기

curl -X POST "http://127.0.0.1:8075/memory/write" \
  -H "Content-Type: application/json" \
  -H "x-api-key: ${ORCH_KEY}" \
  -d '{
    "projectName": "my_project",
    "fileName": "notes/decision.md",
    "content": "Switched retrieval_mode to balanced for normal runs.",
    "topicPath": "runbooks/retrieval"
  }'

메모리 읽기

curl -X POST "http://127.0.0.1:8075/memory/search" \
  -H "Content-Type: application/json" \
  -H "x-api-key: ${ORCH_KEY}" \
  -d '{
    "project": "my_project",
    "query": "retrieval mode decision",
    "topic_path": "runbooks/retrieval",
    "include_grounding": true
  }'

컨티뉴에이션 메타데이터를 포함한 심층 읽기

curl -X POST "http://127.0.0.1:8075/memory/search" \
  -H "Content-Type: application/json" \
  -H "x-api-key: ${ORCH_KEY}" \
  -d '{
    "project": "my_project",
    "query": "full architecture context",
    "retrieval_mode": "deep",
    "include_grounding": true,
    "include_retrieval_debug": true
  }'

구성 (공개 가능한 필수 항목)

정상 작동에 필요한 항목만 설정하십시오:

CONTEXTLATTICE_ORCHESTRATOR_URL=http://127.0.0.1:8075
CONTEXTLATTICE_ORCHESTRATOR_API_KEY=<set-by-setup>
NEXTAUTH_URL=http://localhost:3000
NEXTAUTH_SECRET=<long-random-secret>
APP_URL=http://localhost:3000

전체 구성 참조는 .env.example을 사용하십시오.

대시보드

  • UI: http://127.0.0.1:3000/console

  • 마인드맵: http://127.0.0.1:3000/mindmap

  • 상태: http://127.0.0.1:3000/status

공개 버전 vs 유료 버전

이 저장소는 공개 무료 버전(v3.x)을 추적합니다. 고급 프리미엄 튜닝, 독점 최적화 정책 및 비공개 상업화 문서는 이 공개 경로 외부에서 관리됩니다.

문서

  • 웹사이트 문서: https://contextlattice.io/

  • 로컬 문서 인덱스: docs/

  • Hugging Face lite 배포: docs/huggingface-space-lite.md

라이선스

Apache 2.0. LICENSE를 참조하십시오.

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - A tier

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/sheawinkler/context-lattice'

If you have feedback or need assistance with the MCP directory API, please join our Discord server