ContextLattice
ContextLattice
ContextLattice를 사용하는 이유
ContextLattice는 이전 프로젝트 작업을 고신호의 검색 가능한 컨텍스트로 변환하여 반복적인 추론을 줄여줍니다.
전문 저장소로 팬아웃되는 지속 가능한 메모리 쓰기.
단계별 가져오기 및 실패 시 오픈 컨티뉴에이션(fail-open continuation)을 갖춘 빠르고 깊은 검색 모드.
원시 아티팩트에 대한 드릴다운 경로를 보존하면서 토큰 사용을 효율적으로 유지하는 롤업 우선 컨텍스트.
클라우드 기반 종속성을 선택적으로 포함하는 로컬 우선 배포.
HTTP API, MCP 전송 및 운영 대시보드를 통한 인간 및 에이전트 UX.
Related MCP server: Context Fabric
아키텍처 (Public v3 lane)
계층 | 기본 런타임 | 책임 |
게이트웨이/API | Go |
|
검색 + 메모리 서비스 | Go + Rust | 빠르고 지속 가능한 검색 경로, 롤업 처리, 메모리 뱅크 어댑터 |
레거시 폴백 | Python | 호환성 폴백 전용 (기본 핫 경로 아님) |
대시보드 | TypeScript/Next.js | 콘솔, 마인드맵, 상태, 결제, 설정 UX |
설치
비기술자를 위한 설치 프로그램
macOS DMG:
https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-macOS-universal.dmgLinux 번들:
https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-linux-bootstrap.tar.gzWindows MSI:
https://github.com/sheawinkler/ContextLattice/releases/latest/download/ContextLattice-windows-x64.msi
개발자 설치
git clone git@github.com:sheawinkler/ContextLattice.git
cd ContextLattice
gmake quickstart퀵스타트
사전 요구 사항
Docker/Compose v2 호환 런타임
macOS, Linux 또는 Windows (WSL2)
gmake,jq,rg,python3,curl
실행
1) 환경 구성
cp .env.example .env
ln -svf ../../.env infra/compose/.env
gmake quickstartgmake quickstart는 런타임 프로필을 묻고 합리적인 기본값으로 실행합니다.
macOS DMG 부트스트랩에서 실행된 경우 다음도 생성합니다:
~/ContextLattice/setup/agent_contextlattice_instructions.md(클립보드에 복사됨)~/ContextLattice/setup/agent_smoke_write_read.md(운영자 쓰기/읽기 스모크 체크)
확인
ORCH_KEY="$(awk -F= '/^CONTEXTLATTICE_ORCHESTRATOR_API_KEY=/{print substr($0,index($0,"=")+1)}' .env)"
curl -fsS http://127.0.0.1:8075/health | jq
curl -fsS -H "x-api-key: ${ORCH_KEY}" http://127.0.0.1:8075/status | jq '.service,.sinks'런타임 프로필
프로필 | 사용 사례 | CPU | RAM | 스토리지 |
| 노트북 친화적인 로컬 사용 | 2-4 vCPU | 8-12 GB | 25-80 GB |
| 더 높은 처리량 및 더 깊은 리콜 | 6-8 vCPU | 12-20 GB | 100-180 GB |
핵심 API 예제
MCP 도구 계약 (Glama-lite / stdio 브리지)
Glama 단일 컨테이너 프로필은 명시적 범위를 가진 세 가지 MCP 도구를 노출합니다:
health: 읽기 전용 준비 상태/문제 해결 체크 (GET /health), 부작용 없음.memory.search: 수명 주기 상태(ready|pending|degraded|empty) 및 선택적 접지/디버그 페이로드가 포함된 읽기 전용 범위 검색 (POST /memory/search).memory.write: 명시적 팬아웃 상태 및 경고 필드가 포함된 상태 변경 지속 쓰기 (POST /memory/write).
세 도구 모두 클라이언트 호환성을 위해 텍스트 콘텐츠와 구조화된 페이로드 형식으로 JSON을 반환합니다.
메모리 쓰기
curl -X POST "http://127.0.0.1:8075/memory/write" \
-H "Content-Type: application/json" \
-H "x-api-key: ${ORCH_KEY}" \
-d '{
"projectName": "my_project",
"fileName": "notes/decision.md",
"content": "Switched retrieval_mode to balanced for normal runs.",
"topicPath": "runbooks/retrieval"
}'메모리 읽기
curl -X POST "http://127.0.0.1:8075/memory/search" \
-H "Content-Type: application/json" \
-H "x-api-key: ${ORCH_KEY}" \
-d '{
"project": "my_project",
"query": "retrieval mode decision",
"topic_path": "runbooks/retrieval",
"include_grounding": true
}'컨티뉴에이션 메타데이터를 포함한 심층 읽기
curl -X POST "http://127.0.0.1:8075/memory/search" \
-H "Content-Type: application/json" \
-H "x-api-key: ${ORCH_KEY}" \
-d '{
"project": "my_project",
"query": "full architecture context",
"retrieval_mode": "deep",
"include_grounding": true,
"include_retrieval_debug": true
}'구성 (공개 가능한 필수 항목)
정상 작동에 필요한 항목만 설정하십시오:
CONTEXTLATTICE_ORCHESTRATOR_URL=http://127.0.0.1:8075
CONTEXTLATTICE_ORCHESTRATOR_API_KEY=<set-by-setup>
NEXTAUTH_URL=http://localhost:3000
NEXTAUTH_SECRET=<long-random-secret>
APP_URL=http://localhost:3000전체 구성 참조는 .env.example을 사용하십시오.
대시보드
UI:
http://127.0.0.1:3000/console마인드맵:
http://127.0.0.1:3000/mindmap상태:
http://127.0.0.1:3000/status
공개 버전 vs 유료 버전
이 저장소는 공개 무료 버전(v3.x)을 추적합니다.
고급 프리미엄 튜닝, 독점 최적화 정책 및 비공개 상업화 문서는 이 공개 경로 외부에서 관리됩니다.
문서
웹사이트 문서:
https://contextlattice.io/로컬 문서 인덱스:
docs/Hugging Face lite 배포:
docs/huggingface-space-lite.md
라이선스
Apache 2.0. LICENSE를 참조하십시오.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/sheawinkler/context-lattice'
If you have feedback or need assistance with the MCP directory API, please join our Discord server