local-only server
The server can only run on the client’s local machine because it depends on local resources.
Integrations
Used for the default summarization and embedding models required by the server, specifically the snowflake-arctic-embed2 and llama3.1:8b models.
Referenced in the embedding model 'snowflake-arctic-embed2' that is used by default for document embedding.
🗄️ LLMS용 LanceDB MCP 서버
LLM이 에이전트 기반 RAG 및 LanceDB의 하이브리드 검색을 통해 디스크에 저장된 문서와 직접 상호작용할 수 있도록 하는 모델 컨텍스트 프로토콜(MCP) 서버입니다. LLM에게 데이터세트 전체 또는 특정 문서에 대해 질문할 수 있습니다.
✨ 특징
- 🔍 LanceDB 기반 서버리스 벡터 인덱스 및 문서 요약 카탈로그.
- 📊 LLM 토큰의 효율적인 사용. LLM 자체가 필요할 때 필요한 정보를 직접 조회합니다.
- 📈 보안. 인덱스는 로컬에 저장되므로 로컬 LLM을 사용할 때 데이터가 클라우드로 전송되지 않습니다.
🚀 빠른 시작
시작하려면 인덱스를 저장할 로컬 디렉토리를 만들고 Claude Desktop 구성 파일에 다음 구성을 추가하세요.
MacOS : ~/Library/Application\ Support/Claude/claude_desktop_config.json
윈도우 : %APPDATA%/Claude/claude_desktop_config.json
지엑스피1
필수 조건
- 노드.js 18+
- 엔피엑스
- MCP 클라이언트(예: Claude 데스크톱 앱)
- 요약 및 임베딩 모델이 설치됨(config.ts 참조 - 기본적으로 Ollama 모델을 사용함)
ollama pull snowflake-arctic-embed2
ollama pull llama3.1:8b
데모
로컬 개발 모드:
npm run build
사용하여 프로젝트를 빌드합니다.
npx @modelcontextprotocol/inspector dist/index.js PATH_TO_LOCAL_INDEX_DIR
사용하여 MCP 도구 검사기를 실행합니다.
시드 데이터
시드 스크립트는 LanceDB에 두 개의 테이블을 생성합니다. 하나는 문서 요약 카탈로그용이고, 다른 하나는 벡터화된 문서 청크용입니다. 시드 스크립트를 실행하려면 다음 명령을 사용하세요.
docs/ 디렉터리의 샘플 데이터를 사용할 수 있습니다. config.ts 파일에서 기본 요약 및 임베딩 모델을 자유롭게 조정하세요. 인덱스를 다시 생성해야 하는 경우 --overwrite
옵션을 사용하여 시드 스크립트를 다시 실행하기만 하면 됩니다.
목록
- 문서 요약
- 메타데이터
덩어리
- 벡터화된 문서 청크
- 메타데이터
🎯 예시 프롬프트
Claude와 함께 다음 프롬프트를 시도하여 기능을 살펴보세요.
📝 사용 가능한 도구
서버는 인덱스와의 상호작용을 위해 다음과 같은 도구를 제공합니다.
카탈로그 도구
catalog_search
: 카탈로그에서 관련 문서를 검색합니다.
청크 도구
chunks_search
: 카탈로그에서 특정 문서를 기반으로 관련 청크를 찾습니다.all_chunks_search
: 알려진 모든 문서에서 관련 청크를 찾습니다.
📜 라이센스
이 프로젝트는 MIT 라이선스에 따라 라이선스가 부여되었습니다. 자세한 내용은 라이선스 파일을 참조하세요.
This server cannot be installed
LLM이 에이전트 기반 RAG 및 LanceDB의 하이브리드 검색을 통해 디스크에 저장된 문서와 직접 상호작용할 수 있도록 하는 모델 컨텍스트 프로토콜(MCP) 서버입니다. LLM에게 데이터세트 전체 또는 특정 문서에 대해 질문할 수 있습니다.