mcp-lancedb

local-only server

The server can only run on the client’s local machine because it depends on local resources.

Integrations

  • Used for the default summarization and embedding models required by the server, specifically the snowflake-arctic-embed2 and llama3.1:8b models.

  • Referenced in the embedding model 'snowflake-arctic-embed2' that is used by default for document embedding.

Servidor LanceDB MCP para LLMS

Un servidor de Protocolo de Contexto de Modelo (MCP) que permite a los LLM interactuar directamente con los documentos que tienen en disco mediante RAG de la agencia y búsqueda híbrida en LanceDB. Plantee preguntas a los LLM sobre el conjunto de datos en su conjunto o sobre documentos específicos.

✨ Características

  • 🔍 Catálogo de resumen de documentos e índice vectorial sin servidor impulsado por LanceDB.
  • Uso eficiente de tokens LLM. LLM busca lo que necesita, cuando lo necesita.
  • 📈 Seguridad. El índice se almacena localmente, por lo que no se transfieren datos a la nube al usar un LLM local.

🚀 Inicio rápido

Para comenzar, cree un directorio local para almacenar el índice y agregue esta configuración a su archivo de configuración de Claude Desktop:

MacOS : ~/Library/Application\ Support/Claude/claude_desktop_config.json
Ventanas : %APPDATA%/Claude/claude_desktop_config.json

{ "mcpServers": { "lancedb": { "command": "npx", "args": [ "lance-mcp", "PATH_TO_LOCAL_INDEX_DIR" ] } } }

Prerrequisitos

  • Node.js 18+
  • npx
  • Cliente MCP (aplicación de escritorio Claude, por ejemplo)
  • Modelos de resumen e incrustación instalados (ver config.ts - por defecto usamos modelos Ollama)
    • ollama pull snowflake-arctic-embed2
    • ollama pull llama3.1:8b

Manifestación

Modo de desarrollo local:

{ "mcpServers": { "lancedb": { "command": "node", "args": [ "PATH_TO_LANCE_MCP/dist/index.js", "PATH_TO_LOCAL_INDEX_DIR" ] } } }

Utilice npm run build para compilar el proyecto.

Utilice npx @modelcontextprotocol/inspector dist/index.js PATH_TO_LOCAL_INDEX_DIR para ejecutar el inspector de herramientas MCP.

Datos de semillas

El script de inicialización crea dos tablas en LanceDB: una para el catálogo de resúmenes de documentos y otra para los fragmentos de documentos vectorizados. Para ejecutar el script de inicialización, utilice el siguiente comando:

npm run seed -- --dbpath <PATH_TO_LOCAL_INDEX_DIR> --filesdir <PATH_TO_DOCS>

Puede usar datos de ejemplo del directorio docs/. Puede ajustar los modelos predeterminados de resumen e incrustación en el archivo config.ts. Si necesita recrear el índice, simplemente vuelva a ejecutar el script de inicialización con la opción --overwrite .

Catalogar

  • Resumen del documento
  • Metadatos

Trozos

  • Fragmento de documento vectorizado
  • Metadatos

🎯 Ejemplos de indicaciones

Pruebe estas indicaciones con Claude para explorar la funcionalidad:

"What documents do we have in the catalog?" "Why is the US healthcare system so broken?"

📝 Herramientas disponibles

El servidor proporciona estas herramientas para interactuar con el índice:

  • catalog_search : Busca documentos relevantes en el catálogo

Herramientas de fragmentos

  • chunks_search : busca fragmentos relevantes según un documento específico del catálogo
  • all_chunks_search : Encuentra fragmentos relevantes de todos los documentos conocidos

📜 Licencia

Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.

-
security - not tested
A
license - permissive license
-
quality - not tested

Un servidor de Protocolo de Contexto de Modelo (MCP) que permite a los LLM interactuar directamente con los documentos que tienen en disco mediante RAG de la agencia y búsqueda híbrida en LanceDB. Plantee preguntas a los LLM sobre el conjunto de datos en su conjunto o sobre documentos específicos.

  1. ✨ Features
    1. 🚀 Quick Start
      1. Prerequisites
      2. Demo
      3. Seed Data
    2. 🎯 Example Prompts
      1. 📝 Available Tools
        1. Catalog Tools
        2. Chunks Tools
      2. 📜 License
        ID: o4jvc7co6v