Skip to main content
Glama

Servidor LanceDB MCP para LLMS

Node.js 18+ Licencia: MIT

Un servidor de Protocolo de Contexto de Modelo (MCP) que permite a los LLM interactuar directamente con los documentos que tienen en disco mediante RAG de la agencia y búsqueda híbrida en LanceDB. Plantee preguntas a los LLM sobre el conjunto de datos en su conjunto o sobre documentos específicos.

✨ Características

  • 🔍 Catálogo de resumen de documentos e índice vectorial sin servidor impulsado por LanceDB.

  • Uso eficiente de tokens LLM. LLM busca lo que necesita, cuando lo necesita.

  • 📈 Seguridad. El índice se almacena localmente, por lo que no se transfieren datos a la nube al usar un LLM local.

Related MCP server: Osmosis

🚀 Inicio rápido

Para comenzar, cree un directorio local para almacenar el índice y agregue esta configuración a su archivo de configuración de Claude Desktop:

MacOS : ~/Library/Application\ Support/Claude/claude_desktop_config.json
Ventanas : %APPDATA%/Claude/claude_desktop_config.json

{ "mcpServers": { "lancedb": { "command": "npx", "args": [ "lance-mcp", "PATH_TO_LOCAL_INDEX_DIR" ] } } }

Prerrequisitos

  • Node.js 18+

  • npx

  • Cliente MCP (aplicación de escritorio Claude, por ejemplo)

  • Modelos de resumen e incrustación instalados (ver config.ts - por defecto usamos modelos Ollama)

    • ollama pull snowflake-arctic-embed2

    • ollama pull llama3.1:8b

Manifestación

Modo de desarrollo local:

{ "mcpServers": { "lancedb": { "command": "node", "args": [ "PATH_TO_LANCE_MCP/dist/index.js", "PATH_TO_LOCAL_INDEX_DIR" ] } } }

Utilice npm run build para compilar el proyecto.

Utilice npx @modelcontextprotocol/inspector dist/index.js PATH_TO_LOCAL_INDEX_DIR para ejecutar el inspector de herramientas MCP.

Datos de semillas

El script de inicialización crea dos tablas en LanceDB: una para el catálogo de resúmenes de documentos y otra para los fragmentos de documentos vectorizados. Para ejecutar el script de inicialización, utilice el siguiente comando:

npm run seed -- --dbpath <PATH_TO_LOCAL_INDEX_DIR> --filesdir <PATH_TO_DOCS>

Puede usar datos de ejemplo del directorio docs/. Puede ajustar los modelos predeterminados de resumen e incrustación en el archivo config.ts. Si necesita recrear el índice, simplemente vuelva a ejecutar el script de inicialización con la opción --overwrite .

Catalogar

  • Resumen del documento

  • Metadatos

Trozos

  • Fragmento de documento vectorizado

  • Metadatos

🎯 Ejemplos de indicaciones

Pruebe estas indicaciones con Claude para explorar la funcionalidad:

"What documents do we have in the catalog?" "Why is the US healthcare system so broken?"

📝 Herramientas disponibles

El servidor proporciona estas herramientas para interactuar con el índice:

  • catalog_search : Busca documentos relevantes en el catálogo

Herramientas de fragmentos

  • chunks_search : busca fragmentos relevantes según un documento específico del catálogo

  • all_chunks_search : Encuentra fragmentos relevantes de todos los documentos conocidos

📜 Licencia

Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/adiom-data/lance-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server