Servidor LanceDB MCP para LLMS
Un servidor de Protocolo de Contexto de Modelo (MCP) que permite a los LLM interactuar directamente con los documentos que tienen en disco mediante RAG de la agencia y búsqueda híbrida en LanceDB. Plantee preguntas a los LLM sobre el conjunto de datos en su conjunto o sobre documentos específicos.
✨ Características
- 🔍 Catálogo de resumen de documentos e índice vectorial sin servidor impulsado por LanceDB.
- Uso eficiente de tokens LLM. LLM busca lo que necesita, cuando lo necesita.
- 📈 Seguridad. El índice se almacena localmente, por lo que no se transfieren datos a la nube al usar un LLM local.
🚀 Inicio rápido
Para comenzar, cree un directorio local para almacenar el índice y agregue esta configuración a su archivo de configuración de Claude Desktop:
MacOS : ~/Library/Application\ Support/Claude/claude_desktop_config.json
Ventanas : %APPDATA%/Claude/claude_desktop_config.json
Prerrequisitos
- Node.js 18+
- npx
- Cliente MCP (aplicación de escritorio Claude, por ejemplo)
- Modelos de resumen e incrustación instalados (ver config.ts - por defecto usamos modelos Ollama)
ollama pull snowflake-arctic-embed2
ollama pull llama3.1:8b
Manifestación
Modo de desarrollo local:
Utilice npm run build
para compilar el proyecto.
Utilice npx @modelcontextprotocol/inspector dist/index.js PATH_TO_LOCAL_INDEX_DIR
para ejecutar el inspector de herramientas MCP.
Datos de semillas
El script de inicialización crea dos tablas en LanceDB: una para el catálogo de resúmenes de documentos y otra para los fragmentos de documentos vectorizados. Para ejecutar el script de inicialización, utilice el siguiente comando:
Puede usar datos de ejemplo del directorio docs/. Puede ajustar los modelos predeterminados de resumen e incrustación en el archivo config.ts. Si necesita recrear el índice, simplemente vuelva a ejecutar el script de inicialización con la opción --overwrite
.
Catalogar
- Resumen del documento
- Metadatos
Trozos
- Fragmento de documento vectorizado
- Metadatos
🎯 Ejemplos de indicaciones
Pruebe estas indicaciones con Claude para explorar la funcionalidad:
📝 Herramientas disponibles
El servidor proporciona estas herramientas para interactuar con el índice:
Herramientas de catálogo
catalog_search
: Busca documentos relevantes en el catálogo
Herramientas de fragmentos
chunks_search
: busca fragmentos relevantes según un documento específico del catálogoall_chunks_search
: Encuentra fragmentos relevantes de todos los documentos conocidos
📜 Licencia
Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.
This server cannot be installed
local-only server
The server can only run on the client's local machine because it depends on local resources.
Un servidor de Protocolo de Contexto de Modelo (MCP) que permite a los LLM interactuar directamente con los documentos que tienen en disco mediante RAG de la agencia y búsqueda híbrida en LanceDB. Plantee preguntas a los LLM sobre el conjunto de datos en su conjunto o sobre documentos específicos.
Related Resources
Related MCP Servers
- -securityAlicense-qualityA Model Context Protocol (MCP) server that enables LLMs to interact directly with MongoDB databases. Query collections, inspect schemas, and manage data seamlessly through natural language.Last updated -34075TypeScriptMIT License
- -securityAlicense-qualityA Model Context Protocol (MCP) compliant server that allows Large Language Models (LLMs) to search and retrieve content from microCMS APIs.Last updated -TypeScriptMIT License
- -securityAlicense-qualityA Model Context Protocol (MCP) server that enables Claude or other LLMs to fetch content from URLs, supporting HTML, JSON, text, and images with configurable request parameters.Last updated -PythonMIT License
- -securityAlicense-qualityA Model Context Protocol (MCP) server that enables LLMs to interact directly with MongoDB databases, allowing them to query collections, inspect schemas, and manage data seamlessly through natural language.Last updated -340MIT License