local-only server
The server can only run on the client’s local machine because it depends on local resources.
Integrations
Used for the default summarization and embedding models required by the server, specifically the snowflake-arctic-embed2 and llama3.1:8b models.
Referenced in the embedding model 'snowflake-arctic-embed2' that is used by default for document embedding.
Servidor LanceDB MCP para LLMS
Un servidor de Protocolo de Contexto de Modelo (MCP) que permite a los LLM interactuar directamente con los documentos que tienen en disco mediante RAG de la agencia y búsqueda híbrida en LanceDB. Plantee preguntas a los LLM sobre el conjunto de datos en su conjunto o sobre documentos específicos.
✨ Características
- 🔍 Catálogo de resumen de documentos e índice vectorial sin servidor impulsado por LanceDB.
- Uso eficiente de tokens LLM. LLM busca lo que necesita, cuando lo necesita.
- 📈 Seguridad. El índice se almacena localmente, por lo que no se transfieren datos a la nube al usar un LLM local.
🚀 Inicio rápido
Para comenzar, cree un directorio local para almacenar el índice y agregue esta configuración a su archivo de configuración de Claude Desktop:
MacOS : ~/Library/Application\ Support/Claude/claude_desktop_config.json
Ventanas : %APPDATA%/Claude/claude_desktop_config.json
Prerrequisitos
- Node.js 18+
- npx
- Cliente MCP (aplicación de escritorio Claude, por ejemplo)
- Modelos de resumen e incrustación instalados (ver config.ts - por defecto usamos modelos Ollama)
ollama pull snowflake-arctic-embed2
ollama pull llama3.1:8b
Manifestación
Modo de desarrollo local:
Utilice npm run build
para compilar el proyecto.
Utilice npx @modelcontextprotocol/inspector dist/index.js PATH_TO_LOCAL_INDEX_DIR
para ejecutar el inspector de herramientas MCP.
Datos de semillas
El script de inicialización crea dos tablas en LanceDB: una para el catálogo de resúmenes de documentos y otra para los fragmentos de documentos vectorizados. Para ejecutar el script de inicialización, utilice el siguiente comando:
Puede usar datos de ejemplo del directorio docs/. Puede ajustar los modelos predeterminados de resumen e incrustación en el archivo config.ts. Si necesita recrear el índice, simplemente vuelva a ejecutar el script de inicialización con la opción --overwrite
.
Catalogar
- Resumen del documento
- Metadatos
Trozos
- Fragmento de documento vectorizado
- Metadatos
🎯 Ejemplos de indicaciones
Pruebe estas indicaciones con Claude para explorar la funcionalidad:
📝 Herramientas disponibles
El servidor proporciona estas herramientas para interactuar con el índice:
Herramientas de catálogo
catalog_search
: Busca documentos relevantes en el catálogo
Herramientas de fragmentos
chunks_search
: busca fragmentos relevantes según un documento específico del catálogoall_chunks_search
: Encuentra fragmentos relevantes de todos los documentos conocidos
📜 Licencia
Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.
This server cannot be installed
Un servidor de Protocolo de Contexto de Modelo (MCP) que permite a los LLM interactuar directamente con los documentos que tienen en disco mediante RAG de la agencia y búsqueda híbrida en LanceDB. Plantee preguntas a los LLM sobre el conjunto de datos en su conjunto o sobre documentos específicos.