MCP-Ragdocs
Un servidor de Protocolo de Contexto de Modelo (MCP) que permite la búsqueda semántica y la recuperación de documentación mediante una base de datos vectorial (Qdrant). Este servidor permite añadir documentación desde URL o archivos locales y, posteriormente, buscar en ellos mediante consultas en lenguaje natural.
Guía de instalación rápida
Instalar el paquete globalmente:
npm install -g @qpd-v/mcp-server-ragdocsIniciar Qdrant (usando Docker):
docker run -p 6333:6333 -p 6334:6334 qdrant/qdrantAsegúrese de que Ollama se esté ejecutando con el modelo de integración predeterminado:
ollama pull nomic-embed-textAñade a tu archivo de configuración:
Para Cline:
%AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.jsonPara Roo-Code:
%AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.jsonPara Claude Desktop:
%AppData%\Claude\claude_desktop_config.json
{ "mcpServers": { "ragdocs": { "command": "node", "args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }Verificar la instalación:
# Check Qdrant is running curl http://localhost:6333/collections # Check Ollama has the model ollama list | grep nomic-embed-text
Versión
Versión actual: 0.1.6
Características
Agregar documentación desde URL o archivos locales
Almacenar documentación en una base de datos vectorial para búsqueda semántica
Busque en la documentación utilizando lenguaje natural
Enumere todas las fuentes de documentación
Instalación
Instalar globalmente usando npm:
Esto instalará el servidor en su directorio npm global, que necesitará para los pasos de configuración a continuación.
Requisitos
Node.js 16 o superior
Qdrant (ya sea local o en la nube)
Uno de los siguientes para incrustaciones:
Ollama ejecutándose localmente (predeterminado, gratuito)
Clave API de OpenAI (opcional, de pago)
Opciones de configuración de Qdrant
Opción 1: Qdrant local
Usando Docker (recomendado):
O descargar desde el sitio web de Qdrant
Opción 2: Qdrant Cloud
Crea una cuenta en Qdrant Cloud
Crear un nuevo clúster
Obtén la URL de tu clúster y la clave API desde el panel de control
Úsalos en tu configuración (ver la sección Configuración a continuación)
Configuración
El servidor es compatible con Cline/Roo y Claude Desktop. La configuración varía ligeramente entre ellos:
Configuración de Cline
Agregue a su archivo de configuración de Cline ( %AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json ) Y/O Agregue a su archivo de configuración de Roo-Code ( %AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.json ):
Usando npm global install (recomendado):
Para OpenAI en lugar de Ollama:
Usando la configuración de desarrollo local:
Configuración del escritorio de Claude
Agregue a su archivo de configuración de Claude Desktop:
Ventanas:
%AppData%\Claude\claude_desktop_config.jsonmacOS:
~/Library/Application Support/Claude/claude_desktop_config.json
Configuración de Windows con Ollama (usando rutas completas):
Configuración de Windows con OpenAI:
Configuración de macOS con Ollama:
Configuración de Qdrant Cloud
Para Cline o Claude Desktop, al utilizar Qdrant Cloud, modifique la sección env:
Con Ollama:
Con OpenAI:
Variables de entorno
Configuración de Qdrant
QDRANT_URL(obligatorio): URL de su instancia de QdrantPara local: http://localhost:6333
Para la nube: https://your-cluster-url.qdrant.tech
QDRANT_API_KEY(requerido para la nube): Su clave API de Qdrant Cloud
Configuración de incrustaciones
EMBEDDING_PROVIDER(opcional): Elija entre 'ollama' (predeterminado) o 'openai'EMBEDDING_MODEL(opcional):Para Ollama: el valor predeterminado es 'nomic-embed-text'
Para OpenAI: el valor predeterminado es 'text-embedding-3-small'
OLLAMA_URL(opcional): URL de su instancia de Ollama (el valor predeterminado es http://localhost:11434 )OPENAI_API_KEY(obligatorio si usa OpenAI): Su clave API de OpenAI
Herramientas disponibles
add_documentationAgregar documentación desde una URL a la base de datos RAG
Parámetros:
url: URL de la documentación a obtener
search_documentationBuscar en la documentación almacenada
Parámetros:
query: Consulta de búsquedalimit(opcional): número máximo de resultados a devolver (predeterminado: 5)
list_sourcesEnumere todas las fuentes de documentación almacenadas actualmente
No se requieren parámetros
Ejemplo de uso
En Claude Desktop o cualquier otro cliente compatible con MCP:
Añadir documentación:
Buscar documentación:
Lista de fuentes:
Desarrollo
Clonar el repositorio:
Instalar dependencias:
Construir el proyecto:
Ejecutar localmente:
Licencia
Instituto Tecnológico de Massachusetts (MIT)
Solución de problemas
Problemas comunes
Error de conexión de Qdrant
Error: Failed to connect to Qdrant at http://localhost:6333Comprueba si Docker se está ejecutando
Verifique que el contenedor Qdrant se esté ejecutando:
docker ps | grep qdrantIntente reiniciar el contenedor
Modelo Ollama desaparecido
Error: Model nomic-embed-text not foundEjecutar:
ollama pull nomic-embed-textVerificar que el modelo esté instalado:
ollama list
Problemas con la ruta de configuración
Windows: reemplace
YOUR_USERNAMEcon su nombre de usuario real de WindowsComprobar permisos de archivos
Verificar que existan las rutas
Problemas de instalación global de npm
Intente instalarlo con privilegios de administrador
Compruebe que npm esté en PATH:
npm -vVerificar la instalación global:
npm list -g @qpd-v/mcp-server-ragdocs
Para otros problemas, consulte:
Registros de Docker:
docker logs $(docker ps -q --filter ancestor=qdrant/qdrant)Estado de Ollama:
ollama listVersión de Node.js:
node -v(debe ser 16 o superior)
Contribuyendo
¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Un servidor de Protocolo de Contexto de Modelo (MCP) que permite la búsqueda semántica y la recuperación de documentación mediante una base de datos vectorial (Qdrant). Este servidor permite añadir documentación desde URL o archivos locales y, posteriormente, buscar en ellos mediante consultas en lenguaje natural.
Related MCP Servers
- Asecurity-licenseAqualityThis repository is an example of how to create a MCP server for Qdrant, a vector search engine.Last updated -2962Apache 2.0
- -security-license-qualityA Machine Control Protocol (MCP) server that enables storing and retrieving information from a Qdrant vector database with semantic search capabilities.Last updated -
- Asecurity-licenseAqualityA Model Context Protocol server that enables semantic search capabilities by providing tools to manage Qdrant vector database collections, process and embed documents using various embedding services, and perform semantic searches across vector embeddings.Last updated -417MIT License
- -security-license-qualityA Model Context Protocol (MCP) server that scrapes, indexes, and searches documentation for third-party software libraries and packages, supporting versioning and hybrid search.Last updated -542722MIT License