Skip to main content
Glama

MCP-Ragdocs

Un servidor de Protocolo de Contexto de Modelo (MCP) que permite la búsqueda semántica y la recuperación de documentación mediante una base de datos vectorial (Qdrant). Este servidor permite añadir documentación desde URL o archivos locales y, posteriormente, buscar en ellos mediante consultas en lenguaje natural.

Guía de instalación rápida

  1. Instalar el paquete globalmente:

    npm install -g @qpd-v/mcp-server-ragdocs
  2. Iniciar Qdrant (usando Docker):

    docker run -p 6333:6333 -p 6334:6334 qdrant/qdrant
  3. Asegúrese de que Ollama se esté ejecutando con el modelo de integración predeterminado:

    ollama pull nomic-embed-text
  4. Añade a tu archivo de configuración:

    • Para Cline: %AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json

    • Para Roo-Code: %AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.json

    • Para Claude Desktop: %AppData%\Claude\claude_desktop_config.json

    { "mcpServers": { "ragdocs": { "command": "node", "args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }
  5. Verificar la instalación:

    # Check Qdrant is running curl http://localhost:6333/collections # Check Ollama has the model ollama list | grep nomic-embed-text

Related MCP server: MCP Server for Qdrant

Versión

Versión actual: 0.1.6

Características

  • Agregar documentación desde URL o archivos locales

  • Almacenar documentación en una base de datos vectorial para búsqueda semántica

  • Busque en la documentación utilizando lenguaje natural

  • Enumere todas las fuentes de documentación

Instalación

Instalar globalmente usando npm:

npm install -g @qpd-v/mcp-server-ragdocs

Esto instalará el servidor en su directorio npm global, que necesitará para los pasos de configuración a continuación.

Requisitos

  • Node.js 16 o superior

  • Qdrant (ya sea local o en la nube)

  • Uno de los siguientes para incrustaciones:

    • Ollama ejecutándose localmente (predeterminado, gratuito)

    • Clave API de OpenAI (opcional, de pago)

Opciones de configuración de Qdrant

Opción 1: Qdrant local

  1. Usando Docker (recomendado):

docker run -p 6333:6333 -p 6334:6334 qdrant/qdrant
  1. O descargar desde el sitio web de Qdrant

Opción 2: Qdrant Cloud

  1. Crea una cuenta en Qdrant Cloud

  2. Crear un nuevo clúster

  3. Obtén la URL de tu clúster y la clave API desde el panel de control

  4. Úsalos en tu configuración (ver la sección Configuración a continuación)

Configuración

El servidor es compatible con Cline/Roo y Claude Desktop. La configuración varía ligeramente entre ellos:

Configuración de Cline

Agregue a su archivo de configuración de Cline ( %AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json ) Y/O Agregue a su archivo de configuración de Roo-Code ( %AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.json ):

  1. Usando npm global install (recomendado):

{ "mcpServers": { "ragdocs": { "command": "node", "args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }

Para OpenAI en lugar de Ollama:

{ "mcpServers": { "ragdocs": { "command": "node", "args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "openai", "OPENAI_API_KEY": "your-openai-api-key" } } } }
  1. Usando la configuración de desarrollo local:

{ "mcpServers": { "ragdocs": { "command": "node", "args": ["PATH_TO_PROJECT/mcp-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }

Configuración del escritorio de Claude

Agregue a su archivo de configuración de Claude Desktop:

  • Ventanas: %AppData%\Claude\claude_desktop_config.json

  • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json

  1. Configuración de Windows con Ollama (usando rutas completas):

{ "mcpServers": { "ragdocs": { "command": "C:\\Program Files\\nodejs\\node.exe", "args": [ "C:\\Users\\YOUR_USERNAME\\AppData\\Roaming\\npm\\node_modules\\@qpd-v/mcp-server-ragdocs\\build\\index.js" ], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }

Configuración de Windows con OpenAI:

{ "mcpServers": { "ragdocs": { "command": "C:\\Program Files\\nodejs\\node.exe", "args": [ "C:\\Users\\YOUR_USERNAME\\AppData\\Roaming\\npm\\node_modules\\@qpd-v/mcp-server-ragdocs\\build\\index.js" ], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "openai", "OPENAI_API_KEY": "your-openai-api-key" } } } }
  1. Configuración de macOS con Ollama:

{ "mcpServers": { "ragdocs": { "command": "/usr/local/bin/node", "args": [ "/usr/local/lib/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js" ], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }

Configuración de Qdrant Cloud

Para Cline o Claude Desktop, al utilizar Qdrant Cloud, modifique la sección env:

Con Ollama:

{ "env": { "QDRANT_URL": "https://your-cluster-url.qdrant.tech", "QDRANT_API_KEY": "your-qdrant-api-key", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } }

Con OpenAI:

{ "env": { "QDRANT_URL": "https://your-cluster-url.qdrant.tech", "QDRANT_API_KEY": "your-qdrant-api-key", "EMBEDDING_PROVIDER": "openai", "OPENAI_API_KEY": "your-openai-api-key" } }

Variables de entorno

Configuración de Qdrant

Configuración de incrustaciones

  • EMBEDDING_PROVIDER (opcional): Elija entre 'ollama' (predeterminado) o 'openai'

  • EMBEDDING_MODEL (opcional):

    • Para Ollama: el valor predeterminado es 'nomic-embed-text'

    • Para OpenAI: el valor predeterminado es 'text-embedding-3-small'

  • OLLAMA_URL (opcional): URL de su instancia de Ollama (el valor predeterminado es http://localhost:11434 )

  • OPENAI_API_KEY (obligatorio si usa OpenAI): Su clave API de OpenAI

Herramientas disponibles

  1. add_documentation

    • Agregar documentación desde una URL a la base de datos RAG

    • Parámetros:

      • url : URL de la documentación a obtener

  2. search_documentation

    • Buscar en la documentación almacenada

    • Parámetros:

      • query : Consulta de búsqueda

      • limit (opcional): número máximo de resultados a devolver (predeterminado: 5)

  3. list_sources

    • Enumere todas las fuentes de documentación almacenadas actualmente

    • No se requieren parámetros

Ejemplo de uso

En Claude Desktop o cualquier otro cliente compatible con MCP:

  1. Añadir documentación:

Add this documentation: https://docs.example.com/api
  1. Buscar documentación:

Search the documentation for information about authentication
  1. Lista de fuentes:

What documentation sources are available?

Desarrollo

  1. Clonar el repositorio:

git clone https://github.com/qpd-v/mcp-server-ragdocs.git cd mcp-server-ragdocs
  1. Instalar dependencias:

npm install
  1. Construir el proyecto:

npm run build
  1. Ejecutar localmente:

npm start

Licencia

Instituto Tecnológico de Massachusetts (MIT)

Solución de problemas

Problemas comunes

  1. Error de conexión de Qdrant

    Error: Failed to connect to Qdrant at http://localhost:6333
    • Comprueba si Docker se está ejecutando

    • Verifique que el contenedor Qdrant se esté ejecutando: docker ps | grep qdrant

    • Intente reiniciar el contenedor

  2. Modelo Ollama desaparecido

    Error: Model nomic-embed-text not found
    • Ejecutar: ollama pull nomic-embed-text

    • Verificar que el modelo esté instalado: ollama list

  3. Problemas con la ruta de configuración

    • Windows: reemplace YOUR_USERNAME con su nombre de usuario real de Windows

    • Comprobar permisos de archivos

    • Verificar que existan las rutas

  4. Problemas de instalación global de npm

    • Intente instalarlo con privilegios de administrador

    • Compruebe que npm esté en PATH: npm -v

    • Verificar la instalación global: npm list -g @qpd-v/mcp-server-ragdocs

Para otros problemas, consulte:

  • Registros de Docker: docker logs $(docker ps -q --filter ancestor=qdrant/qdrant)

  • Estado de Ollama: ollama list

  • Versión de Node.js: node -v (debe ser 16 o superior)

Contribuyendo

¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/qpd-v/mcp-ragdocs'

If you have feedback or need assistance with the MCP directory API, please join our Discord server