MCP-Ragdocs

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

Integrations

  • Uses Ollama's embedding models (particularly nomic-embed-text) for creating vector embeddings for documentation search

  • Can use OpenAI's embedding models as an alternative to Ollama for creating vector embeddings for documentation search

MCP-Ragdocs

Un servidor de Protocolo de Contexto de Modelo (MCP) que permite la búsqueda semántica y la recuperación de documentación mediante una base de datos vectorial (Qdrant). Este servidor permite añadir documentación desde URL o archivos locales y, posteriormente, buscar en ellos mediante consultas en lenguaje natural.

Guía de instalación rápida

  1. Instalar el paquete globalmente:
    npm install -g @qpd-v/mcp-server-ragdocs
  2. Iniciar Qdrant (usando Docker):
    docker run -p 6333:6333 -p 6334:6334 qdrant/qdrant
  3. Asegúrese de que Ollama se esté ejecutando con el modelo de integración predeterminado:
    ollama pull nomic-embed-text
  4. Añade a tu archivo de configuración:
    • Para Cline: %AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json
    • Para Roo-Code: %AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.json
    • Para Claude Desktop: %AppData%\Claude\claude_desktop_config.json
    { "mcpServers": { "ragdocs": { "command": "node", "args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }
  5. Verificar la instalación:
    # Check Qdrant is running curl http://localhost:6333/collections # Check Ollama has the model ollama list | grep nomic-embed-text

Versión

Versión actual: 0.1.6

Características

  • Agregar documentación desde URL o archivos locales
  • Almacenar documentación en una base de datos vectorial para búsqueda semántica
  • Busque en la documentación utilizando lenguaje natural
  • Enumere todas las fuentes de documentación

Instalación

Instalar globalmente usando npm:

npm install -g @qpd-v/mcp-server-ragdocs

Esto instalará el servidor en su directorio npm global, que necesitará para los pasos de configuración a continuación.

Requisitos

  • Node.js 16 o superior
  • Qdrant (ya sea local o en la nube)
  • Uno de los siguientes para incrustaciones:
    • Ollama ejecutándose localmente (predeterminado, gratuito)
    • Clave API de OpenAI (opcional, de pago)

Opciones de configuración de Qdrant

Opción 1: Qdrant local

  1. Usando Docker (recomendado):
docker run -p 6333:6333 -p 6334:6334 qdrant/qdrant
  1. O descargar desde el sitio web de Qdrant

Opción 2: Qdrant Cloud

  1. Crea una cuenta en Qdrant Cloud
  2. Crear un nuevo clúster
  3. Obtén la URL de tu clúster y la clave API desde el panel de control
  4. Úsalos en tu configuración (ver la sección Configuración a continuación)

Configuración

El servidor es compatible con Cline/Roo y Claude Desktop. La configuración varía ligeramente entre ellos:

Configuración de Cline

Agregue a su archivo de configuración de Cline ( %AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json ) Y/O Agregue a su archivo de configuración de Roo-Code ( %AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.json ):

  1. Usando npm global install (recomendado):
{ "mcpServers": { "ragdocs": { "command": "node", "args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }

Para OpenAI en lugar de Ollama:

{ "mcpServers": { "ragdocs": { "command": "node", "args": ["C:/Users/YOUR_USERNAME/AppData/Roaming/npm/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "openai", "OPENAI_API_KEY": "your-openai-api-key" } } } }
  1. Usando la configuración de desarrollo local:
{ "mcpServers": { "ragdocs": { "command": "node", "args": ["PATH_TO_PROJECT/mcp-ragdocs/build/index.js"], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }

Configuración del escritorio de Claude

Agregue a su archivo de configuración de Claude Desktop:

  • Ventanas: %AppData%\Claude\claude_desktop_config.json
  • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
  1. Configuración de Windows con Ollama (usando rutas completas):
{ "mcpServers": { "ragdocs": { "command": "C:\\Program Files\\nodejs\\node.exe", "args": [ "C:\\Users\\YOUR_USERNAME\\AppData\\Roaming\\npm\\node_modules\\@qpd-v/mcp-server-ragdocs\\build\\index.js" ], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }

Configuración de Windows con OpenAI:

{ "mcpServers": { "ragdocs": { "command": "C:\\Program Files\\nodejs\\node.exe", "args": [ "C:\\Users\\YOUR_USERNAME\\AppData\\Roaming\\npm\\node_modules\\@qpd-v/mcp-server-ragdocs\\build\\index.js" ], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "openai", "OPENAI_API_KEY": "your-openai-api-key" } } } }
  1. Configuración de macOS con Ollama:
{ "mcpServers": { "ragdocs": { "command": "/usr/local/bin/node", "args": [ "/usr/local/lib/node_modules/@qpd-v/mcp-server-ragdocs/build/index.js" ], "env": { "QDRANT_URL": "http://127.0.0.1:6333", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } } } }

Configuración de Qdrant Cloud

Para Cline o Claude Desktop, al utilizar Qdrant Cloud, modifique la sección env:

Con Ollama:

{ "env": { "QDRANT_URL": "https://your-cluster-url.qdrant.tech", "QDRANT_API_KEY": "your-qdrant-api-key", "EMBEDDING_PROVIDER": "ollama", "OLLAMA_URL": "http://localhost:11434" } }

Con OpenAI:

{ "env": { "QDRANT_URL": "https://your-cluster-url.qdrant.tech", "QDRANT_API_KEY": "your-qdrant-api-key", "EMBEDDING_PROVIDER": "openai", "OPENAI_API_KEY": "your-openai-api-key" } }

Variables de entorno

Configuración de Qdrant

Configuración de incrustaciones

  • EMBEDDING_PROVIDER (opcional): Elija entre 'ollama' (predeterminado) o 'openai'
  • EMBEDDING_MODEL (opcional):
    • Para Ollama: el valor predeterminado es 'nomic-embed-text'
    • Para OpenAI: el valor predeterminado es 'text-embedding-3-small'
  • OLLAMA_URL (opcional): URL de su instancia de Ollama (el valor predeterminado es http://localhost:11434 )
  • OPENAI_API_KEY (obligatorio si usa OpenAI): Su clave API de OpenAI

Herramientas disponibles

  1. add_documentation
    • Agregar documentación desde una URL a la base de datos RAG
    • Parámetros:
      • url : URL de la documentación a obtener
  2. search_documentation
    • Buscar en la documentación almacenada
    • Parámetros:
      • query : Consulta de búsqueda
      • limit (opcional): número máximo de resultados a devolver (predeterminado: 5)
  3. list_sources
    • Enumere todas las fuentes de documentación almacenadas actualmente
    • No se requieren parámetros

Ejemplo de uso

En Claude Desktop o cualquier otro cliente compatible con MCP:

  1. Añadir documentación:
Add this documentation: https://docs.example.com/api
  1. Buscar documentación:
Search the documentation for information about authentication
  1. Lista de fuentes:
What documentation sources are available?

Desarrollo

  1. Clonar el repositorio:
git clone https://github.com/qpd-v/mcp-server-ragdocs.git cd mcp-server-ragdocs
  1. Instalar dependencias:
npm install
  1. Construir el proyecto:
npm run build
  1. Ejecutar localmente:
npm start

Licencia

Instituto Tecnológico de Massachusetts (MIT)

Solución de problemas

Problemas comunes

  1. Error de conexión de Qdrant
    Error: Failed to connect to Qdrant at http://localhost:6333
    • Comprueba si Docker se está ejecutando
    • Verifique que el contenedor Qdrant se esté ejecutando: docker ps | grep qdrant
    • Intente reiniciar el contenedor
  2. Modelo Ollama desaparecido
    Error: Model nomic-embed-text not found
    • Ejecutar: ollama pull nomic-embed-text
    • Verificar que el modelo esté instalado: ollama list
  3. Problemas con la ruta de configuración
    • Windows: reemplace YOUR_USERNAME con su nombre de usuario real de Windows
    • Comprobar permisos de archivos
    • Verificar que existan las rutas
  4. Problemas de instalación global de npm
    • Intente instalarlo con privilegios de administrador
    • Compruebe que npm esté en PATH: npm -v
    • Verificar la instalación global: npm list -g @qpd-v/mcp-server-ragdocs

Para otros problemas, consulte:

  • Registros de Docker: docker logs $(docker ps -q --filter ancestor=qdrant/qdrant)
  • Estado de Ollama: ollama list
  • Versión de Node.js: node -v (debe ser 16 o superior)

Contribuyendo

¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.

-
security - not tested
A
license - permissive license
-
quality - not tested

Un servidor de Protocolo de Contexto de Modelo (MCP) que permite la búsqueda semántica y la recuperación de documentación mediante una base de datos vectorial (Qdrant). Este servidor permite añadir documentación desde URL o archivos locales y, posteriormente, buscar en ellos mediante consultas en lenguaje natural.

  1. Quick Install Guide
    1. Version
      1. Features
        1. Installation
          1. Requirements
            1. Qdrant Setup Options
              1. Option 1: Local Qdrant
              2. Option 2: Qdrant Cloud
            2. Configuration
              1. Cline Configuration
              2. Claude Desktop Configuration
              3. Qdrant Cloud Configuration
              4. Environment Variables
            3. Available Tools
              1. Example Usage
                1. Development
                  1. License
                    1. Troubleshooting
                      1. Common Issues
                    2. Contributing
                      ID: q4uywrflxx