hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Integrations
MCP-Ragdocs
Un servidor de Protocolo de Contexto de Modelo (MCP) que permite la búsqueda semántica y la recuperación de documentación mediante una base de datos vectorial (Qdrant). Este servidor permite añadir documentación desde URL o archivos locales y, posteriormente, buscar en ellos mediante consultas en lenguaje natural.
Guía de instalación rápida
- Instalar el paquete globalmente:Copy
- Iniciar Qdrant (usando Docker):Copy
- Asegúrese de que Ollama se esté ejecutando con el modelo de integración predeterminado:Copy
- Añade a tu archivo de configuración:
- Para Cline:
%AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json
- Para Roo-Code:
%AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.json
- Para Claude Desktop:
%AppData%\Claude\claude_desktop_config.json
Copy - Para Cline:
- Verificar la instalación:Copy
Versión
Versión actual: 0.1.6
Características
- Agregar documentación desde URL o archivos locales
- Almacenar documentación en una base de datos vectorial para búsqueda semántica
- Busque en la documentación utilizando lenguaje natural
- Enumere todas las fuentes de documentación
Instalación
Instalar globalmente usando npm:
Esto instalará el servidor en su directorio npm global, que necesitará para los pasos de configuración a continuación.
Requisitos
- Node.js 16 o superior
- Qdrant (ya sea local o en la nube)
- Uno de los siguientes para incrustaciones:
- Ollama ejecutándose localmente (predeterminado, gratuito)
- Clave API de OpenAI (opcional, de pago)
Opciones de configuración de Qdrant
Opción 1: Qdrant local
- Usando Docker (recomendado):
- O descargar desde el sitio web de Qdrant
Opción 2: Qdrant Cloud
- Crea una cuenta en Qdrant Cloud
- Crear un nuevo clúster
- Obtén la URL de tu clúster y la clave API desde el panel de control
- Úsalos en tu configuración (ver la sección Configuración a continuación)
Configuración
El servidor es compatible con Cline/Roo y Claude Desktop. La configuración varía ligeramente entre ellos:
Configuración de Cline
Agregue a su archivo de configuración de Cline ( %AppData%\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json
) Y/O Agregue a su archivo de configuración de Roo-Code ( %AppData%\Roaming\Code\User\globalStorage\rooveterinaryinc.roo-cline\settings\cline_mcp_settings.json
):
- Usando npm global install (recomendado):
Para OpenAI en lugar de Ollama:
- Usando la configuración de desarrollo local:
Configuración del escritorio de Claude
Agregue a su archivo de configuración de Claude Desktop:
- Ventanas:
%AppData%\Claude\claude_desktop_config.json
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json
- Configuración de Windows con Ollama (usando rutas completas):
Configuración de Windows con OpenAI:
- Configuración de macOS con Ollama:
Configuración de Qdrant Cloud
Para Cline o Claude Desktop, al utilizar Qdrant Cloud, modifique la sección env:
Con Ollama:
Con OpenAI:
Variables de entorno
Configuración de Qdrant
QDRANT_URL
(obligatorio): URL de su instancia de Qdrant- Para local: http://localhost:6333
- Para la nube: https://your-cluster-url.qdrant.tech
QDRANT_API_KEY
(requerido para la nube): Su clave API de Qdrant Cloud
Configuración de incrustaciones
EMBEDDING_PROVIDER
(opcional): Elija entre 'ollama' (predeterminado) o 'openai'EMBEDDING_MODEL
(opcional):- Para Ollama: el valor predeterminado es 'nomic-embed-text'
- Para OpenAI: el valor predeterminado es 'text-embedding-3-small'
OLLAMA_URL
(opcional): URL de su instancia de Ollama (el valor predeterminado es http://localhost:11434 )OPENAI_API_KEY
(obligatorio si usa OpenAI): Su clave API de OpenAI
Herramientas disponibles
add_documentation
- Agregar documentación desde una URL a la base de datos RAG
- Parámetros:
url
: URL de la documentación a obtener
search_documentation
- Buscar en la documentación almacenada
- Parámetros:
query
: Consulta de búsquedalimit
(opcional): número máximo de resultados a devolver (predeterminado: 5)
list_sources
- Enumere todas las fuentes de documentación almacenadas actualmente
- No se requieren parámetros
Ejemplo de uso
En Claude Desktop o cualquier otro cliente compatible con MCP:
- Añadir documentación:
- Buscar documentación:
- Lista de fuentes:
Desarrollo
- Clonar el repositorio:
- Instalar dependencias:
- Construir el proyecto:
- Ejecutar localmente:
Licencia
Instituto Tecnológico de Massachusetts (MIT)
Solución de problemas
Problemas comunes
- Error de conexión de QdrantCopy
- Comprueba si Docker se está ejecutando
- Verifique que el contenedor Qdrant se esté ejecutando:
docker ps | grep qdrant
- Intente reiniciar el contenedor
- Modelo Ollama desaparecidoCopy
- Ejecutar:
ollama pull nomic-embed-text
- Verificar que el modelo esté instalado:
ollama list
- Ejecutar:
- Problemas con la ruta de configuración
- Windows: reemplace
YOUR_USERNAME
con su nombre de usuario real de Windows - Comprobar permisos de archivos
- Verificar que existan las rutas
- Windows: reemplace
- Problemas de instalación global de npm
- Intente instalarlo con privilegios de administrador
- Compruebe que npm esté en PATH:
npm -v
- Verificar la instalación global:
npm list -g @qpd-v/mcp-server-ragdocs
Para otros problemas, consulte:
- Registros de Docker:
docker logs $(docker ps -q --filter ancestor=qdrant/qdrant)
- Estado de Ollama:
ollama list
- Versión de Node.js:
node -v
(debe ser 16 o superior)
Contribuyendo
¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.
This server cannot be installed
Un servidor de Protocolo de Contexto de Modelo (MCP) que permite la búsqueda semántica y la recuperación de documentación mediante una base de datos vectorial (Qdrant). Este servidor permite añadir documentación desde URL o archivos locales y, posteriormente, buscar en ellos mediante consultas en lenguaje natural.