Documentación de RAG Servidor MCP
Una implementación de servidor MCP que proporciona herramientas para recuperar y procesar documentación a través de la búsqueda vectorial, lo que permite a los asistentes de IA aumentar sus respuestas con el contexto de la documentación relevante.
Tabla de contenido
Características
Herramientas
búsqueda_documentación
Busque en la documentación utilizando la búsqueda vectorial
Devuelve fragmentos relevantes de documentación con información de origen
lista_fuentes
Enumere todas las fuentes de documentación disponibles
Proporciona metadatos sobre cada fuente
extraer_urls
Extrae las URL del texto y comprueba si ya están en la documentación
Útil para evitar documentación duplicada
eliminar_documentación
Eliminar documentación de una fuente específica
Limpia documentación obsoleta o irrelevante
cola_de_lista
Enumere todos los elementos en la cola de procesamiento
Muestra el estado del procesamiento de la documentación pendiente
cola de ejecución
Procesar todos los elementos en la cola
Agrega automáticamente nueva documentación al almacén de vectores
borrar_cola
Borrar todos los elementos de la cola de procesamiento
Útil para reiniciar el sistema.
añadir_documentación
Agregar nueva documentación a la cola de procesamiento
Admite varios formatos y fuentes.
Inicio rápido
La herramienta de documentación RAG está diseñada para:
Mejorar las respuestas de la IA con documentación relevante
Creación de asistentes de IA que reconocen la documentación
Creación de herramientas sensibles al contexto para desarrolladores
Implementación de la búsqueda de documentación semántica
Ampliar las bases de conocimientos existentes
Configuración de Docker Compose
El proyecto incluye un archivo docker-compose.yml
para facilitar la implementación en contenedores. Para iniciar los servicios:
Para detener los servicios:
Interfaz web
El sistema incluye una interfaz web a la que se puede acceder después de iniciar los servicios de Docker Compose:
Abra su navegador y navegue a:
http://localhost:3030
La interfaz proporciona:
Monitoreo de colas en tiempo real
Gestión de fuentes de documentación
Interfaz de búsqueda para probar consultas
Estado del sistema y comprobaciones de salud
Configuración
Configuración de incrustaciones
El sistema utiliza Ollama como proveedor de incrustaciones predeterminado para la generación local de incrustaciones, con OpenAI disponible como alternativa. Esta configuración prioriza el procesamiento local a la vez que mantiene la fiabilidad gracias a la alternativa en la nube.
Variables de entorno
EMBEDDING_PROVIDER
: Elija el proveedor de incrustación principal ('ollama' o 'openai', predeterminado: 'ollama')EMBEDDING_MODEL
: especifica el modelo a utilizar (opcional)Para OpenAI: el valor predeterminado es 'text-embedding-3-small'
Para Ollama: el valor predeterminado es 'nomic-embed-text'
OPENAI_API_KEY
: Obligatorio cuando se utiliza OpenAI como proveedorFALLBACK_PROVIDER
: Proveedor de respaldo opcional ('ollama' o 'openai')FALLBACK_MODEL
: Modelo opcional para el proveedor de respaldo
Configuración de Cline
Agregue esto a su cline_mcp_settings.json
:
Configuración del escritorio de Claude
Agregue esto a su claude_desktop_config.json
:
Configuración predeterminada
El sistema utiliza Ollama por defecto para una generación eficiente de incrustaciones locales. Para una fiabilidad óptima:
Instalar y ejecutar Ollama localmente
Configurar OpenAI como respaldo (recomendado):
{ // Ollama is used by default, no need to specify EMBEDDING_PROVIDER "EMBEDDING_MODEL": "nomic-embed-text", // optional "FALLBACK_PROVIDER": "openai", "FALLBACK_MODEL": "text-embedding-3-small", "OPENAI_API_KEY": "your-api-key-here" }
Esta configuración garantiza:
Generación rápida de incrustaciones locales con Ollama
Retorno automático a OpenAI si Ollama falla
No se permiten llamadas a API externas a menos que sea necesario
Nota: El sistema utilizará automáticamente las dimensiones vectoriales adecuadas según el proveedor:
Ollama (texto incrustado nómico): 768 dimensiones
OpenAI (text-embedding-3-small): 1536 dimensiones
Expresiones de gratitud
Este proyecto es una bifurcación de qpd-v/mcp-ragdocs , desarrollado originalmente por qpd-v. El proyecto original sentó las bases para esta implementación.
Agradecimiento especial al creador original, qpd-v, por su trabajo innovador en la versión inicial de este servidor MCP. Esta bifurcación ha sido mejorada con características y mejoras adicionales por Rahul Retnan.
Solución de problemas
El servidor no se inicia (conflicto de puerto)
Si el servidor MCP no puede iniciarse debido a un conflicto de puerto, siga estos pasos:
Identificar y matar el proceso usando el puerto 3030:
Reiniciar el servidor MCP
Si el problema persiste, verifique si hay otros procesos que utilizan el puerto:
También puede cambiar el puerto predeterminado en la configuración si es necesario.
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Permite a los asistentes de IA mejorar sus respuestas con documentación relevante a través de una búsqueda vectorial semántica, ofreciendo herramientas para gestionar y procesar la documentación de manera eficiente.
- Tabla de contenido
- Características
- Inicio rápido
- Configuración de Docker Compose
- Interfaz web
- Configuración
- Expresiones de gratitud
- Solución de problemas
Related Resources
Related MCP Servers
- AsecurityAlicenseAqualityAn MCP server implementation that provides tools for retrieving and processing documentation through vector search, enabling AI assistants to augment their responses with relevant documentation contextLast updated -22229MIT License
- -securityAlicense-qualityProvides tools for retrieving and processing documentation through vector search, enabling AI assistants to augment their responses with relevant documentation context.Last updated -22MIT License
- -securityFlicense-qualityAn Agent Framework Documentation server that enables AI agents to efficiently retrieve information from documentation databases using hybrid semantic and keyword search for seamless agent integration.Last updated -
- -securityFlicense-qualityEnables AI assistants to search documentation of packages and services to find implementation details, examples, and specifications.Last updated -