hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Integrations
Documentación de RAG Servidor MCP
Una implementación de servidor MCP que proporciona herramientas para recuperar y procesar documentación a través de la búsqueda vectorial, lo que permite a los asistentes de IA aumentar sus respuestas con el contexto de la documentación relevante.
Tabla de contenido
- Características
- Inicio rápido
- Configuración de Docker Compose
- Interfaz web
- Configuración
- Expresiones de gratitud
- Solución de problemas
Características
Herramientas
- búsqueda_documentación
- Busque en la documentación utilizando la búsqueda vectorial
- Devuelve fragmentos relevantes de documentación con información de origen
- lista_fuentes
- Enumere todas las fuentes de documentación disponibles
- Proporciona metadatos sobre cada fuente
- extraer_urls
- Extrae las URL del texto y comprueba si ya están en la documentación
- Útil para evitar documentación duplicada
- eliminar_documentación
- Eliminar documentación de una fuente específica
- Limpia documentación obsoleta o irrelevante
- cola_de_lista
- Enumere todos los elementos en la cola de procesamiento
- Muestra el estado del procesamiento de la documentación pendiente
- cola de ejecución
- Procesar todos los elementos en la cola
- Agrega automáticamente nueva documentación al almacén de vectores
- borrar_cola
- Borrar todos los elementos de la cola de procesamiento
- Útil para reiniciar el sistema.
- añadir_documentación
- Agregar nueva documentación a la cola de procesamiento
- Admite varios formatos y fuentes.
Inicio rápido
La herramienta de documentación RAG está diseñada para:
- Mejorar las respuestas de la IA con documentación relevante
- Creación de asistentes de IA que reconocen la documentación
- Creación de herramientas sensibles al contexto para desarrolladores
- Implementación de la búsqueda de documentación semántica
- Ampliar las bases de conocimientos existentes
Configuración de Docker Compose
El proyecto incluye un archivo docker-compose.yml
para facilitar la implementación en contenedores. Para iniciar los servicios:
Para detener los servicios:
Interfaz web
El sistema incluye una interfaz web a la que se puede acceder después de iniciar los servicios de Docker Compose:
- Abra su navegador y navegue a:
http://localhost:3030
- La interfaz proporciona:
- Monitoreo de colas en tiempo real
- Gestión de fuentes de documentación
- Interfaz de búsqueda para probar consultas
- Estado del sistema y comprobaciones de salud
Configuración
Configuración de incrustaciones
El sistema utiliza Ollama como proveedor de incrustaciones predeterminado para la generación local de incrustaciones, con OpenAI disponible como alternativa. Esta configuración prioriza el procesamiento local a la vez que mantiene la fiabilidad gracias a la alternativa en la nube.
Variables de entorno
EMBEDDING_PROVIDER
: Elija el proveedor de incrustación principal ('ollama' o 'openai', predeterminado: 'ollama')EMBEDDING_MODEL
: especifica el modelo a utilizar (opcional)- Para OpenAI: el valor predeterminado es 'text-embedding-3-small'
- Para Ollama: el valor predeterminado es 'nomic-embed-text'
OPENAI_API_KEY
: Obligatorio cuando se utiliza OpenAI como proveedorFALLBACK_PROVIDER
: Proveedor de respaldo opcional ('ollama' o 'openai')FALLBACK_MODEL
: Modelo opcional para el proveedor de respaldo
Configuración de Cline
Agregue esto a su cline_mcp_settings.json
:
Configuración del escritorio de Claude
Agregue esto a su claude_desktop_config.json
:
Configuración predeterminada
El sistema utiliza Ollama por defecto para una generación eficiente de incrustaciones locales. Para una fiabilidad óptima:
- Instalar y ejecutar Ollama localmente
- Configurar OpenAI como respaldo (recomendado):Copy
Esta configuración garantiza:
- Generación rápida de incrustaciones locales con Ollama
- Retorno automático a OpenAI si Ollama falla
- No se permiten llamadas a API externas a menos que sea necesario
Nota: El sistema utilizará automáticamente las dimensiones vectoriales adecuadas según el proveedor:
- Ollama (texto incrustado nómico): 768 dimensiones
- OpenAI (text-embedding-3-small): 1536 dimensiones
Expresiones de gratitud
Este proyecto es una bifurcación de qpd-v/mcp-ragdocs , desarrollado originalmente por qpd-v. El proyecto original sentó las bases para esta implementación.
Agradecimiento especial al creador original, qpd-v, por su trabajo innovador en la versión inicial de este servidor MCP. Esta bifurcación ha sido mejorada con características y mejoras adicionales por Rahul Retnan.
Solución de problemas
El servidor no se inicia (conflicto de puerto)
Si el servidor MCP no puede iniciarse debido a un conflicto de puerto, siga estos pasos:
- Identificar y matar el proceso usando el puerto 3030:
- Reiniciar el servidor MCP
- Si el problema persiste, verifique si hay otros procesos que utilizan el puerto:
- También puede cambiar el puerto predeterminado en la configuración si es necesario.
This server cannot be installed
Permite a los asistentes de IA mejorar sus respuestas con documentación relevante a través de una búsqueda vectorial semántica, ofreciendo herramientas para gestionar y procesar la documentación de manera eficiente.
- Table of Contents
- Features
- Quick Start
- Docker Compose Setup
- Web Interface
- Configuration
- Acknowledgments
- Troubleshooting