hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Integrations
Used for code coverage reporting for the project, but not as a service the MCP integrates with functionally.
Mentioned in workflow badges and repository URLs, but not as a direct integration for the MCP server's functionality.
Provides local embeddings generation using Ollama's nomic-embed-text model as an alternative to cloud-based embedding services.
Documentación rag del servidor MCP
Una implementación de servidor MCP que proporciona herramientas para recuperar y procesar documentación a través de la búsqueda vectorial, lo que permite a los asistentes de IA aumentar sus respuestas con el contexto de la documentación relevante.
Tabla de contenido
- Uso
- Características
- Configuración
- Despliegue
- Herramientas
- Estructura del proyecto
- Uso de incrustaciones de Ollama
- Licencia
- Flujo de trabajo de desarrollo
- Contribuyendo
- Agradecimientos de Forkception
Uso
La herramienta de documentación RAG está diseñada para:
- Mejorar las respuestas de la IA con documentación relevante
- Creación de asistentes de IA que reconocen la documentación
- Creación de herramientas sensibles al contexto para desarrolladores
- Implementación de la búsqueda de documentación semántica
- Ampliar las bases de conocimientos existentes
Características
- Búsqueda y recuperación de documentación basada en vectores
- Compatibilidad con múltiples fuentes de documentación
- Soporte para generación de incrustaciones locales (Ollama) u OPENAI
- Capacidades de búsqueda semántica
- Procesamiento automatizado de documentación
- Aumento del contexto en tiempo real para LLM
Configuración
Uso con Claude Desktop
Agregue esto a su claude_desktop_config.json
:
Configuración de OpenAI
Configuración de Ollama
Ollama se ejecuta desde esta base de código
Referencia de variables de entorno
Variable | Requerido para | Por defecto | observaciones |
---|---|---|---|
EMBEDDINGS_PROVIDER | Todo | ollama | "openai" o "ollama" |
OPENAI_API_KEY | OpenAI | - | Obtener desde el panel de control de OpenAI |
OLLAMA_BASE_URL | Ollama | http://localhost:11434 | URL del servidor local de Ollama |
QDRANT_URL | Todo | http://localhost:6333 | URL del punto final de Qdrant |
QDRANT_API_KEY | Nube Qdrant | - | Desde la consola de Qdrant Cloud |
Implementación local
El repositorio incluye la configuración de Docker Compose para el desarrollo local:
Esto empieza:
- Base de datos vectorial de Qdrant en el puerto 6333
- Servicio Ollama LLM en el puerto 11434
Puntos finales de acceso:
- Qdrant: http://localhost:6333
- Ollama: http://localhost:11434
Implementación en la nube
Para implementaciones de producción:
- Utilice el servicio alojado en Qdrant Cloud
- Establezca estas variables de entorno:
Herramientas
búsqueda_documentación
Busque en la documentación almacenada mediante consultas en lenguaje natural. Devuelve fragmentos coincidentes con el contexto, ordenados por relevancia.
Entradas:
query
(cadena): El texto que se busca en la documentación. Puede ser una consulta en lenguaje natural, términos específicos o fragmentos de código.limit
(número, opcional): Número máximo de resultados a devolver (1-20, predeterminado: 5). Los límites más altos proporcionan resultados más completos, pero su procesamiento puede tardar más.
lista_fuentes
Lista todas las fuentes de documentación almacenadas actualmente en el sistema. Devuelve una lista completa de toda la documentación indexada, incluyendo las URL de las fuentes, los títulos y la fecha de última actualización. Úselo para saber qué documentación está disponible para búsquedas o para verificar si se han indexado fuentes específicas.
extraer_urls
Extrae y analiza todas las URL de una página web. Esta herramienta rastrea la página web especificada, identifica todos los hipervínculos y, opcionalmente, los añade a la cola de procesamiento.
Entradas:
url
(cadena): La URL completa de la página web que se analizará (debe incluir el protocolo, p. ej., https://). La página debe ser de acceso público.add_to_queue
(booleano, opcional): Si es verdadero, añade automáticamente las URL extraídas a la cola de procesamiento para su posterior indexación. Úselo con precaución en sitios grandes para evitar colas excesivas.
eliminar_documentación
Eliminar fuentes de documentación específicas del sistema por sus URL. Esta eliminación es permanente y afectará los resultados de búsqueda futuros.
Entradas:
urls
(string[]): Matriz de URL que se eliminarán de la base de datos. Cada URL debe coincidir exactamente con la URL utilizada al agregar la documentación.
cola_de_lista
Lista todas las URL que están en espera en la cola de procesamiento de documentación. Muestra las fuentes de documentación pendientes que se procesarán al llamar a run_queue. Úselo para supervisar el estado de la cola, verificar que las URL se hayan añadido correctamente o comprobar el retraso en el procesamiento.
cola de ejecución
Procesar e indexar todas las URL en la cola de documentación. Cada URL se procesa secuencialmente, con la gestión de errores y la lógica de reintento adecuadas. Se proporcionan actualizaciones de progreso a medida que se procesa. Las operaciones de larga duración se procesarán hasta que la cola se vacíe o se produzca un error irrecuperable.
borrar_cola
Elimine todas las URL pendientes de la cola de procesamiento de documentación. Use esta opción para reiniciar la cola cuando desee empezar de cero, eliminar URL no deseadas o cancelar el procesamiento pendiente. Esta operación es inmediata y permanente; deberá volver a agregar las URL si desea procesarlas más adelante.
Estructura del proyecto
El paquete sigue una arquitectura modular con una clara separación entre los componentes principales y los controladores del protocolo MCP. Consulte ARCHITECTURE.md para obtener documentación estructural detallada y decisiones de diseño.
Uso de incrustaciones de Ollama sin Docker
- Instalar Ollama:
- Descargue el modelo nomic-embed-text:
- Verificar la instalación:
Licencia
Este servidor MCP cuenta con la licencia MIT. Esto significa que puede usar, modificar y distribuir el software libremente, sujeto a los términos y condiciones de la licencia MIT. Para más detalles, consulte el archivo de LICENCIA en el repositorio del proyecto.
Contribuyendo
¡Agradecemos las contribuciones! Consulta nuestro CONTRIBUTING.md para obtener las directrices detalladas, pero aquí tienes los conceptos básicos:
- Bifurcar el repositorio
- Instalar dependencias:
npm install
- Crea una rama de características:
git checkout -b feat/your-feature
- Confirme los cambios con npm run commit para garantizar el cumplimiento de las confirmaciones convencionales
- Empuja hacia tu tenedor y abre un PR
Agradecimientos de Forkception
Este proyecto se basa en una bifurcación de hannesrudolph/mcp-ragdocs , que a su vez se bifurcó del trabajo original de qpd-v/mcp-ragdocs . El proyecto original sentó las bases para esta implementación.
This server cannot be installed
Una implementación de servidor MCP que proporciona herramientas para recuperar y procesar documentación a través de la búsqueda vectorial, lo que permite a los asistentes de IA aumentar sus respuestas con el contexto de la documentación relevante.
Utiliza Ollama o OpenAI para generar incrustaciones.
Archivos Docker incluidos
- Table of Contents
- Usage
- Features
- Configuration
- Environment Variables Reference
- Tools
- Project Structure
- Using Ollama Embeddings without docker
- License
- Contributing
- Forkception Acknowledgments