hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Integrations
Required for running the Weaviate vector database option, with included scripts for managing the Docker-based Weaviate environment.
Provides access to Git-related information, including commit message formats and conventions through the knowledge base search functionality.
Enables indexing and searching of Markdown (.md, .mdx) files, allowing AI assistants to retrieve information from documentation stored in Markdown format.
Servidor MCP de conocimiento compartido
Este es un servidor MCP de base de conocimientos que se puede utilizar comúnmente con varios asistentes de IA (CLINE, Cursor, Windsurf, Claude Desktop). La utilización de la generación aumentada de recuperación (RAG) permite una recuperación y utilización eficiente de la información. Comparta bases de conocimiento entre múltiples herramientas de asistente de IA para brindar acceso consistente a la información.
Características
- Una base de conocimiento común se puede utilizar en múltiples asistentes de IA
- Recuperación de información de alta precisión utilizando RAG
- Implementación segura de tipos usando TypeScript
- Admite múltiples almacenes de vectores (HNSWLib, Chroma, Pinecone, Milvus)
- Extensibilidad a través de interfaces abstractas
instalar
configuración
Las configuraciones del servidor MCP se agregan al archivo de configuración de cada asistente de IA.
VSCode (para CLINE/Cursor)
~/Library/Application Support/Code/User/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json
:
Ejemplos de uso de Pinecone
Escritorio de Claude
~/Library/Application Support/Claude/claude_desktop_config.json
:
Ejemplo usando HNSWLib (predeterminado)
Ejemplos de uso de Weaviate
Nota : Si está utilizando Weaviate, debe iniciar el servidor Weaviate de antemano. Puedes iniciarlo con el siguiente comando:
desarrollo
Iniciar el servidor de desarrollo
Construir
Corriendo en producción
Herramientas disponibles
búsqueda de trapos
Busque información en la base de conocimientos.
Solicitud de búsqueda
Ejemplo de uso
Búsqueda básica:
Búsqueda avanzada:
Resultados de la búsqueda
Ejemplo de respuesta
Estas capacidades de búsqueda mejoradas permitirán a los LLM procesar la información con mayor precisión y eficiencia. Información adicional como ubicación, tipo de documento, resumen y palabras clave ayudan a LLM a comprender mejor y utilizar adecuadamente los resultados de búsqueda.
estructura
- Al iniciarse, lee archivos Markdown (.md, .mdx) y archivos de texto (.txt) en el directorio especificado.
- Divida el documento en fragmentos y vectorícelo utilizando la API OpenAI
- Crea un índice vectorial utilizando el almacén vectorial seleccionado (predeterminado: HNSWLib)
- Devuelve documentos que son muy similares a una consulta de búsqueda.
Tiendas de vectores compatibles
- HNSWLib : un almacén de vectores rápido almacenado en el sistema de archivos local (predeterminado)
- Chroma : una base de datos vectorial de código abierto
- Pinecone : Servicio de base de datos vectorial administrada (se requiere clave API)
- Milvus : un motor de búsqueda vectorial a gran escala
- Weaviate : una base de datos vectorial que prioriza el esquema (se requiere Docker)
Cada tienda de vectores se expone a través de una interfaz abstracta, lo que facilita cambiar entre ellas según sea necesario.
Cómo navegar por el entorno de Vector Store
HNSWLib (predeterminado)
HNSWLib guarda el almacén de vectores en el sistema de archivos local, por lo que no se requiere ninguna configuración especial.
Reconstrucción de la tienda vectorial:
Tejer
Para utilizar Weaviate, necesitas Docker.
- Inicie el entorno Weaviate:
- Reconstrucción de la tienda vectorial:
- Comprueba el estado de Weaviate:
- Deteniendo el entorno Weaviate:
- Elimina tus datos de Weaviate por completo (solo si es necesario):
La configuración de Weaviate se administra en docker-compose.yml
. De forma predeterminada, se aplican las siguientes configuraciones:
- Puerto: 8080
- Autenticación: acceso anónimo habilitado
- Módulo de vectorización: Ninguno (utilizar relleno externo)
- Almacenamiento de datos: volumen Docker (
weaviate_data
)
Opciones de configuración
variables ambientales | explicación | Valor predeterminado |
---|---|---|
RUTA DE LA BASE DE CONOCIMIENTOS | Ruta de la base de conocimientos (obligatoria) | - |
CLAVE API DE OPENAI | Clave API de OpenAI (obligatoria) | - |
UMBRAL DE SIMILITUD | Umbral de puntuación de similitud para la búsqueda (0-1) | 0.7 |
TAMAÑO DEL TROZO | Tamaño del fragmento para dividir el texto | 1000 |
SUPERPOSICIÓN DE TROZOS | Tamaño de superposición de fragmentos | 200 |
TIPO DE TIENDA DE VECTOR | El tipo de almacén vectorial a utilizar ("hnswlib", "chroma", "pinecone", "milvus"). | "hnswlib" |
CONFIGURACIÓN DEL ALMACÉN DE VECTOR | Configuración de la tienda de vectores (cadena JSON) | {} |
licencia
ISC
contribución
- Tenedor
- Crear una rama de características (
git checkout -b feature/amazing-feature
) - Confirmar los cambios (
git commit -m 'Add some amazing feature'
) - Empujar a la rama (
git push origin feature/amazing-feature
) - Crear una solicitud de extracción
This server cannot be installed
Este servidor permite que los asistentes de IA (CLINE, Cursor, Windsurf, Claude Desktop) compartan una base de conocimiento común a través de Retrieval Augmented Generation (RAG), proporcionando acceso consistente a la información a través de múltiples herramientas.