MCP-RAG Server

by apatoliya
  • Linux
  • Apple

Integrations

  • Manages environment variables and sensitive configuration through .env files for secure API key storage.

  • Enables version control for contributing features through forking, branching, committing, and pull requests.

  • Supports Jupyter notebook functionality through ipykernel, allowing interactive development and testing.

MCP-RAG: Protocolo de Contexto Modelo con RAG 🚀

Una implementación potente y eficiente de RAG (Recuperación-Generación Aumentada) que utiliza GroundX y OpenAI, construida con Procesamiento de Contexto Moderno (MCP).

🌟 Características

  • Implementación avanzada de RAG : utiliza GroundX para la recuperación de documentos de alta precisión
  • Protocolo de contexto del modelo : integración perfecta con MCP para un mejor manejo del contexto
  • Type-Safe : Creado con Pydantic para una verificación y validación de tipos robustas
  • Configuración flexible : configuraciones fáciles de personalizar a través de variables de entorno
  • Ingestión de documentos : Soporte para la ingesta y el procesamiento de documentos PDF
  • Búsqueda inteligente : capacidades de búsqueda semántica con puntuación

🛠️ Requisitos previos

  • Python 3.12 o superior
  • Clave API de OpenAI
  • Clave API de GroundX
  • Herramientas CLI de MCP

📦 Instalación

  1. Clonar el repositorio:
git clone <repository-url> cd mcp-rag
  1. Crear y activar un entorno virtual:
uv sync source .venv/bin/activate # On Windows, use `.venv\Scripts\activate`

⚙️ Configuración

  1. Copie el archivo de entorno de ejemplo:
cp .env.example .env
  1. Configure sus variables de entorno en .env :
GROUNDX_API_KEY="your-groundx-api-key" OPENAI_API_KEY="your-openai-api-key" BUCKET_ID="your-bucket-id"

🚀 Uso

Iniciando el servidor

Ejecute el servidor de inspección usando:

mcp dev server.py

Ingestión de documentos

Para ingerir nuevos documentos:

from server import ingest_documents result = ingest_documents("path/to/your/document.pdf") print(result)

Realizar búsquedas

Consulta de búsqueda básica:

from server import process_search_query response = process_search_query("your search query here") print(f"Query: {response.query}") print(f"Score: {response.score}") print(f"Result: {response.result}")

Con configuración personalizada:

from server import process_search_query, SearchConfig config = SearchConfig( completion_model="gpt-4", bucket_id="custom-bucket-id" ) response = process_search_query("your query", config)

📚 Dependencias

  • groundx (≥2.3.0): Funcionalidad principal de RAG
  • openai (≥1.75.0): integración de API OpenAI
  • mcp[cli] (≥1.6.0): Herramientas modernas de procesamiento de contexto
  • ipykernel (≥6.29.5): compatibilidad con Jupyter Notebook

🔒 Seguridad

  • Nunca confirmes tu archivo .env que contiene claves API
  • Utilice variables de entorno para toda la información confidencial
  • Rote regularmente sus claves API
  • Supervisar el uso de la API para detectar cualquier acceso no autorizado

🤝 Contribuyendo

  1. Bifurcar el repositorio
  2. Crea tu rama de funciones ( git checkout -b feature/amazing-feature )
  3. Confirme sus cambios ( git commit -m 'Add some amazing feature' )
  4. Empujar a la rama ( git push origin feature/amazing-feature )
  5. Abrir una solicitud de extracción
-
security - not tested
F
license - not found
-
quality - not tested

Un servidor que implementa la generación aumentada de recuperación utilizando GroundX y OpenAI, lo que permite la búsqueda semántica y la recuperación de documentos con procesamiento de contexto moderno para un manejo mejorado del contexto.

  1. 🌟 Características
    1. 🛠️ Requisitos previos
      1. 📦 Instalación
        1. ⚙️ Configuración
          1. 🚀 Uso
            1. Iniciando el servidor
            2. Ingestión de documentos
            3. Realizar búsquedas
          2. 📚 Dependencias
            1. 🔒 Seguridad
              1. 🤝 Contribuyendo

                Related MCP Servers

                • -
                  security
                  F
                  license
                  -
                  quality
                  Enables LLMs to perform semantic search and document management using ChromaDB, supporting natural language queries with intuitive similarity metrics for retrieval augmented generation applications.
                  Last updated -
                  Python
                  • Apple
                • -
                  security
                  F
                  license
                  -
                  quality
                  Model Context Protocol (MCP) server implementation for semantic search and memory management using TxtAI. This server provides a robust API for storing, retrieving, and managing text-based memories with semantic search capabilities. You can use Claude and Cline AI Also
                  Last updated -
                  4
                  Python
                  • Apple
                • -
                  security
                  F
                  license
                  -
                  quality
                  A simple Model Context Protocol server that enables searching and retrieving relevant documentation snippets from Langchain, Llama Index, and OpenAI official documentation.
                  Last updated -
                  Python
                  • Apple
                  • Linux
                • A
                  security
                  A
                  license
                  A
                  quality
                  An open-source platform for Retrieval-Augmented Generation (RAG). Upload documents and query them ⚡
                  Last updated -
                  1
                  169
                  JavaScript
                  MIT License

                View all related MCP servers

                ID: 07yenap2of