Skip to main content
Glama

MCP-RAG Server

MCP-RAG: Protocolo de Contexto Modelo con RAG 🚀

Una implementación potente y eficiente de RAG (Recuperación-Generación Aumentada) que utiliza GroundX y OpenAI, construida con Procesamiento de Contexto Moderno (MCP).

🌟 Características

  • Implementación avanzada de RAG : utiliza GroundX para la recuperación de documentos de alta precisión
  • Protocolo de contexto del modelo : integración perfecta con MCP para un mejor manejo del contexto
  • Type-Safe : Creado con Pydantic para una verificación y validación de tipos robustas
  • Configuración flexible : configuraciones fáciles de personalizar a través de variables de entorno
  • Ingestión de documentos : Soporte para la ingesta y el procesamiento de documentos PDF
  • Búsqueda inteligente : capacidades de búsqueda semántica con puntuación

🛠️ Requisitos previos

  • Python 3.12 o superior
  • Clave API de OpenAI
  • Clave API de GroundX
  • Herramientas CLI de MCP

📦 Instalación

  1. Clonar el repositorio:
git clone <repository-url> cd mcp-rag
  1. Crear y activar un entorno virtual:
uv sync source .venv/bin/activate # On Windows, use `.venv\Scripts\activate`

⚙️ Configuración

  1. Copie el archivo de entorno de ejemplo:
cp .env.example .env
  1. Configure sus variables de entorno en .env :
GROUNDX_API_KEY="your-groundx-api-key" OPENAI_API_KEY="your-openai-api-key" BUCKET_ID="your-bucket-id"

🚀 Uso

Iniciando el servidor

Ejecute el servidor de inspección usando:

mcp dev server.py

Ingestión de documentos

Para ingerir nuevos documentos:

from server import ingest_documents result = ingest_documents("path/to/your/document.pdf") print(result)

Realizar búsquedas

Consulta de búsqueda básica:

from server import process_search_query response = process_search_query("your search query here") print(f"Query: {response.query}") print(f"Score: {response.score}") print(f"Result: {response.result}")

Con configuración personalizada:

from server import process_search_query, SearchConfig config = SearchConfig( completion_model="gpt-4", bucket_id="custom-bucket-id" ) response = process_search_query("your query", config)

📚 Dependencias

  • groundx (≥2.3.0): Funcionalidad principal de RAG
  • openai (≥1.75.0): integración de API OpenAI
  • mcp[cli] (≥1.6.0): Herramientas modernas de procesamiento de contexto
  • ipykernel (≥6.29.5): compatibilidad con Jupyter Notebook

🔒 Seguridad

  • Nunca confirmes tu archivo .env que contiene claves API
  • Utilice variables de entorno para toda la información confidencial
  • Rote regularmente sus claves API
  • Supervisar el uso de la API para detectar cualquier acceso no autorizado

🤝 Contribuyendo

  1. Bifurcar el repositorio
  2. Crea tu rama de funciones ( git checkout -b feature/amazing-feature )
  3. Confirme sus cambios ( git commit -m 'Add some amazing feature' )
  4. Empujar a la rama ( git push origin feature/amazing-feature )
  5. Abrir una solicitud de extracción
-
security - not tested
F
license - not found
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Implementa Generación Aumentada por Recuperación (RAG) usando GroundX y OpenAI, lo que permite a los usuarios ingerir documentos y realizar búsquedas semánticas con manejo de contexto avanzado a través del Procesamiento de Contexto Moderno (MCP).

  1. 🌟 Características
    1. 🛠️ Requisitos previos
      1. 📦 Instalación
        1. ⚙️ Configuración
          1. 🚀 Uso
            1. Iniciando el servidor
            2. Ingestión de documentos
            3. Realizar búsquedas
          2. 📚 Dependencias
            1. 🔒 Seguridad
              1. 🤝 Contribuyendo

                Related MCP Servers

                • -
                  security
                  F
                  license
                  -
                  quality
                  Enables semantic search and RAG (Retrieval Augmented Generation) over your Apple Notes.
                  Last updated -
                  158
                  TypeScript
                  • Apple
                • -
                  security
                  F
                  license
                  -
                  quality
                  Enables LLMs to perform semantic search and document management using ChromaDB, supporting natural language queries with intuitive similarity metrics for retrieval augmented generation applications.
                  Last updated -
                  Python
                  • Apple
                • -
                  security
                  A
                  license
                  -
                  quality
                  Provides RAG capabilities for semantic document search using Qdrant vector database and Ollama/OpenAI embeddings, allowing users to add, search, list, and delete documentation with metadata support.
                  Last updated -
                  5
                  4
                  TypeScript
                  Apache 2.0
                • -
                  security
                  F
                  license
                  -
                  quality
                  Model Context Protocol (MCP) server implementation for semantic search and memory management using TxtAI. This server provides a robust API for storing, retrieving, and managing text-based memories with semantic search capabilities. You can use Claude and Cline AI Also
                  Last updated -
                  4
                  Python
                  • Apple

                View all related MCP servers

                MCP directory API

                We provide all the information about MCP servers via our MCP API.

                curl -X GET 'https://glama.ai/api/mcp/v1/servers/sourangshupal/mcp-rag'

                If you have feedback or need assistance with the MCP directory API, please join our Discord server