Skip to main content
Glama

Model Context Protocol Server

🚀 Agentic RAG con servidor MCP Servidor MCP de Agentic-RAG - AgenticRag


✨ Descripción general

Agentic RAG con MCP Server es un potente proyecto que reúne un servidor y un cliente MCP (Protocolo de contexto de modelo) para crear aplicaciones Agentic RAG (Recuperación-Generación aumentada).

Esta configuración potencia su sistema RAG con herramientas avanzadas como:

  • 🕵️‍♂️ Extracción de entidades

  • 🔍 Refinamiento de consultas

  • Comprobación de relevancia

El servidor aloja estas herramientas inteligentes, mientras que el cliente muestra cómo conectarse y utilizarlas sin problemas.


🖥️ Servidor — server.py

Impulsado por la clase FastMCP de la biblioteca mcp , el servidor expone estas útiles herramientas:

Nombre de la herramienta

Descripción

Icono

get_time_with_prefix

Devuelve la

fecha y hora actuales

extract_entities_tool

Utiliza

OpenAI

para extraer entidades de una consulta, lo que mejora la relevancia de la recuperación de documentos.

🧠

refine_query_tool

Mejora la calidad de las consultas de los usuarios con

refinamiento impulsado por OpenAI

check_relevance

Filtra el contenido irrelevante al verificar la relevancia de los fragmentos con un LLM


🤝 Cliente — mcp-client.py

El cliente demuestra cómo conectarse e interactuar con el servidor MCP:

  • Establecer una conexión con ClientSession desde la biblioteca mcp

  • Enumere todas las herramientas de servidor disponibles

  • Llamar a cualquier herramienta con argumentos personalizados

  • Consultas de procesos que aprovechan las herramientas OpenAI o Gemini y MCP en conjunto


⚙️ Requisitos

  • Python 3.9 o superior

  • paquete Python openai

  • biblioteca mcp

  • python-dotenv para la gestión de variables de entorno


🛠️ Guía de instalación

# Step 1: Clone the repository git clone https://github.com/ashishpatel26/Agentic-RAG-with-MCP-Server.git # Step 2: Navigate into the project directory cd Agentic-RAG-with-MCP-Serve # Step 3: Install dependencies pip install -r requirements.txt

🔐 Configuración

  1. Cree un archivo .env (utilice .env.sample como plantilla)

  2. Establezca su modelo OpenAI en .env :

OPENAI_MODEL_NAME="your-model-name-here" GEMINI_API_KEY="your-model-name-here"

🚀 Cómo utilizar

  1. Inicie el servidor MCP:

python server.py
  1. Ejecute el cliente MCP:

python mcp-client.py

📜 Licencia

Este proyecto está licenciado bajo la licencia MIT .


Gracias por leer 🙏

-
security - not tested
F
license - not found
-
quality - not tested

Related MCP Servers

  • -
    security
    A
    license
    -
    quality
    Provides RAG capabilities for semantic document search using Qdrant vector database and Ollama/OpenAI embeddings, allowing users to add, search, list, and delete documentation with metadata support.
    Last updated -
    1
    16
    Apache 2.0
  • -
    security
    F
    license
    -
    quality
    This server enables AI assistants (CLINE, Cursor, Windsurf, Claude Desktop) to share a common knowledge base through Retrieval Augmented Generation (RAG), providing consistent information access across multiple tools.
    Last updated -
    4
    • Apple
  • A
    security
    A
    license
    A
    quality
    An open-source platform for Retrieval-Augmented Generation (RAG). Upload documents and query them ⚡
    Last updated -
    1
    24
    23
    MIT License
  • -
    security
    F
    license
    -
    quality
    Implements Retrieval-Augmented Generation (RAG) using GroundX and OpenAI, allowing users to ingest documents and perform semantic searches with advanced context handling through Modern Context Processing (MCP).
    Last updated -
    5
    • Linux
    • Apple

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/ashishpatel26/Agentic-RAG-with-MCP-Server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server