Skip to main content
Glama

Model Context Protocol Server

🚀 Agentic RAG mit MCP-Server Agentic-RAG-MCPServer - AgenticRag


✨ Übersicht

Agentic RAG mit MCP Server ist ein leistungsstarkes Projekt, das einen MCP-Server (Model Context Protocol) und einen Client zum Erstellen von Agentic RAG -Anwendungen (Retrieval-Augmented Generation) zusammenbringt.

Dieses Setup stattet Ihr RAG-System mit erweiterten Tools aus, wie beispielsweise:

  • 🕵️‍♂️ Entitätsextraktion

  • 🔍 Abfrageverfeinerung

  • Relevanzprüfung

Der Server hostet diese intelligenten Tools, während der Client zeigt, wie man sie nahtlos verbindet und nutzt.


🖥️ Server – server.py

Der Server wird von der FastMCP -Klasse aus der mcp Bibliothek unterstützt und stellt diese praktischen Tools bereit:

Werkzeugname

Beschreibung

Symbol

get_time_with_prefix

Gibt das

aktuelle Datum und die aktuelle Uhrzeit

zurück

extract_entities_tool

Verwendet

OpenAI

, um Entitäten aus einer Abfrage zu extrahieren und so die Relevanz des Dokumentabrufs zu verbessern

🧠

refine_query_tool

Verbessert die Qualität von Benutzerabfragen durch

OpenAI-gestützte Verfeinerung

check_relevance

Filtert irrelevante Inhalte heraus, indem die Chunk-Relevanz mit einem LLM überprüft wird


🤝 Client — mcp-client.py

Der Client demonstriert, wie eine Verbindung zum MCP-Server hergestellt und mit ihm interagiert wird:

  • Stellen Sie eine Verbindung mit ClientSession aus der mcp Bibliothek her

  • Listen Sie alle verfügbaren Servertools auf

  • Rufen Sie jedes Tool mit benutzerdefinierten Argumenten auf

  • Verarbeiten Sie Abfragen, indem Sie OpenAI- oder Gemini- und MCP-Tools gleichzeitig nutzen


⚙️ Voraussetzungen

  • Python 3.9 oder höher

  • openai Python-Paket

  • mcp -Bibliothek

  • python-dotenv für die Verwaltung von Umgebungsvariablen


🛠️ Installationsanleitung

# Step 1: Clone the repository git clone https://github.com/ashishpatel26/Agentic-RAG-with-MCP-Server.git # Step 2: Navigate into the project directory cd Agentic-RAG-with-MCP-Serve # Step 3: Install dependencies pip install -r requirements.txt

🔐 Konfiguration

  1. Erstellen Sie eine .env Datei (verwenden Sie .env.sample als Vorlage).

  2. Legen Sie Ihr OpenAI-Modell in .env fest:

OPENAI_MODEL_NAME="your-model-name-here" GEMINI_API_KEY="your-model-name-here"

🚀 Anwendung

  1. Starten Sie den MCP-Server:

python server.py
  1. Führen Sie den MCP-Client aus:

python mcp-client.py

📜 Lizenz

Dieses Projekt ist unter der MIT-Lizenz lizenziert.


Danke fürs Lesen 🙏

-
security - not tested
F
license - not found
-
quality - not tested

Related MCP Servers

  • -
    security
    A
    license
    -
    quality
    Provides RAG capabilities for semantic document search using Qdrant vector database and Ollama/OpenAI embeddings, allowing users to add, search, list, and delete documentation with metadata support.
    Last updated -
    1
    16
    Apache 2.0
  • -
    security
    F
    license
    -
    quality
    This server enables AI assistants (CLINE, Cursor, Windsurf, Claude Desktop) to share a common knowledge base through Retrieval Augmented Generation (RAG), providing consistent information access across multiple tools.
    Last updated -
    4
    • Apple
  • A
    security
    A
    license
    A
    quality
    An open-source platform for Retrieval-Augmented Generation (RAG). Upload documents and query them ⚡
    Last updated -
    1
    24
    23
    MIT License
  • -
    security
    F
    license
    -
    quality
    Implements Retrieval-Augmented Generation (RAG) using GroundX and OpenAI, allowing users to ingest documents and perform semantic searches with advanced context handling through Modern Context Processing (MCP).
    Last updated -
    5
    • Linux
    • Apple

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/ashishpatel26/Agentic-RAG-with-MCP-Server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server