Dieses Projekt verbindet ein lokales LLM (z. B. Qwen) über das MCP- Protokoll mit Tools wie einem Taschenrechner oder einer Wissensdatenbank. Der Assistent erkennt diese Tools automatisch und ruft sie auf, um Benutzeranfragen zu beantworten.
📦 Funktionen
🔧 Toolausführung über MCP-Server
🧠 Lokale LLM-Integration über HTTP oder OpenAI SDK
📚 Wissensdatenbank-Support (
data.json)⚡ Unterstützt
stdioundsse-Transporte
Related MCP server: MCP Documentation Server
🗂 Projektdateien
Datei | Beschreibung |
| Registriert Tools und startet den MCP-Server |
| Verwendet
zur Kommunikation mit lokalem LLM |
| Verwendet OpenAI-kompatibles SDK für LLM + Tool-Aufruflogik |
| MCP-Client mit stdio |
| MCP-Client mit SSE |
| Fragen und Antworten-Wissensdatenbank |
📥 Installation
Anforderungen
Python 3.8+
Installieren Sie Abhängigkeiten:
requirements.txt
🚀 Erste Schritte
1. Führen Sie den MCP-Server aus
Dadurch wird Ihr Tool-Server mit Funktionen wie „ add , multiply und get_knowledge_base gestartet.
2. Starten Sie einen Client
Option A: HTTP-Client (lokales LLM über Raw-API)
Option B: OpenAI SDK-Client
Option C: Standardtransport
Option D: SSE-Transport
Stellen Sie sicher, dass server.py Folgendes festlegt:
Führen Sie dann Folgendes aus:
💬 Beispielaufforderungen
Aufruf des Mathe-Tools
Antwort:
Wissensdatenbankfrage
Die Antwort enthält die entsprechende Antwort aus data.json .
📁 Beispiel: data.json
🔧 Konfiguration
Aktualisieren Sie in client-http.py oder clientopenai.py Folgendes:
Stellen Sie sicher, dass Ihr LLM OpenAI-kompatible API-Endpunkte bereitstellt.
🧹 Aufräumen
Clients verarbeiten Tool-Aufrufe und -Antworten automatisch. Sie können den Server oder Client mit Ctrl+C stoppen.
🪪 Lizenz
MIT-Lizenz. Siehe LICENSE- Datei.