Integrations
Dieses Projekt verbindet ein lokales LLM (z. B. Qwen) über das MCP- Protokoll mit Tools wie einem Taschenrechner oder einer Wissensdatenbank. Der Assistent erkennt diese Tools automatisch und ruft sie auf, um Benutzeranfragen zu beantworten.
📦 Funktionen
- 🔧 Toolausführung über MCP-Server
- 🧠 Lokale LLM-Integration über HTTP oder OpenAI SDK
- 📚 Wissensdatenbank-Support (
data.json
) - ⚡ Unterstützt
stdio
undsse
-Transporte
🗂 Projektdateien
Datei | Beschreibung |
---|---|
server.py | Registriert Tools und startet den MCP-Server |
client-http.py | Verwendet aiohttp zur Kommunikation mit lokalem LLM |
clientopenai.py | Verwendet OpenAI-kompatibles SDK für LLM + Tool-Aufruflogik |
client-stdio.py | MCP-Client mit stdio |
client-see.py | MCP-Client mit SSE |
data.json | Fragen und Antworten-Wissensdatenbank |
📥 Installation
Anforderungen
Python 3.8+
Installieren Sie Abhängigkeiten:
requirements.txt
🚀 Erste Schritte
1. Führen Sie den MCP-Server aus
Dadurch wird Ihr Tool-Server mit Funktionen wie „ add
, multiply
und get_knowledge_base
gestartet.
2. Starten Sie einen Client
Option A: HTTP-Client (lokales LLM über Raw-API)
Option B: OpenAI SDK-Client
Option C: Standardtransport
Option D: SSE-Transport
Stellen Sie sicher, dass server.py
Folgendes festlegt:
Führen Sie dann Folgendes aus:
💬 Beispielaufforderungen
Aufruf des Mathe-Tools
Antwort:
Wissensdatenbankfrage
Die Antwort enthält die entsprechende Antwort aus data.json
.
📁 Beispiel: data.json
🔧 Konfiguration
Aktualisieren Sie in client-http.py
oder clientopenai.py
Folgendes:
Stellen Sie sicher, dass Ihr LLM OpenAI-kompatible API-Endpunkte bereitstellt.
🧹 Aufräumen
Clients verarbeiten Tool-Aufrufe und -Antworten automatisch. Sie können den Server oder Client mit Ctrl+C
stoppen.
🪪 Lizenz
MIT-Lizenz. Siehe LICENSE- Datei.
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Verbindet lokale LLMs über das MCP-Protokoll mit externen Tools (Rechner, Wissensdatenbank) und ermöglicht so die automatische Erkennung und Ausführung von Tools zur Verbesserung der Abfrageantworten.
Related MCP Servers
- -securityAlicense-qualityMCP server for toolhouse.ai. This does not rely on an external llm unlike the official server.Last updated -1PythonMIT License
- -securityAlicense-qualityA comprehensive toolkit that enhances LLM capabilities through the Model Context Protocol, allowing LLMs to interact with external services including command-line operations, file management, Figma integration, and audio processing.Last updated -14PythonApache 2.0
- -securityAlicense-qualityAn MCP server that provides tools to load and fetch documentation from any llms.txt source, giving users full control over context retrieval for LLMs in IDE agents and applications.Last updated -177PythonMIT License
- -security-license-qualityA tool server that processes mathematical expressions via Multi-Chain Protocol (MCP), allowing LLMs to solve math problems through tool integration.Last updated -PythonMIT License