Enables containerized deployment of the MCP server with Docker and Docker Compose, allowing for easier setup and distribution across machines
Powers the backend API server that handles routing user questions to appropriate specialized agents
Integrates with Ollama to access the deepseek-r1:7b language model for expert responses when specialized agents cannot handle a query
🧠 MCP: Multi-Agent-Kontrollpunkt
Dieses Projekt implementiert einen Multiagentenserver, der Benutzerfragen an ein LLM-Modell oder an spezialisierte Agenten weiterleitet (z. B. Datum, Standort, Wetter oder einen technischen Experten). Enthält eine einfache, mit Streamlit erstellte Weboberfläche zur Benutzerfreundlichkeit.
🚀 Funktionen
- 🌐 Backend mit FastAPI
- 🧠 Spezialisierte Agenten (Datum, Ort, Wetter, LLM-Experte)
- 🖥️ Visuelle Schnittstelle mit Streamlit (GUI)
- 🐳 Docker-Container für einfache Bereitstellung
- 🔌 Client-Server-Kommunikation bereit für lokales oder Remote-Netzwerk
📁 Projektstruktur
⚙️ Voraussetzungen
🧪 Schnelle Installation
1. Klonen Sie das Repository
2. Konfigurationsdatei für Streamlit erstellen
Erstellen Sie im gui
-Verzeichnis die Datei:
Mit folgendem Inhalt:
3. Mit Docker Compose ausführen
Dadurch werden zwei Container gebaut und angehoben:
- Backend unter
http://localhost:8000
- Grafische Oberfläche unter
http://localhost:8501
🌍 Zugriff von einem anderen Computer (optional)
- Stellen Sie sicher, dass Sie die Ports richtig freigeben (
8000
,8501
). - Verwenden Sie in
secrets.toml
die IP des Servercomputers anstelle vonlocalhost
. - Sie können auch benutzerdefinierte Docker-Netzwerke für den hostübergreifenden Zugriff einrichten.
📦 Für die Produktion
Sie können nur das Backend ausführen, wenn Sie es in eine andere Schnittstelle integrieren möchten:
✨ Anwendungsbeispiel
In der Weboberfläche können Sie Fragen eingeben wie:
¿Qué día es hoy?
¿Dónde estoy?
¿Qué clima hace?
Explícame qué es Python
Die App entscheidet, ob die Frage direkt beantwortet oder an einen Agenten delegiert wird.
🛠️ Agenten verfügbar
Agent | Funktion |
---|---|
DATUM | Gibt das aktuelle Datum und die Uhrzeit zurück |
STANDORT | Erkennt Stadt und Land anhand der IP |
KLIMA | Gibt das Wetter am aktuellen Standort zurück |
LLM_EXPERT | Abfrage des Modells deepseek-r1:7b über ollama |
📄 Lizenz
Dieses Projekt ist unter der MIT-Lizenz lizenziert.
🙋♂️ Autor
Unterstützt von [Ihr Name oder Alias].
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Ein Server, der Benutzerfragen an spezialisierte Agenten (Datum, Ort, Wetter) oder einen LLM-Experten weiterleitet, mit einer einfachen Streamlit-Weboberfläche für eine einfache Interaktion.
Related MCP Servers
- AsecurityFlicenseAqualityA server that enables browser automation using Playwright, allowing interaction with web pages, capturing screenshots, and executing JavaScript in a browser environment through LLMs.Last updated -1218,1151TypeScript
- AsecurityAlicenseAqualityA server that leverages Cloudflare Browser Rendering to extract and process web content for use as context in LLMs, offering tools for fetching pages, searching documentation, extracting structured content, and summarizing content.Last updated -43TypeScriptMIT License
- AsecurityAlicenseAqualityA server that exposes PagerDuty API functionality to LLMs with structured inputs and outputs, enabling management of incidents, services, teams, and users.Last updated -14PythonMIT License
- -securityFlicense-qualityA server that manages conversation context for LLM interactions, storing recent prompts and providing relevant context for each user via REST API endpoints.Last updated -1,137TypeScript