🧠 MCP: Multi-Agent-Kontrollpunkt
Dieses Projekt implementiert einen Multiagentenserver, der Benutzerfragen an ein LLM-Modell oder an spezialisierte Agenten weiterleitet (z. B. Datum, Standort, Wetter oder einen technischen Experten). Enthält eine einfache, mit Streamlit erstellte Weboberfläche zur Benutzerfreundlichkeit.
🚀 Funktionen
- 🌐 Backend mit FastAPI
- 🧠 Spezialisierte Agenten (Datum, Ort, Wetter, LLM-Experte)
- 🧩 Erweiterbares und modulares Agentensystem mit Vererbung
- ⚙️ Gemeinsame Vererbung
AgenteBase
für einheitliche Fehler- und Antwortbehandlung - 🤖 Intelligente Logik für die Zusammenarbeit der Agenten untereinander
- 🖥️ Visuelle Schnittstelle mit Streamlit (GUI)
- 🐳 Docker-Container für einfache Bereitstellung
- 🔌 Client-Server-Kommunikation bereit für lokales oder Remote-Netzwerk
📁 Projektstruktur
⚙️ Voraussetzungen
🧪 Schnelle Installation
1. Klonen Sie das Repository
2. Konfigurationsdatei für Streamlit erstellen
Erstellen Sie im gui
-Verzeichnis die Datei:
Mit folgendem Inhalt:
3. Mit Docker Compose ausführen
Dadurch werden zwei Container gebaut und angehoben:
- Backend unter
http://localhost:8000
- Grafische Oberfläche unter
http://localhost:8501
🌍 Zugriff von einem anderen Computer (optional)
- Stellen Sie sicher, dass Sie die Ports richtig freigeben (
8000
,8501
). - Verwenden Sie in
secrets.toml
die IP des Servercomputers anstelle vonlocalhost
. - Sie können auch benutzerdefinierte Docker-Netzwerke für den hostübergreifenden Zugriff einrichten.
📦 Für die Produktion
Sie können nur das Backend ausführen, wenn Sie es in eine andere Schnittstelle integrieren möchten:
✨ Anwendungsbeispiel
In der Weboberfläche können Sie Fragen eingeben wie:
¿Qué día es hoy?
¿Dónde estoy?
¿Qué clima hace?
Explícame qué es Python
Die App entscheidet, ob die Frage direkt beantwortet oder an einen Agenten delegiert wird.
🛠️ Agenten verfügbar
Agent | Funktion |
---|---|
DATUM | Gibt das aktuelle Datum und die Uhrzeit zurück |
STANDORT | Erkennt Stadt und Land anhand der IP |
KLIMA | Gibt das Wetter am aktuellen Standort zurück |
🔄 Interaktion zwischen Agenten
Der Wetteragent verwendet jetzt direkt den Standortagenten, um geografische Koordinaten ( lat
, lon
) und die Stadt zu bestimmen, bevor er das Wetter abfragt. Dadurch sind auf den tatsächlichen Standort des Benutzers zugeschnittene Antworten möglich. Dies verbessert die Modularität und Zusammenarbeit zwischen Agenten.
🧩 So erstellen Sie einen neuen Agenten
- Erstellen Sie eine Klasse, die von AgenteBase erbt:
- Gibt Muster an, um relevante Fragen zu erkennen.
- Implementiert
agente()
, das ein Dict mit dem Schlüssel „Erfolg“ und „Daten oder Fehler“ zurückgibt. - Der Agent verwendet automatisch das angegebene LLM, um basierend auf Ihren Daten natürliche Antworten zu generieren.
⚠️ Wichtige technische Hinweise
- Alle Agenten erben von AgenteBase, das Folgendes verwaltet:
- Standardfehler
- Konvertieren von Daten in eine natürliche Reaktion über LLM
- Die Methode agent() muss ein strukturiertes Wörterbuch zurückgeben.
- Jeder Agent gibt an, welches LLM-Modell verwendet werden soll (
llm_simple
oderllm_experto
).
📄 Lizenz
Dieses Projekt ist unter der MIT-Lizenz lizenziert.
🙋♂️ Autor
Entwickelt von Alejandro Gómez Sierra.
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Ein Server, der Benutzerfragen an spezialisierte Agenten (Datum, Ort, Wetter) oder einen LLM-Experten weiterleitet, mit einer einfachen Streamlit-Weboberfläche für eine einfache Interaktion.
Related MCP Servers
- -securityAlicense-qualityThis is a server that lets your LLMs (like Claude) talk directly to your BigQuery data! Think of it as a friendly translator that sits between your AI assistant and your database, making sure they can chat securely and efficiently.Last updated -124181JavaScriptMIT License
- AsecurityFlicenseAqualityA server that implements the Model Context Protocol to connect LLMs to Brightsy AI agents, allowing users to pass messages to and receive responses from these agents.Last updated -196JavaScript
- -securityFlicense-qualityA server that manages conversation context for LLM interactions, storing recent prompts and providing relevant context for each user via REST API endpoints.Last updated -602TypeScript
- AsecurityAlicenseAqualityAn AI router that connects applications to multiple LLM providers (OpenAI, Anthropic, Google, DeepSeek, Ollama, etc.) with smart model orchestration capabilities, enabling dynamic switching between models for different reasoning tasks.Last updated -31011TypeScriptMIT License