Enables configuration management through environment variables, allowing customization of the MCP server's behavior
Provides the API backend for the MCP server, allowing HTTP-based interactions with the system's microservices
Supports Jupyter notebook execution within the MCP environment, allowing notebook-based workflows for AI applications
Modellkontextprotokoll (MCP)
Überblick
MCP ist ein modulares Framework zur Verwaltung, Ausführung und Überwachung von KI-Modellkontexten, einschließlich LLM-Eingabeaufforderungen, Jupyter-Notebooks und Python-Skripten. Es bietet ein FastAPI-Backend und ein Streamlit-Dashboard-Frontend.
Merkmale
- Registrieren und verwalten Sie verschiedene Arten von MCPs (LLM-Eingabeaufforderungen, Notizbücher, Skripte).
- Führen Sie MCPs aus und zeigen Sie die Ergebnisse in einer Web-Benutzeroberfläche an
- Überwachen Sie den Serverzustand und die Statistiken
- Erweiterbar für neue MCP-Typen
Aufstellen
Voraussetzungen
- Python 3.9+
- (Empfohlen) Erstellen und aktivieren Sie eine virtuelle Umgebung
Abhängigkeiten installieren
Umgebungsvariablen
- Legen Sie
MCP_API_KEY
für die API-Authentifizierung fest (optional, Standardwerte bereitgestellt) - Für LLMs legen Sie
ANTHROPIC_API_KEY
fest, wenn Sie Claude verwenden
Starten Sie das Backend
Starten Sie das Frontend
Verwendung
- Greifen Sie unter http://localhost:8501 auf das Dashboard zu
- Erstellen, verwalten und testen Sie MCPs über die Benutzeroberfläche
- Überwachen Sie den Zustand und die Statistiken über die Seitenleiste
Hinzufügen neuer MCPs
- Implementieren Sie eine neue MCP-Klasse in
mcp/core/
- Im Backend registrieren
- Fügen Sie UI-Unterstützung in
mcp/ui/app.py
Ausführen von Tests
Projektstruktur
mcp/api/
– FastAPI-Backendmcp/ui/
- Streamlit-Frontendmcp/core/
- Kern-MCP-Typen und -Logiktests/
- Testsuite
Lizenz
MIT
API-Dokumentation
Sobald der Server läuft, können Sie auf Folgendes zugreifen:
- API-Dokumentation: http://localhost:8000/docs
- Prometheus-Metriken: http://localhost:8000/metrics
- Gesundheitscheck: http://localhost:8000/health
- Statistiken: http://localhost:8000/stats
Sicherheit
- Für alle Endpunkte ist eine API-Schlüsselauthentifizierung erforderlich
- Die Ratenbegrenzung ist standardmäßig aktiviert
- CORS ist so konfiguriert, dass nur bestimmte Ursprünge zulässig sind
- Alle sensiblen Konfigurationen werden über Umgebungsvariablen verwaltet
Überwachung
Der Server beinhaltet:
- Prometheus-Metriken für Anforderungsanzahl, Latenzen und Serverausführungen
- Strukturiertes JSON-Logging
- Integritätsprüfungsendpunkt
- Serverstatistikendpunkt
Beitragen
- Forken Sie das Repository
- Erstellen eines Feature-Zweigs
- Übernehmen Sie Ihre Änderungen
- Push zum Zweig
- Erstellen einer Pull-Anforderung
Zusätzliche Abhängigkeiten für die Notebook- und LLM-Integration
Dieses Projekt erfordert jetzt die folgenden zusätzlichen Python-Pakete:
- Pandas
- numpy
- matplotlib
- Papierfabrik
- nbformat
- jupyter
- anthropisch
Installieren Sie alle Abhängigkeiten mit:
Verwenden des Notebook-MCP zum Aufrufen eines LLM (Claude)
Das Beispiel-Notebook ( mcp/notebooks/example.ipynb
) zeigt:
- Datenanalyse und Plotten
- Aufruf des Claude LLM über das
anthropic
Python-Paket
Um die LLM-Zelle zu verwenden, stellen Sie sicher, dass Sie Ihren ANTHROPIC_API_KEY
in Ihrer Umgebung oder .env
Datei festgelegt haben.
Die Notebookzelle für LLM sieht folgendermaßen aus:
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Ein modulares System zum Erstellen und Orchestrieren von KI-Anwendungen durch Microservices mit LLM-Interaktionen, Jupyter-Notebook-Ausführung und visuellen Workflow-Funktionen.
Related MCP Servers
- -securityFlicense-qualityEnables AI agent and task management using the CrewAI framework, allowing users to create and run agents and tasks in an automated workflow environment.Last updated -03JavaScript
- -securityAlicense-qualityA lightweight, modular API service that provides useful tools like weather, date/time, calculator, search, email, and task management through a RESTful interface, designed for integration with AI agents and automated workflows.Last updated -PythonMIT License
- -securityAlicense-qualityAn MCP server that enables AI agents to interact with Modal, allowing them to deploy apps and run functions in a serverless cloud environment.Last updated -PythonMIT License
- -securityFlicense-qualityA lightweight Python-based server designed to run, manage and create CrewAI workflows using the Model Context Protocol for communicating with LLMs and tools like Claude Desktop or Cursor IDE.Last updated -1Python