Skip to main content
Glama

Microservice Control Panel (MCP)

by Chunkys0up7
Integrations
  • Enables configuration management through environment variables, allowing customization of the MCP server's behavior

  • Provides the API backend for the MCP server, allowing HTTP-based interactions with the system's microservices

  • Supports Jupyter notebook execution within the MCP environment, allowing notebook-based workflows for AI applications

Modellkontextprotokoll (MCP)

Überblick

MCP ist ein modulares Framework zur Verwaltung, Ausführung und Überwachung von KI-Modellkontexten, einschließlich LLM-Eingabeaufforderungen, Jupyter-Notebooks und Python-Skripten. Es bietet ein FastAPI-Backend und ein Streamlit-Dashboard-Frontend.

Merkmale

  • Registrieren und verwalten Sie verschiedene Arten von MCPs (LLM-Eingabeaufforderungen, Notizbücher, Skripte).
  • Führen Sie MCPs aus und zeigen Sie die Ergebnisse in einer Web-Benutzeroberfläche an
  • Überwachen Sie den Serverzustand und die Statistiken
  • Erweiterbar für neue MCP-Typen

Aufstellen

Voraussetzungen

  • Python 3.9+
  • (Empfohlen) Erstellen und aktivieren Sie eine virtuelle Umgebung

Abhängigkeiten installieren

pip install -r requirements.txt

Umgebungsvariablen

  • Legen Sie MCP_API_KEY für die API-Authentifizierung fest (optional, Standardwerte bereitgestellt)
  • Für LLMs legen Sie ANTHROPIC_API_KEY fest, wenn Sie Claude verwenden

Starten Sie das Backend

uvicorn mcp.api.main:app --reload

Starten Sie das Frontend

streamlit run mcp/ui/app.py

Verwendung

  • Greifen Sie unter http://localhost:8501 auf das Dashboard zu
  • Erstellen, verwalten und testen Sie MCPs über die Benutzeroberfläche
  • Überwachen Sie den Zustand und die Statistiken über die Seitenleiste

Hinzufügen neuer MCPs

  • Implementieren Sie eine neue MCP-Klasse in mcp/core/
  • Im Backend registrieren
  • Fügen Sie UI-Unterstützung in mcp/ui/app.py

Ausführen von Tests

pytest

Projektstruktur

  • mcp/api/ – FastAPI-Backend
  • mcp/ui/ - Streamlit-Frontend
  • mcp/core/ - Kern-MCP-Typen und -Logik
  • tests/ - Testsuite

Lizenz

MIT

API-Dokumentation

Sobald der Server läuft, können Sie auf Folgendes zugreifen:

Sicherheit

  • Für alle Endpunkte ist eine API-Schlüsselauthentifizierung erforderlich
  • Die Ratenbegrenzung ist standardmäßig aktiviert
  • CORS ist so konfiguriert, dass nur bestimmte Ursprünge zulässig sind
  • Alle sensiblen Konfigurationen werden über Umgebungsvariablen verwaltet

Überwachung

Der Server beinhaltet:

  • Prometheus-Metriken für Anforderungsanzahl, Latenzen und Serverausführungen
  • Strukturiertes JSON-Logging
  • Integritätsprüfungsendpunkt
  • Serverstatistikendpunkt

Beitragen

  1. Forken Sie das Repository
  2. Erstellen eines Feature-Zweigs
  3. Übernehmen Sie Ihre Änderungen
  4. Push zum Zweig
  5. Erstellen einer Pull-Anforderung

Zusätzliche Abhängigkeiten für die Notebook- und LLM-Integration

Dieses Projekt erfordert jetzt die folgenden zusätzlichen Python-Pakete:

  • Pandas
  • numpy
  • matplotlib
  • Papierfabrik
  • nbformat
  • jupyter
  • anthropisch

Installieren Sie alle Abhängigkeiten mit:

pip install -r requirements.txt

Verwenden des Notebook-MCP zum Aufrufen eines LLM (Claude)

Das Beispiel-Notebook ( mcp/notebooks/example.ipynb ) zeigt:

  • Datenanalyse und Plotten
  • Aufruf des Claude LLM über das anthropic Python-Paket

Um die LLM-Zelle zu verwenden, stellen Sie sicher, dass Sie Ihren ANTHROPIC_API_KEY in Ihrer Umgebung oder .env Datei festgelegt haben.

Die Notebookzelle für LLM sieht folgendermaßen aus:

import os import anthropic api_key = os.getenv('ANTHROPIC_API_KEY') if not api_key: raise ValueError('ANTHROPIC_API_KEY not set in environment!') client = anthropic.Anthropic(api_key=api_key) response = client.messages.create( model='claude-3-sonnet-20240229', max_tokens=256, temperature=0.7, messages=[ {'role': 'user', 'content': 'Tell me a joke about data science.'} ] ) print('Claude says:', response.content[0].text)
-
security - not tested
F
license - not found
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Ein modulares System zum Erstellen und Orchestrieren von KI-Anwendungen durch Microservices mit LLM-Interaktionen, Jupyter-Notebook-Ausführung und visuellen Workflow-Funktionen.

  1. Überblick
    1. Merkmale
      1. Aufstellen
        1. Voraussetzungen
        2. Abhängigkeiten installieren
        3. Umgebungsvariablen
        4. Starten Sie das Backend
        5. Starten Sie das Frontend
      2. Verwendung
        1. Hinzufügen neuer MCPs
          1. Ausführen von Tests
            1. Projektstruktur
              1. Lizenz
                1. API-Dokumentation
                  1. Sicherheit
                    1. Überwachung
                      1. Beitragen
                        1. Zusätzliche Abhängigkeiten für die Notebook- und LLM-Integration
                          1. Verwenden des Notebook-MCP zum Aufrufen eines LLM (Claude)

                            Related MCP Servers

                            • -
                              security
                              F
                              license
                              -
                              quality
                              Enables AI agent and task management using the CrewAI framework, allowing users to create and run agents and tasks in an automated workflow environment.
                              Last updated -
                              0
                              3
                              JavaScript
                            • -
                              security
                              A
                              license
                              -
                              quality
                              A lightweight, modular API service that provides useful tools like weather, date/time, calculator, search, email, and task management through a RESTful interface, designed for integration with AI agents and automated workflows.
                              Last updated -
                              Python
                              MIT License
                            • -
                              security
                              A
                              license
                              -
                              quality
                              An MCP server that enables AI agents to interact with Modal, allowing them to deploy apps and run functions in a serverless cloud environment.
                              Last updated -
                              Python
                              MIT License
                            • -
                              security
                              F
                              license
                              -
                              quality
                              A lightweight Python-based server designed to run, manage and create CrewAI workflows using the Model Context Protocol for communicating with LLMs and tools like Claude Desktop or Cursor IDE.
                              Last updated -
                              1
                              Python

                            View all related MCP servers

                            MCP directory API

                            We provide all the information about MCP servers via our MCP API.

                            curl -X GET 'https://glama.ai/api/mcp/v1/servers/Chunkys0up7/MCP'

                            If you have feedback or need assistance with the MCP directory API, please join our Discord server