Skip to main content
Glama

Microservice Control Panel (MCP)

by Chunkys0up7
Integrations
  • Enables configuration management through environment variables, allowing customization of the MCP server's behavior

  • Provides the API backend for the MCP server, allowing HTTP-based interactions with the system's microservices

  • Supports Jupyter notebook execution within the MCP environment, allowing notebook-based workflows for AI applications

Protocolo de Contexto Modelo (MCP)

Descripción general

MCP es un marco modular para gestionar, ejecutar y supervisar contextos de modelos de IA, incluyendo indicaciones LLM, cuadernos Jupyter y scripts de Python. Ofrece un backend FastAPI y un frontend de panel Streamlit.

Características

  • Registrar y administrar diferentes tipos de MCP (indicaciones LLM, cuadernos, scripts)
  • Ejecute MCP y vea los resultados en una interfaz web
  • Supervisar la salud y las estadísticas del servidor
  • Extensible para nuevos tipos de MCP

Configuración

Prerrequisitos

  • Python 3.9+
  • (Recomendado) Crear y activar un entorno virtual

Instalar dependencias

pip install -r requirements.txt

Variables de entorno

  • Establezca MCP_API_KEY para la autenticación de API (opcional, se proporcionan valores predeterminados)
  • Para LLM, configure ANTHROPIC_API_KEY si usa Claude

Iniciar el backend

uvicorn mcp.api.main:app --reload

Iniciar el frontend

streamlit run mcp/ui/app.py

Uso

  • Acceda al panel de control en http://localhost:8501
  • Cree, administre y pruebe MCP desde la interfaz de usuario
  • Monitorea la salud y las estadísticas desde la barra lateral

Agregar nuevos MCP

  • Implementar una nueva clase MCP en mcp/core/
  • Regístrelo en el backend
  • Añadir soporte de UI en mcp/ui/app.py

Ejecución de pruebas

pytest

Estructura del proyecto

  • mcp/api/ - Backend de FastAPI
  • mcp/ui/ - Interfaz de Streamlit
  • mcp/core/ - Tipos y lógica de MCP principales
  • tests/ - Conjunto de pruebas

Licencia

Instituto Tecnológico de Massachusetts (MIT)

Documentación de la API

Una vez que el servidor esté en funcionamiento, podrá acceder a:

Seguridad

  • Se requiere autenticación de clave API para todos los puntos finales
  • La limitación de velocidad está habilitada de forma predeterminada
  • CORS está configurado para permitir solo orígenes específicos
  • Toda configuración sensible se gestiona a través de variables de entorno.

Escucha

El servidor incluye:

  • Métricas de Prometheus para recuentos de solicitudes, latencias y ejecuciones del servidor
  • Registro JSON estructurado
  • Punto final de verificación de estado
  • Punto final de estadísticas del servidor

Contribuyendo

  1. Bifurcar el repositorio
  2. Crear una rama de características
  3. Confirme sus cambios
  4. Empujar hacia la rama
  5. Crear una solicitud de extracción

Dependencias adicionales para la integración de Notebook y LLM

Este proyecto ahora requiere los siguientes paquetes de Python adicionales:

  • pandas
  • Numpy
  • matplotlib
  • fábrica de papel
  • formato nb
  • Jupyter
  • antrópico

Instalar todas las dependencias con:

pip install -r requirements.txt

Uso del Notebook MCP para llamar a un LLM (Claude)

El cuaderno de ejemplo ( mcp/notebooks/example.ipynb ) demuestra:

  • Análisis y representación gráfica de datos
  • Llamada al Claude LLM a través del paquete anthropic de Python

Para utilizar la celda LLM, asegúrese de haber configurado ANTHROPIC_API_KEY en su entorno o archivo .env .

La celda del cuaderno para LLM se ve así:

import os import anthropic api_key = os.getenv('ANTHROPIC_API_KEY') if not api_key: raise ValueError('ANTHROPIC_API_KEY not set in environment!') client = anthropic.Anthropic(api_key=api_key) response = client.messages.create( model='claude-3-sonnet-20240229', max_tokens=256, temperature=0.7, messages=[ {'role': 'user', 'content': 'Tell me a joke about data science.'} ] ) print('Claude says:', response.content[0].text)
-
security - not tested
F
license - not found
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Un sistema modular para crear y orquestar aplicaciones de IA a través de microservicios, con interacciones LLM, ejecución de cuaderno Jupyter y capacidades de flujo de trabajo visual.

  1. Descripción general
    1. Características
      1. Configuración
        1. Prerrequisitos
        2. Instalar dependencias
        3. Variables de entorno
        4. Iniciar el backend
        5. Iniciar el frontend
      2. Uso
        1. Agregar nuevos MCP
          1. Ejecución de pruebas
            1. Estructura del proyecto
              1. Licencia
                1. Documentación de la API
                  1. Seguridad
                    1. Escucha
                      1. Contribuyendo
                        1. Dependencias adicionales para la integración de Notebook y LLM
                          1. Uso del Notebook MCP para llamar a un LLM (Claude)

                            Related MCP Servers

                            • -
                              security
                              F
                              license
                              -
                              quality
                              Enables AI agent and task management using the CrewAI framework, allowing users to create and run agents and tasks in an automated workflow environment.
                              Last updated -
                              0
                              3
                              JavaScript
                            • -
                              security
                              A
                              license
                              -
                              quality
                              A lightweight, modular API service that provides useful tools like weather, date/time, calculator, search, email, and task management through a RESTful interface, designed for integration with AI agents and automated workflows.
                              Last updated -
                              Python
                              MIT License
                            • -
                              security
                              A
                              license
                              -
                              quality
                              An MCP server that enables AI agents to interact with Modal, allowing them to deploy apps and run functions in a serverless cloud environment.
                              Last updated -
                              Python
                              MIT License
                            • -
                              security
                              F
                              license
                              -
                              quality
                              A lightweight Python-based server designed to run, manage and create CrewAI workflows using the Model Context Protocol for communicating with LLMs and tools like Claude Desktop or Cursor IDE.
                              Last updated -
                              1
                              Python

                            View all related MCP servers

                            MCP directory API

                            We provide all the information about MCP servers via our MCP API.

                            curl -X GET 'https://glama.ai/api/mcp/v1/servers/Chunkys0up7/MCP'

                            If you have feedback or need assistance with the MCP directory API, please join our Discord server