Skip to main content
Glama

Microservice Control Panel (MCP)

by Chunkys0up7
Integrations
  • Enables configuration management through environment variables, allowing customization of the MCP server's behavior

  • Provides the API backend for the MCP server, allowing HTTP-based interactions with the system's microservices

  • Supports Jupyter notebook execution within the MCP environment, allowing notebook-based workflows for AI applications

Модель контекстного протокола (MCP)

Обзор

MCP — это модульная структура для управления, выполнения и мониторинга контекстов моделей ИИ, включая подсказки LLM, блокноты Jupyter и скрипты Python. Она предоставляет бэкэнд FastAPI и фронтэнд панели Streamlit.

Функции

  • Регистрация и управление различными типами MCP (подсказки LLM, блокноты, скрипты)
  • Выполнение MCP и просмотр результатов в веб-интерфейсе
  • Мониторинг работоспособности сервера и статистики
  • Расширяемость для новых типов MCP

Настраивать

Предпосылки

  • Питон 3.9+
  • (Рекомендуется) Создать и активировать виртуальную среду

Установить зависимости

pip install -r requirements.txt

Переменные среды

  • Установите MCP_API_KEY для аутентификации API (необязательно, предоставляются значения по умолчанию)
  • Для LLM установите ANTHROPIC_API_KEY , если используете Claude

Запустить бэкэнд

uvicorn mcp.api.main:app --reload

Запустить интерфейс

streamlit run mcp/ui/app.py

Использование

  • Доступ к панели управления по адресу http://localhost:8501
  • Создавайте, управляйте и тестируйте MCP из пользовательского интерфейса
  • Отслеживайте состояние и статистику на боковой панели

Добавление новых MCP

  • Реализовать новый класс MCP в mcp/core/
  • Зарегистрируйте его в бэкэнде
  • Добавить поддержку пользовательского интерфейса в mcp/ui/app.py

Проведение тестов

pytest

Структура проекта

  • mcp/api/ - FastAPI бэкэнд
  • mcp/ui/ - Streamlit-фронтэнд
  • mcp/core/ - Основные типы и логика MCP
  • tests/ - Тестовый набор

Лицензия

Массачусетский технологический институт

API-документация

После запуска сервера вы сможете получить доступ к:

Безопасность

  • Для всех конечных точек требуется аутентификация ключа API.
  • Ограничение скорости включено по умолчанию
  • CORS настроен на разрешение только определенных источников
  • Все конфиденциальные настройки управляются через переменные среды.

Мониторинг

Сервер включает в себя:

  • Метрики Prometheus для количества запросов, задержек и выполнения сервером
  • Структурированное ведение журнала JSON
  • Конечная точка проверки работоспособности
  • Конечная точка статистики сервера

Внося вклад

  1. Форк репозитория
  2. Создать ветку функций
  3. Примите ваши изменения
  4. Нажмите на ветку
  5. Создать запрос на извлечение

Дополнительные зависимости для интеграции Notebook и LLM

Теперь для этого проекта требуются следующие дополнительные пакеты Python:

  • панды
  • нумпи
  • matplotlib
  • бумажная фабрика
  • nbformat
  • юпитер
  • антропный

Установите все зависимости с помощью:

pip install -r requirements.txt

Использование Notebook MCP для вызова LLM (Клод)

Пример блокнота ( mcp/notebooks/example.ipynb ) демонстрирует:

  • Анализ данных и построение графиков
  • Вызов Claude LLM через пакет anthropic Python

Чтобы использовать ячейку LLM, убедитесь, что вы установили ANTHROPIC_API_KEY в своей среде или файле .env .

Ячейка блокнота для LLM выглядит так:

import os import anthropic api_key = os.getenv('ANTHROPIC_API_KEY') if not api_key: raise ValueError('ANTHROPIC_API_KEY not set in environment!') client = anthropic.Anthropic(api_key=api_key) response = client.messages.create( model='claude-3-sonnet-20240229', max_tokens=256, temperature=0.7, messages=[ {'role': 'user', 'content': 'Tell me a joke about data science.'} ] ) print('Claude says:', response.content[0].text)
-
security - not tested
F
license - not found
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Модульная система для создания и оркестровки приложений ИИ с помощью микросервисов, включающая взаимодействия LLM, выполнение блокнотов Jupyter и возможности визуального рабочего процесса.

  1. Обзор
    1. Функции
      1. Настраивать
        1. Предпосылки
        2. Установить зависимости
        3. Переменные среды
        4. Запустить бэкэнд
        5. Запустить интерфейс
      2. Использование
        1. Добавление новых MCP
          1. Проведение тестов
            1. Структура проекта
              1. Лицензия
                1. API-документация
                  1. Безопасность
                    1. Мониторинг
                      1. Внося вклад
                        1. Дополнительные зависимости для интеграции Notebook и LLM
                          1. Использование Notebook MCP для вызова LLM (Клод)

                            Related MCP Servers

                            • -
                              security
                              F
                              license
                              -
                              quality
                              Enables AI agent and task management using the CrewAI framework, allowing users to create and run agents and tasks in an automated workflow environment.
                              Last updated -
                              0
                              3
                              JavaScript
                            • -
                              security
                              A
                              license
                              -
                              quality
                              A lightweight, modular API service that provides useful tools like weather, date/time, calculator, search, email, and task management through a RESTful interface, designed for integration with AI agents and automated workflows.
                              Last updated -
                              Python
                              MIT License
                            • -
                              security
                              A
                              license
                              -
                              quality
                              An MCP server that enables AI agents to interact with Modal, allowing them to deploy apps and run functions in a serverless cloud environment.
                              Last updated -
                              Python
                              MIT License
                            • -
                              security
                              F
                              license
                              -
                              quality
                              A lightweight Python-based server designed to run, manage and create CrewAI workflows using the Model Context Protocol for communicating with LLMs and tools like Claude Desktop or Cursor IDE.
                              Last updated -
                              1
                              Python

                            View all related MCP servers

                            MCP directory API

                            We provide all the information about MCP servers via our MCP API.

                            curl -X GET 'https://glama.ai/api/mcp/v1/servers/Chunkys0up7/MCP'

                            If you have feedback or need assistance with the MCP directory API, please join our Discord server