Skip to main content
Glama

Microservice Control Panel (MCP)

by Chunkys0up7
Integrations
  • Enables configuration management through environment variables, allowing customization of the MCP server's behavior

  • Provides the API backend for the MCP server, allowing HTTP-based interactions with the system's microservices

  • Supports Jupyter notebook execution within the MCP environment, allowing notebook-based workflows for AI applications

モデルコンテキストプロトコル(MCP)

概要

MCPは、LLMプロンプト、Jupyterノートブック、PythonスクリプトなどのAIモデルコンテキストを管理、実行、監視するためのモジュール式フレームワークです。FastAPIバックエンドとStreamlitダッシュボードフロントエンドを提供します。

特徴

  • さまざまな種類の MCP(LLM プロンプト、ノートブック、スクリプト)を登録および管理します。
  • MCP を実行し、結果を Web UI で表示する
  • サーバーの健全性と統計を監視する
  • 新しいMCPタイプに拡張可能

設定

前提条件

  • Python 3.9以上
  • (推奨)仮想環境を作成してアクティブ化する

依存関係をインストールする

pip install -r requirements.txt

環境変数

  • API 認証用にMCP_API_KEYを設定する (オプション、デフォルトが提供される)
  • LLMの場合、Claudeを使用する場合はANTHROPIC_API_KEYを設定します。

バックエンドを起動する

uvicorn mcp.api.main:app --reload

フロントエンドを起動する

streamlit run mcp/ui/app.py

使用法

  • http://localhost:8501でダッシュボードにアクセスします。
  • UI から MCP を作成、管理、テストする
  • サイドバーからヘルスと統計を監視する

新しいMCPの追加

  • mcp/core/に新しい MCP クラスを実装します。
  • バックエンドに登録する
  • mcp/ui/app.pyに UI サポートを追加する

テストの実行

pytest

プロジェクト構造

  • mcp/api/ - FastAPI バックエンド
  • mcp/ui/ - Streamlit フロントエンド
  • mcp/core/ - コアMCP型とロジック
  • tests/ - テストスイート

ライセンス

マサチューセッツ工科大学

APIドキュメント

サーバーが起動したら、次のものにアクセスできるようになります。

安全

  • すべてのエンドポイントにAPIキー認証が必要です
  • レート制限はデフォルトで有効になっています
  • CORSは特定のオリジンのみを許可するように設定されている
  • すべての機密構成は環境変数を通じて管理されます

監視

サーバーには以下が含まれます。

  • リクエスト数、レイテンシ、サーバー実行に関する Prometheus メトリック
  • 構造化されたJSONログ
  • ヘルスチェックエンドポイント
  • サーバー統計エンドポイント

貢献

  1. リポジトリをフォークする
  2. 機能ブランチを作成する
  3. 変更をコミットする
  4. ブランチにプッシュする
  5. プルリクエストを作成する

ノートブックとLLM統合のための追加の依存関係

このプロジェクトでは、次の追加の Python パッケージが必要になります。

  • パンダ
  • ナンピー
  • マットプロットライブラリ
  • 製紙工場
  • nbフォーマット
  • ジュピター
  • 人類学的

次のコマンドですべての依存関係をインストールします。

pip install -r requirements.txt

ノートブック MCP を使用して LLM を呼び出す (Claude)

サンプルノートブック ( mcp/notebooks/example.ipynb ) は次のことを示します。

  • データ分析とプロット
  • Claude LLMをanthropic Pythonパッケージ経由で呼び出す

LLM セルを使用するには、環境または.envファイルでANTHROPIC_API_KEYが設定されていることを確認してください。

LLM のノートブック セルは次のようになります。

import os import anthropic api_key = os.getenv('ANTHROPIC_API_KEY') if not api_key: raise ValueError('ANTHROPIC_API_KEY not set in environment!') client = anthropic.Anthropic(api_key=api_key) response = client.messages.create( model='claude-3-sonnet-20240229', max_tokens=256, temperature=0.7, messages=[ {'role': 'user', 'content': 'Tell me a joke about data science.'} ] ) print('Claude says:', response.content[0].text)
-
security - not tested
F
license - not found
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

LLM インタラクション、Jupyter ノートブック実行、ビジュアル ワークフロー機能を備え、マイクロサービスを通じて AI アプリケーションを構築およびオーケストレーションするためのモジュール システムです。

  1. 概要
    1. 特徴
      1. 設定
        1. 前提条件
        2. 依存関係をインストールする
        3. 環境変数
        4. バックエンドを起動する
        5. フロントエンドを起動する
      2. 使用法
        1. 新しいMCPの追加
          1. テストの実行
            1. プロジェクト構造
              1. ライセンス
                1. APIドキュメント
                  1. 安全
                    1. 監視
                      1. 貢献
                        1. ノートブックとLLM統合のための追加の依存関係
                          1. ノートブック MCP を使用して LLM を呼び出す (Claude)

                            Related MCP Servers

                            • -
                              security
                              F
                              license
                              -
                              quality
                              Enables AI agent and task management using the CrewAI framework, allowing users to create and run agents and tasks in an automated workflow environment.
                              Last updated -
                              0
                              3
                              JavaScript
                            • -
                              security
                              A
                              license
                              -
                              quality
                              A lightweight, modular API service that provides useful tools like weather, date/time, calculator, search, email, and task management through a RESTful interface, designed for integration with AI agents and automated workflows.
                              Last updated -
                              Python
                              MIT License
                            • -
                              security
                              A
                              license
                              -
                              quality
                              An MCP server that enables AI agents to interact with Modal, allowing them to deploy apps and run functions in a serverless cloud environment.
                              Last updated -
                              Python
                              MIT License
                            • -
                              security
                              F
                              license
                              -
                              quality
                              A lightweight Python-based server designed to run, manage and create CrewAI workflows using the Model Context Protocol for communicating with LLMs and tools like Claude Desktop or Cursor IDE.
                              Last updated -
                              1
                              Python

                            View all related MCP servers

                            MCP directory API

                            We provide all the information about MCP servers via our MCP API.

                            curl -X GET 'https://glama.ai/api/mcp/v1/servers/Chunkys0up7/MCP'

                            If you have feedback or need assistance with the MCP directory API, please join our Discord server