Skip to main content
Glama

Microservice Control Panel (MCP)

by Chunkys0up7
Integrations
  • Enables configuration management through environment variables, allowing customization of the MCP server's behavior

  • Provides the API backend for the MCP server, allowing HTTP-based interactions with the system's microservices

  • Supports Jupyter notebook execution within the MCP environment, allowing notebook-based workflows for AI applications

모델 컨텍스트 프로토콜(MCP)

개요

MCP는 LLM 프롬프트, Jupyter 노트북, Python 스크립트를 포함한 AI 모델 컨텍스트를 관리, 실행 및 모니터링하는 모듈식 프레임워크입니다. FastAPI 백엔드와 Streamlit 대시보드 프런트엔드를 제공합니다.

특징

  • 다양한 유형의 MCP(LLM 프롬프트, 노트북, 스크립트)를 등록하고 관리합니다.
  • MCP를 실행하고 웹 UI에서 결과를 봅니다.
  • 서버 상태 및 통계 모니터링
  • 새로운 MCP 유형에 확장 가능

설정

필수 조건

  • 파이썬 3.9 이상
  • (권장) 가상 환경을 생성하고 활성화하세요

종속성 설치

지엑스피1

환경 변수

  • API 인증을 위해 MCP_API_KEY 설정합니다(선택 사항, 기본값 제공)
  • LLM의 경우 Claude를 사용하는 경우 ANTHROPIC_API_KEY 설정합니다.

백엔드 시작

uvicorn mcp.api.main:app --reload

프런트엔드 시작

streamlit run mcp/ui/app.py

용법

  • http://localhost:8501 에서 대시보드에 접속하세요
  • UI에서 MCP를 생성, 관리 및 테스트합니다.
  • 사이드바에서 상태 및 통계를 모니터링하세요

새로운 MCP 추가

  • mcp/core/ 에 새로운 MCP 클래스를 구현합니다.
  • 백엔드에 등록하세요
  • mcp/ui/app.py 에 UI 지원 추가

테스트 실행

pytest

프로젝트 구조

  • mcp/api/ - FastAPI 백엔드
  • mcp/ui/ - Streamlit 프런트엔드
  • mcp/core/ - 핵심 MCP 유형 및 논리
  • tests/ - 테스트 모음

특허

MIT

API 문서

서버가 실행되면 다음에 액세스할 수 있습니다.

보안

  • 모든 엔드포인트에 API 키 인증이 필요합니다.
  • 속도 제한은 기본적으로 활성화되어 있습니다.
  • CORS는 특정 출처만 허용하도록 구성됩니다.
  • 모든 민감한 구성은 환경 변수를 통해 관리됩니다.

모니터링

서버에는 다음이 포함됩니다.

  • 요청 수, 대기 시간 및 서버 실행에 대한 Prometheus 메트릭
  • 구조화된 JSON 로깅
  • 상태 점검 엔드포인트
  • 서버 통계 엔드포인트

기여하다

  1. 저장소를 포크하세요
  2. 기능 브랜치 생성
  3. 변경 사항을 커밋하세요
  4. 지점으로 밀어 넣기
  5. 풀 리퀘스트 만들기

노트북 및 LLM 통합을 위한 추가 종속성

이 프로젝트에는 이제 다음과 같은 추가 Python 패키지가 필요합니다.

  • 팬더
  • 넘파이
  • 맷플롯립
  • 제지공장
  • nbformat
  • 주피터
  • 인간 중심적인

다음을 사용하여 모든 종속성을 설치합니다.

pip install -r requirements.txt

Notebook MCP를 사용하여 LLM 호출(Claude)

예제 노트북( mcp/notebooks/example.ipynb )은 다음을 보여줍니다.

  • 데이터 분석 및 플로팅
  • anthropic Python 패키지를 통해 Claude LLM 호출

LLM 셀을 사용하려면 환경이나 .env 파일에서 ANTHROPIC_API_KEY 설정했는지 확인하세요.

LLM의 노트북 셀은 다음과 같습니다.

import os import anthropic api_key = os.getenv('ANTHROPIC_API_KEY') if not api_key: raise ValueError('ANTHROPIC_API_KEY not set in environment!') client = anthropic.Anthropic(api_key=api_key) response = client.messages.create( model='claude-3-sonnet-20240229', max_tokens=256, temperature=0.7, messages=[ {'role': 'user', 'content': 'Tell me a joke about data science.'} ] ) print('Claude says:', response.content[0].text)
-
security - not tested
F
license - not found
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

LLM 상호작용, Jupyter 노트북 실행, 시각적 워크플로 기능을 갖춘 마이크로서비스를 통해 AI 애플리케이션을 구축하고 조율하기 위한 모듈식 시스템입니다.

  1. 개요
    1. 특징
      1. 설정
        1. 필수 조건
        2. 종속성 설치
        3. 환경 변수
        4. 백엔드 시작
        5. 프런트엔드 시작
      2. 용법
        1. 새로운 MCP 추가
          1. 테스트 실행
            1. 프로젝트 구조
              1. 특허
                1. API 문서
                  1. 보안
                    1. 모니터링
                      1. 기여하다
                        1. 노트북 및 LLM 통합을 위한 추가 종속성
                          1. Notebook MCP를 사용하여 LLM 호출(Claude)

                            Related MCP Servers

                            • -
                              security
                              F
                              license
                              -
                              quality
                              Enables AI agent and task management using the CrewAI framework, allowing users to create and run agents and tasks in an automated workflow environment.
                              Last updated -
                              0
                              3
                              JavaScript
                            • -
                              security
                              A
                              license
                              -
                              quality
                              A lightweight, modular API service that provides useful tools like weather, date/time, calculator, search, email, and task management through a RESTful interface, designed for integration with AI agents and automated workflows.
                              Last updated -
                              Python
                              MIT License
                            • -
                              security
                              A
                              license
                              -
                              quality
                              An MCP server that enables AI agents to interact with Modal, allowing them to deploy apps and run functions in a serverless cloud environment.
                              Last updated -
                              Python
                              MIT License
                            • -
                              security
                              F
                              license
                              -
                              quality
                              A lightweight Python-based server designed to run, manage and create CrewAI workflows using the Model Context Protocol for communicating with LLMs and tools like Claude Desktop or Cursor IDE.
                              Last updated -
                              1
                              Python

                            View all related MCP servers

                            MCP directory API

                            We provide all the information about MCP servers via our MCP API.

                            curl -X GET 'https://glama.ai/api/mcp/v1/servers/Chunkys0up7/MCP'

                            If you have feedback or need assistance with the MCP directory API, please join our Discord server