Enables configuration management through environment variables, allowing customization of the MCP server's behavior
Provides the API backend for the MCP server, allowing HTTP-based interactions with the system's microservices
Supports Jupyter notebook execution within the MCP environment, allowing notebook-based workflows for AI applications
모델 컨텍스트 프로토콜(MCP)
개요
MCP는 LLM 프롬프트, Jupyter 노트북, Python 스크립트를 포함한 AI 모델 컨텍스트를 관리, 실행 및 모니터링하는 모듈식 프레임워크입니다. FastAPI 백엔드와 Streamlit 대시보드 프런트엔드를 제공합니다.
특징
- 다양한 유형의 MCP(LLM 프롬프트, 노트북, 스크립트)를 등록하고 관리합니다.
- MCP를 실행하고 웹 UI에서 결과를 봅니다.
- 서버 상태 및 통계 모니터링
- 새로운 MCP 유형에 확장 가능
설정
필수 조건
- 파이썬 3.9 이상
- (권장) 가상 환경을 생성하고 활성화하세요
종속성 설치
지엑스피1
환경 변수
- API 인증을 위해
MCP_API_KEY
설정합니다(선택 사항, 기본값 제공) - LLM의 경우 Claude를 사용하는 경우
ANTHROPIC_API_KEY
설정합니다.
백엔드 시작
프런트엔드 시작
용법
- http://localhost:8501 에서 대시보드에 접속하세요
- UI에서 MCP를 생성, 관리 및 테스트합니다.
- 사이드바에서 상태 및 통계를 모니터링하세요
새로운 MCP 추가
mcp/core/
에 새로운 MCP 클래스를 구현합니다.- 백엔드에 등록하세요
mcp/ui/app.py
에 UI 지원 추가
테스트 실행
프로젝트 구조
mcp/api/
- FastAPI 백엔드mcp/ui/
- Streamlit 프런트엔드mcp/core/
- 핵심 MCP 유형 및 논리tests/
- 테스트 모음
특허
MIT
API 문서
서버가 실행되면 다음에 액세스할 수 있습니다.
- API 문서: http://localhost:8000/docs
- 프로메테우스 메트릭: http://localhost:8000/metrics
- 상태 점검: http://localhost:8000/health
- 통계: http://localhost:8000/stats
보안
- 모든 엔드포인트에 API 키 인증이 필요합니다.
- 속도 제한은 기본적으로 활성화되어 있습니다.
- CORS는 특정 출처만 허용하도록 구성됩니다.
- 모든 민감한 구성은 환경 변수를 통해 관리됩니다.
모니터링
서버에는 다음이 포함됩니다.
- 요청 수, 대기 시간 및 서버 실행에 대한 Prometheus 메트릭
- 구조화된 JSON 로깅
- 상태 점검 엔드포인트
- 서버 통계 엔드포인트
기여하다
- 저장소를 포크하세요
- 기능 브랜치 생성
- 변경 사항을 커밋하세요
- 지점으로 밀어 넣기
- 풀 리퀘스트 만들기
노트북 및 LLM 통합을 위한 추가 종속성
이 프로젝트에는 이제 다음과 같은 추가 Python 패키지가 필요합니다.
- 팬더
- 넘파이
- 맷플롯립
- 제지공장
- nbformat
- 주피터
- 인간 중심적인
다음을 사용하여 모든 종속성을 설치합니다.
Notebook MCP를 사용하여 LLM 호출(Claude)
예제 노트북( mcp/notebooks/example.ipynb
)은 다음을 보여줍니다.
- 데이터 분석 및 플로팅
anthropic
Python 패키지를 통해 Claude LLM 호출
LLM 셀을 사용하려면 환경이나 .env
파일에서 ANTHROPIC_API_KEY
설정했는지 확인하세요.
LLM의 노트북 셀은 다음과 같습니다.
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
LLM 상호작용, Jupyter 노트북 실행, 시각적 워크플로 기능을 갖춘 마이크로서비스를 통해 AI 애플리케이션을 구축하고 조율하기 위한 모듈식 시스템입니다.
Related MCP Servers
- -securityFlicense-qualityEnables AI agent and task management using the CrewAI framework, allowing users to create and run agents and tasks in an automated workflow environment.Last updated -03JavaScript
- -securityAlicense-qualityA lightweight, modular API service that provides useful tools like weather, date/time, calculator, search, email, and task management through a RESTful interface, designed for integration with AI agents and automated workflows.Last updated -PythonMIT License
- -securityAlicense-qualityAn MCP server that enables AI agents to interact with Modal, allowing them to deploy apps and run functions in a serverless cloud environment.Last updated -PythonMIT License
- -securityFlicense-qualityA lightweight Python-based server designed to run, manage and create CrewAI workflows using the Model Context Protocol for communicating with LLMs and tools like Claude Desktop or Cursor IDE.Last updated -1Python