Integrations
Uses LangChain's agent framework to facilitate natural language interactions with MLflow data and operations
Incorporates LangGraph for structuring the conversational flow and processing between the natural language queries and MLflow operations
Provides a natural language interface to MLflow, enabling queries about registered models, experiment tracking, and system information using plain English
MLflow MCP 서버: MLflow를 위한 자연어 인터페이스
이 프로젝트는 모델 컨텍스트 프로토콜(MCP)을 통해 MLflow에 대한 자연어 인터페이스를 제공합니다. MLflow 추적 서버에 쉬운 영어로 쿼리할 수 있으므로 머신 러닝 실험과 모델을 더 쉽게 관리하고 탐색할 수 있습니다.
개요
MLflow MCP 에이전트는 두 가지 주요 구성 요소로 구성됩니다.
- MLflow MCP 서버 (
mlflow_server.py
): MLflow 추적 서버에 연결하고 MCP(모델 컨텍스트 프로토콜)를 통해 MLflow 기능을 제공합니다. - MLflow MCP 클라이언트 (
mlflow_client.py
): 대화형 AI 어시스턴트를 사용하여 MLflow MCP 서버와 상호 작용할 수 있는 자연어 인터페이스를 제공합니다.
특징
- 자연어 쿼리 : MLflow 추적 서버에 대한 질문을 일반 영어로 질문하세요
- 모델 등록 탐색 : 등록된 모델에 대한 정보를 얻으세요
- 실험 추적 : 실험 및 실행을 나열하고 탐색하세요
- 시스템 정보 : MLflow 환경에 대한 상태 및 메타데이터를 가져옵니다.
필수 조건
- 파이썬 3.8 이상
- MLflow 서버 실행 중(기본값:
http://localhost:8080
) - LLM용 OpenAI API 키
설치
- 이 저장소를 복제하세요:지엑스피1
- 가상 환경 만들기:Copy
- 필요한 패키지를 설치하세요:Copy
- OpenAI API 키를 설정하세요:Copy
- (선택 사항) MLflow 추적 서버 URI를 구성합니다.Copy
용법
MCP 서버 시작
먼저 MLflow MCP 서버를 시작합니다.
서버는 MLflow 추적 서버에 연결하고 MCP를 통해 MLflow 기능을 제공합니다.
질의하기
서버가 실행되면 클라이언트를 사용하여 자연어 쿼리를 만들 수 있습니다.
예시 쿼리:
- "MLflow에 등록된 모든 모델을 보여주세요"
- "내 모든 실험을 나열해 보세요"
- "'iris-classifier'라는 모델에 대한 세부 정보를 얻으세요"
- "내 MLflow 서버 상태는 어떻습니까?"
구성
환경 변수를 사용하여 동작을 사용자 정의할 수 있습니다.
MLFLOW_TRACKING_URI
: MLflow 추적 서버의 URI(기본값:http://localhost:8080
)OPENAI_API_KEY
: OpenAI API 키MODEL_NAME
: 사용할 OpenAI 모델(기본값:gpt-3.5-turbo-0125
)MLFLOW_SERVER_SCRIPT
: MLflow MCP 서버 스크립트 경로(기본값:mlflow_server.py
)LOG_LEVEL
: 로깅 레벨(기본값:INFO
)
MLflow MCP 서버( mlflow_server.py
)
서버는 MLflow 추적 서버에 연결하고 MCP를 통해 다음 도구를 제공합니다.
list_models
: MLflow 모델 레지스트리에 등록된 모든 모델을 나열합니다.list_experiments
: MLflow 추적 서버의 모든 실험을 나열합니다.get_model_details
: 특정 등록된 모델에 대한 자세한 정보를 가져옵니다.get_system_info
: MLflow 추적 서버 및 시스템에 대한 정보를 가져옵니다.
제한 사항
- 현재는 MLflow 기능의 하위 집합만 지원합니다.
- 클라이언트는 OpenAI 모델을 사용하려면 인터넷 액세스가 필요합니다.
- 복잡한 MLflow 작업의 경우 오류 처리가 제한될 수 있습니다.
향후 개선 사항
- MLflow 모델 예측에 대한 지원 추가
- 더욱 복잡한 쿼리에 대한 자연어 이해력 향상
- 메트릭 및 매개변수에 대한 시각화 기능 추가
- 실행 관리 및 아티팩트 처리와 같은 더 많은 MLflow 작업 지원
감사의 말
- 모델 컨텍스트 프로토콜(MCP) : 프로토콜 사양을 위한
- LangChain : 에이전트 프레임워크용
- MLflow : 추적 및 모델 레지스트리 기능용
This server cannot be installed
사용자가 모델 컨텍스트 프로토콜을 통해 일반 영어로 머신 러닝 실험과 모델을 쿼리하고 관리할 수 있도록 하는 MLflow용 자연어 인터페이스입니다.