MLflow MCP Server

Integrations

  • Uses LangChain's agent framework to facilitate natural language interactions with MLflow data and operations

  • Incorporates LangGraph for structuring the conversational flow and processing between the natural language queries and MLflow operations

  • Provides a natural language interface to MLflow, enabling queries about registered models, experiment tracking, and system information using plain English

MLflow MCP 서버: MLflow를 위한 자연어 인터페이스

이 프로젝트는 모델 컨텍스트 프로토콜(MCP)을 통해 MLflow에 대한 자연어 인터페이스를 제공합니다. MLflow 추적 서버에 쉬운 영어로 쿼리할 수 있으므로 머신 러닝 실험과 모델을 더 쉽게 관리하고 탐색할 수 있습니다.

개요

MLflow MCP 에이전트는 두 가지 주요 구성 요소로 구성됩니다.

  1. MLflow MCP 서버 ( mlflow_server.py ): MLflow 추적 서버에 연결하고 MCP(모델 컨텍스트 프로토콜)를 통해 MLflow 기능을 제공합니다.
  2. MLflow MCP 클라이언트 ( mlflow_client.py ): 대화형 AI 어시스턴트를 사용하여 MLflow MCP 서버와 상호 작용할 수 있는 자연어 인터페이스를 제공합니다.

특징

  • 자연어 쿼리 : MLflow 추적 서버에 대한 질문을 일반 영어로 질문하세요
  • 모델 등록 탐색 : 등록된 모델에 대한 정보를 얻으세요
  • 실험 추적 : 실험 및 실행을 나열하고 탐색하세요
  • 시스템 정보 : MLflow 환경에 대한 상태 및 메타데이터를 가져옵니다.

필수 조건

  • 파이썬 3.8 이상
  • MLflow 서버 실행 중(기본값: http://localhost:8080 )
  • LLM용 OpenAI API 키

설치

  1. 이 저장소를 복제하세요:지엑스피1
  2. 가상 환경 만들기:
    python -m venv venv source venv/bin/activate # On Windows: venv\Scripts\activate
  3. 필요한 패키지를 설치하세요:
    pip install mcp[cli] langchain-mcp-adapters langchain-openai langgraph mlflow
  4. OpenAI API 키를 설정하세요:
    export OPENAI_API_KEY=your_key_here
  5. (선택 사항) MLflow 추적 서버 URI를 구성합니다.
    export MLFLOW_TRACKING_URI=http://localhost:8080

용법

MCP 서버 시작

먼저 MLflow MCP 서버를 시작합니다.

python mlflow_server.py

서버는 MLflow 추적 서버에 연결하고 MCP를 통해 MLflow 기능을 제공합니다.

질의하기

서버가 실행되면 클라이언트를 사용하여 자연어 쿼리를 만들 수 있습니다.

python mlflow_client.py "What models do I have registered in MLflow?"

예시 쿼리:

  • "MLflow에 등록된 모든 모델을 보여주세요"
  • "내 모든 실험을 나열해 보세요"
  • "'iris-classifier'라는 모델에 대한 세부 정보를 얻으세요"
  • "내 MLflow 서버 상태는 어떻습니까?"

구성

환경 변수를 사용하여 동작을 사용자 정의할 수 있습니다.

  • MLFLOW_TRACKING_URI : MLflow 추적 서버의 URI(기본값: http://localhost:8080 )
  • OPENAI_API_KEY : OpenAI API 키
  • MODEL_NAME : 사용할 OpenAI 모델(기본값: gpt-3.5-turbo-0125 )
  • MLFLOW_SERVER_SCRIPT : MLflow MCP 서버 스크립트 경로(기본값: mlflow_server.py )
  • LOG_LEVEL : 로깅 레벨(기본값: INFO )

MLflow MCP 서버( mlflow_server.py )

서버는 MLflow 추적 서버에 연결하고 MCP를 통해 다음 도구를 제공합니다.

  • list_models : MLflow 모델 레지스트리에 등록된 모든 모델을 나열합니다.
  • list_experiments : MLflow 추적 서버의 모든 실험을 나열합니다.
  • get_model_details : 특정 등록된 모델에 대한 자세한 정보를 가져옵니다.
  • get_system_info : MLflow 추적 서버 및 시스템에 대한 정보를 가져옵니다.

제한 사항

  • 현재는 MLflow 기능의 하위 집합만 지원합니다.
  • 클라이언트는 OpenAI 모델을 사용하려면 인터넷 액세스가 필요합니다.
  • 복잡한 MLflow 작업의 경우 오류 처리가 제한될 수 있습니다.

향후 개선 사항

  • MLflow 모델 예측에 대한 지원 추가
  • 더욱 복잡한 쿼리에 대한 자연어 이해력 향상
  • 메트릭 및 매개변수에 대한 시각화 기능 추가
  • 실행 관리 및 아티팩트 처리와 같은 더 많은 MLflow 작업 지원

감사의 말

-
security - not tested
F
license - not found
-
quality - not tested

사용자가 모델 컨텍스트 프로토콜을 통해 일반 영어로 머신 러닝 실험과 모델을 쿼리하고 관리할 수 있도록 하는 MLflow용 자연어 인터페이스입니다.

  1. Overview
    1. Features
      1. Prerequisites
        1. Installation
          1. Usage
            1. Starting the MCP Server
            2. Making Queries
          2. Configuration
            1. MLflow MCP Server (mlflow_server.py)
              1. Limitations
                1. Future Improvements
                  1. Acknowledgments
                    ID: 0o982w59zp