Skip to main content
Glama

MLflow MCP Server

by iRahulPandey

MLflow MCP 서버: MLflow를 위한 자연어 인터페이스

이 프로젝트는 모델 컨텍스트 프로토콜(MCP)을 통해 MLflow에 대한 자연어 인터페이스를 제공합니다. MLflow 추적 서버에 쉬운 영어로 쿼리할 수 있으므로 머신 러닝 실험과 모델을 더 쉽게 관리하고 탐색할 수 있습니다.

개요

MLflow MCP 에이전트는 두 가지 주요 구성 요소로 구성됩니다.

  1. MLflow MCP 서버 ( mlflow_server.py ): MLflow 추적 서버에 연결하고 MCP(모델 컨텍스트 프로토콜)를 통해 MLflow 기능을 제공합니다.
  2. MLflow MCP 클라이언트 ( mlflow_client.py ): 대화형 AI 어시스턴트를 사용하여 MLflow MCP 서버와 상호 작용할 수 있는 자연어 인터페이스를 제공합니다.

특징

  • 자연어 쿼리 : MLflow 추적 서버에 대한 질문을 일반 영어로 질문하세요
  • 모델 등록 탐색 : 등록된 모델에 대한 정보를 얻으세요
  • 실험 추적 : 실험 및 실행을 나열하고 탐색하세요
  • 시스템 정보 : MLflow 환경에 대한 상태 및 메타데이터를 가져옵니다.

필수 조건

  • 파이썬 3.8 이상
  • MLflow 서버 실행 중(기본값: http://localhost:8080 )
  • LLM용 OpenAI API 키

설치

  1. 이 저장소를 복제하세요:지엑스피1
  2. 가상 환경 만들기:
    python -m venv venv source venv/bin/activate # On Windows: venv\Scripts\activate
  3. 필요한 패키지를 설치하세요:
    pip install mcp[cli] langchain-mcp-adapters langchain-openai langgraph mlflow
  4. OpenAI API 키를 설정하세요:
    export OPENAI_API_KEY=your_key_here
  5. (선택 사항) MLflow 추적 서버 URI를 구성합니다.
    export MLFLOW_TRACKING_URI=http://localhost:8080

용법

MCP 서버 시작

먼저 MLflow MCP 서버를 시작합니다.

python mlflow_server.py

서버는 MLflow 추적 서버에 연결하고 MCP를 통해 MLflow 기능을 제공합니다.

질의하기

서버가 실행되면 클라이언트를 사용하여 자연어 쿼리를 만들 수 있습니다.

python mlflow_client.py "What models do I have registered in MLflow?"

예시 쿼리:

  • "MLflow에 등록된 모든 모델을 보여주세요"
  • "내 모든 실험을 나열해 보세요"
  • "'iris-classifier'라는 모델에 대한 세부 정보를 얻으세요"
  • "내 MLflow 서버 상태는 어떻습니까?"

구성

환경 변수를 사용하여 동작을 사용자 정의할 수 있습니다.

  • MLFLOW_TRACKING_URI : MLflow 추적 서버의 URI(기본값: http://localhost:8080 )
  • OPENAI_API_KEY : OpenAI API 키
  • MODEL_NAME : 사용할 OpenAI 모델(기본값: gpt-3.5-turbo-0125 )
  • MLFLOW_SERVER_SCRIPT : MLflow MCP 서버 스크립트 경로(기본값: mlflow_server.py )
  • LOG_LEVEL : 로깅 레벨(기본값: INFO )

MLflow MCP 서버( mlflow_server.py )

서버는 MLflow 추적 서버에 연결하고 MCP를 통해 다음 도구를 제공합니다.

  • list_models : MLflow 모델 레지스트리에 등록된 모든 모델을 나열합니다.
  • list_experiments : MLflow 추적 서버의 모든 실험을 나열합니다.
  • get_model_details : 특정 등록된 모델에 대한 자세한 정보를 가져옵니다.
  • get_system_info : MLflow 추적 서버 및 시스템에 대한 정보를 가져옵니다.

제한 사항

  • 현재는 MLflow 기능의 하위 집합만 지원합니다.
  • 클라이언트는 OpenAI 모델을 사용하려면 인터넷 액세스가 필요합니다.
  • 복잡한 MLflow 작업의 경우 오류 처리가 제한될 수 있습니다.

향후 개선 사항

  • MLflow 모델 예측에 대한 지원 추가
  • 더욱 복잡한 쿼리에 대한 자연어 이해력 향상
  • 메트릭 및 매개변수에 대한 시각화 기능 추가
  • 실행 관리 및 아티팩트 처리와 같은 더 많은 MLflow 작업 지원

감사의 말

-
security - not tested
F
license - not found
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

사용자가 모델 컨텍스트 프로토콜을 통해 일반 영어로 머신 러닝 실험과 모델을 쿼리하고 관리할 수 있도록 하는 MLflow용 자연어 인터페이스입니다.

  1. 개요
    1. 특징
      1. 필수 조건
        1. 설치
          1. 용법
            1. MCP 서버 시작
            2. 질의하기
          2. 구성
            1. MLflow MCP 서버( mlflow_server.py )
              1. 제한 사항
                1. 향후 개선 사항
                  1. 감사의 말

                    Related MCP Servers

                    • -
                      security
                      A
                      license
                      -
                      quality
                      A Model Context Protocol server that enables AI agents to query Erick Wendel's talks, blog posts, and videos across different platforms using natural language.
                      Last updated -
                      55
                      TypeScript
                      MIT License
                    • -
                      security
                      F
                      license
                      -
                      quality
                      A Model Context Protocol server that enables AI assistants to interact with Coolify instances through natural language, allowing management of servers, applications, databases, and deployments.
                      Last updated -
                      85
                      2
                      TypeScript
                    • -
                      security
                      A
                      license
                      -
                      quality
                      A Model Context Protocol server that enables AI assistants to interact with n8n workflows through natural language, supporting actions like listing, creating, updating, executing and monitoring workflows.
                      Last updated -
                      388
                      464
                      TypeScript
                      MIT License
                      • Apple
                      • Linux
                    • -
                      security
                      F
                      license
                      -
                      quality
                      A Model Context Protocol server that allows AI assistants to interact with Prefect's workflow automation platform through natural language, enabling users to manage flows, deployments, tasks, and other Prefect resources via conversational commands.
                      Last updated -
                      4
                      Python

                    View all related MCP servers

                    MCP directory API

                    We provide all the information about MCP servers via our MCP API.

                    curl -X GET 'https://glama.ai/api/mcp/v1/servers/iRahulPandey/mlflowMCPServer'

                    If you have feedback or need assistance with the MCP directory API, please join our Discord server