Skip to main content
Glama

MLflow MCP Server

by iRahulPandey

MLflow MCP 서버: MLflow를 위한 자연어 인터페이스

이 프로젝트는 모델 컨텍스트 프로토콜(MCP)을 통해 MLflow에 대한 자연어 인터페이스를 제공합니다. MLflow 추적 서버에 쉬운 영어로 쿼리할 수 있으므로 머신 러닝 실험과 모델을 더 쉽게 관리하고 탐색할 수 있습니다.

개요

MLflow MCP 에이전트는 두 가지 주요 구성 요소로 구성됩니다.

  1. MLflow MCP 서버 ( mlflow_server.py ): MLflow 추적 서버에 연결하고 MCP(모델 컨텍스트 프로토콜)를 통해 MLflow 기능을 제공합니다.

  2. MLflow MCP 클라이언트 ( mlflow_client.py ): 대화형 AI 어시스턴트를 사용하여 MLflow MCP 서버와 상호 작용할 수 있는 자연어 인터페이스를 제공합니다.

특징

  • 자연어 쿼리 : MLflow 추적 서버에 대한 질문을 일반 영어로 질문하세요

  • 모델 등록 탐색 : 등록된 모델에 대한 정보를 얻으세요

  • 실험 추적 : 실험 및 실행을 나열하고 탐색하세요

  • 시스템 정보 : MLflow 환경에 대한 상태 및 메타데이터를 가져옵니다.

필수 조건

  • 파이썬 3.8 이상

  • MLflow 서버 실행 중(기본값: http://localhost:8080 )

  • LLM용 OpenAI API 키

설치

  1. 이 저장소를 복제하세요:

    지엑스피1

  2. 가상 환경 만들기:

    python -m venv venv source venv/bin/activate # On Windows: venv\Scripts\activate
  3. 필요한 패키지를 설치하세요:

    pip install mcp[cli] langchain-mcp-adapters langchain-openai langgraph mlflow
  4. OpenAI API 키를 설정하세요:

    export OPENAI_API_KEY=your_key_here
  5. (선택 사항) MLflow 추적 서버 URI를 구성합니다.

    export MLFLOW_TRACKING_URI=http://localhost:8080

용법

MCP 서버 시작

먼저 MLflow MCP 서버를 시작합니다.

python mlflow_server.py

서버는 MLflow 추적 서버에 연결하고 MCP를 통해 MLflow 기능을 제공합니다.

질의하기

서버가 실행되면 클라이언트를 사용하여 자연어 쿼리를 만들 수 있습니다.

python mlflow_client.py "What models do I have registered in MLflow?"

예시 쿼리:

  • "MLflow에 등록된 모든 모델을 보여주세요"

  • "내 모든 실험을 나열해 보세요"

  • "'iris-classifier'라는 모델에 대한 세부 정보를 얻으세요"

  • "내 MLflow 서버 상태는 어떻습니까?"

구성

환경 변수를 사용하여 동작을 사용자 정의할 수 있습니다.

  • MLFLOW_TRACKING_URI : MLflow 추적 서버의 URI(기본값: http://localhost:8080 )

  • OPENAI_API_KEY : OpenAI API 키

  • MODEL_NAME : 사용할 OpenAI 모델(기본값: gpt-3.5-turbo-0125 )

  • MLFLOW_SERVER_SCRIPT : MLflow MCP 서버 스크립트 경로(기본값: mlflow_server.py )

  • LOG_LEVEL : 로깅 레벨(기본값: INFO )

MLflow MCP 서버( mlflow_server.py )

서버는 MLflow 추적 서버에 연결하고 MCP를 통해 다음 도구를 제공합니다.

  • list_models : MLflow 모델 레지스트리에 등록된 모든 모델을 나열합니다.

  • list_experiments : MLflow 추적 서버의 모든 실험을 나열합니다.

  • get_model_details : 특정 등록된 모델에 대한 자세한 정보를 가져옵니다.

  • get_system_info : MLflow 추적 서버 및 시스템에 대한 정보를 가져옵니다.

제한 사항

  • 현재는 MLflow 기능의 하위 집합만 지원합니다.

  • 클라이언트는 OpenAI 모델을 사용하려면 인터넷 액세스가 필요합니다.

  • 복잡한 MLflow 작업의 경우 오류 처리가 제한될 수 있습니다.

향후 개선 사항

  • MLflow 모델 예측에 대한 지원 추가

  • 더욱 복잡한 쿼리에 대한 자연어 이해력 향상

  • 메트릭 및 매개변수에 대한 시각화 기능 추가

  • 실행 관리 및 아티팩트 처리와 같은 더 많은 MLflow 작업 지원

감사의 말

-
security - not tested
F
license - not found
-
quality - not tested

Related MCP Servers

  • -
    security
    A
    license
    -
    quality
    A Model Context Protocol server that enables AI assistants to interact with n8n workflows through natural language, supporting actions like listing, creating, updating, executing and monitoring workflows.
    Last updated -
    130
    1,461
    MIT License
    • Apple
    • Linux
  • A
    security
    A
    license
    A
    quality
    Enables querying documents through a Langflow backend using natural language questions, providing an interface to interact with Langflow document Q\&A flows.
    Last updated -
    1
    14
    MIT License
    • Apple
  • -
    security
    A
    license
    -
    quality
    A Model Context Protocol Server that enables LLMs to interact with and execute REST API calls through natural language prompts, supporting GET/PUT/POST/PATCH operations on configured APIs.
    Last updated -
    6
    Apache 2.0
  • -
    security
    F
    license
    -
    quality
    A simple application demonstrating Model Context Protocol (MCP) integration with FastAPI and Streamlit, allowing users to interact with LLMs through a clean interface.
    Last updated -
    3
    • Linux

View all related MCP servers

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/iRahulPandey/mlflowMCPServer'

If you have feedback or need assistance with the MCP directory API, please join our Discord server