-
securityA
license-
qualityA Model Context Protocol server that enables AI agents to query Erick Wendel's talks, blog posts, and videos across different platforms using natural language.
Last updated -
55
TypeScript
MIT License
该项目通过模型上下文协议 (MCP) 为 MLflow 提供自然语言接口。它允许您使用简单的英语查询 MLflow 跟踪服务器,从而更轻松地管理和探索您的机器学习实验和模型。
MLflow MCP Agent由两个主要组件组成:
mlflow_server.py
):连接到您的 MLflow 跟踪服务器并通过模型上下文协议 (MCP) 公开 MLflow 功能。mlflow_client.py
):提供自然语言界面,使用对话式 AI 助手与 MLflow MCP 服务器进行交互。http://localhost:8080
)首先,启动 MLflow MCP 服务器:
该服务器连接到您的 MLflow 跟踪服务器并通过 MCP 公开 MLflow 功能。
服务器运行后,您可以使用客户端进行自然语言查询:
示例查询:
您可以使用环境变量自定义行为:
MLFLOW_TRACKING_URI
:MLflow 跟踪服务器的 URI(默认值: http://localhost:8080
)OPENAI_API_KEY
:您的 OpenAI API 密钥MODEL_NAME
:要使用的 OpenAI 模型(默认值: gpt-3.5-turbo-0125
)MLFLOW_SERVER_SCRIPT
:MLflow MCP 服务器脚本的路径(默认值: mlflow_server.py
)LOG_LEVEL
:日志级别(默认值: INFO
)mlflow_server.py
)该服务器连接到您的 MLflow 跟踪服务器并通过 MCP 公开以下工具:
list_models
:列出 MLflow 模型注册表中所有已注册的模型list_experiments
:列出 MLflow 跟踪服务器中的所有实验get_model_details
:获取特定注册模型的详细信息get_system_info
:获取有关 MLflow 跟踪服务器和系统的信息This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
MLflow 的自然语言界面,允许用户通过模型上下文协议使用简单的英语查询和管理他们的机器学习实验和模型。
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/iRahulPandey/mlflowMCPServer'
If you have feedback or need assistance with the MCP directory API, please join our Discord server