Integrations
Uses LangChain's agent framework to facilitate natural language interactions with MLflow data and operations
Incorporates LangGraph for structuring the conversational flow and processing between the natural language queries and MLflow operations
Provides a natural language interface to MLflow, enabling queries about registered models, experiment tracking, and system information using plain English
Servidor MCP de MLflow: Interfaz de lenguaje natural para MLflow
Este proyecto proporciona una interfaz de lenguaje natural para MLflow mediante el Protocolo de Contexto de Modelo (MCP). Permite consultar el servidor de seguimiento de MLflow en inglés sencillo, lo que facilita la gestión y la exploración de experimentos y modelos de aprendizaje automático.
Descripción general
El agente MCP de MLflow consta de dos componentes principales:
- Servidor MCP de MLflow (
mlflow_server.py
): se conecta a su servidor de seguimiento de MLflow y expone la funcionalidad de MLflow a través del Protocolo de contexto de modelo (MCP). - Cliente MLflow MCP (
mlflow_client.py
): proporciona una interfaz de lenguaje natural para interactuar con el servidor MLflow MCP mediante un asistente de inteligencia artificial conversacional.
Características
- Consultas en lenguaje natural : haga preguntas sobre su servidor de seguimiento MLflow en un lenguaje sencillo
- Exploración del Registro de Modelos : Obtenga información sobre sus modelos registrados
- Seguimiento de experimentos : enumere y explore sus experimentos y ejecuciones
- Información del sistema : obtenga el estado y los metadatos sobre su entorno MLflow
Prerrequisitos
- Python 3.8+
- Servidor MLflow en ejecución (predeterminado:
http://localhost:8080
) - Clave API de OpenAI para el LLM
Instalación
- Clonar este repositorio:Copy
- Crear un entorno virtual:Copy
- Instalar los paquetes necesarios:Copy
- Establezca su clave API de OpenAI:Copy
- (Opcional) Configure la URI del servidor de seguimiento de MLflow:Copy
Uso
Iniciando el servidor MCP
Primero, inicie el servidor MLflow MCP:
El servidor se conecta a su servidor de seguimiento MLflow y expone la funcionalidad de MLflow a través de MCP.
Realizar consultas
Una vez que el servidor esté en ejecución, puedes realizar consultas en lenguaje natural utilizando el cliente:
Consultas de ejemplo:
- "Muéstrame todos los modelos registrados en MLflow"
- "Enumerar todos mis experimentos"
- Obtener detalles del modelo denominado 'iris-classifier'
- "¿Cuál es el estado de mi servidor MLflow?"
Configuración
Puede personalizar el comportamiento utilizando variables de entorno:
MLFLOW_TRACKING_URI
: URI de su servidor de seguimiento MLflow (predeterminado:http://localhost:8080
)OPENAI_API_KEY
: Su clave API de OpenAIMODEL_NAME
: El modelo OpenAI a utilizar (predeterminado:gpt-3.5-turbo-0125
)MLFLOW_SERVER_SCRIPT
: Ruta al script del servidor MCP de MLflow (predeterminado:mlflow_server.py
)LOG_LEVEL
: Nivel de registro (predeterminado:INFO
)
Servidor MCP de MLflow ( mlflow_server.py
)
El servidor se conecta a su servidor de seguimiento MLflow y expone las siguientes herramientas a través de MCP:
list_models
: enumera todos los modelos registrados en el registro de modelos de MLflowlist_experiments
: enumera todos los experimentos en el servidor de seguimiento de MLflowget_model_details
: Obtiene información detallada sobre un modelo registrado específicoget_system_info
: Obtiene información sobre el servidor y el sistema de seguimiento de MLflow
Limitaciones
- Actualmente solo admite un subconjunto de la funcionalidad de MLflow
- El cliente requiere acceso a Internet para utilizar los modelos OpenAI
- El manejo de errores puede ser limitado para operaciones complejas de MLflow
Mejoras futuras
- Añadir compatibilidad con predicciones de modelos de MLflow
- Mejorar la comprensión del lenguaje natural para consultas más complejas
- Añadir capacidades de visualización para métricas y parámetros
- Soporte para más operaciones de MLflow como administración de ejecuciones y manejo de artefactos
Expresiones de gratitud
- Protocolo de contexto de modelo (MCP) : para la especificación del protocolo
- LangChain : para el marco del agente
- MLflow : Para la funcionalidad de seguimiento y registro de modelos
This server cannot be installed
hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Una interfaz de lenguaje natural para MLflow que permite a los usuarios consultar y administrar sus experimentos y modelos de aprendizaje automático utilizando inglés simple a través del Protocolo de Contexto de Modelo.
Related MCP Servers
- -securityAlicense-qualityA Model Context Protocol server that enables AI agents to query Erick Wendel's talks, blog posts, and videos across different platforms using natural language.Last updated -55TypeScriptMIT License
- -securityFlicense-qualityA Model Context Protocol server that enables AI assistants to interact with Coolify instances through natural language, allowing management of servers, applications, databases, and deployments.Last updated -852TypeScript
- -securityAlicense-qualityA Model Context Protocol server that enables AI assistants to interact with n8n workflows through natural language, supporting actions like listing, creating, updating, executing and monitoring workflows.Last updated -135225TypeScriptMIT License
- -securityFlicense-qualityA Model Context Protocol server that allows AI assistants to interact with Prefect's workflow automation platform through natural language, enabling users to manage flows, deployments, tasks, and other Prefect resources via conversational commands.Last updated -4Python