🚀 ⚡️ servidor locust-mcp
Implementación de un servidor de Protocolo de Contexto de Modelo (MCP) para ejecutar pruebas de carga de Locust. Este servidor permite una integración fluida de las capacidades de pruebas de carga de Locust con entornos de desarrollo basados en IA.
✨ Características
Integración sencilla con el marco del Protocolo de Contexto de Modelo
Compatibilidad con modos sin cabeza y de interfaz de usuario
Parámetros de prueba configurables (usuarios, tasa de generación, tiempo de ejecución)
API fácil de usar para ejecutar pruebas de carga de Locust
Salida de ejecución de pruebas en tiempo real
Compatibilidad con el protocolo HTTP/HTTPS lista para usar
Compatibilidad con escenarios de tareas personalizados

Related MCP server: Web-QA
🔧 Requisitos previos
Antes de comenzar, asegúrese de tener instalado lo siguiente:
Python 3.13 o superior
Gestor de paquetes uv ( Guía de instalación )
📦 Instalación
Clonar el repositorio:
Instale las dependencias necesarias:
Configurar variables de entorno (opcional): Cree un archivo
.enven la raíz del proyecto:
🚀 Primeros pasos
Cree un script de prueba de Locust (por ejemplo,
hello.py):
Configure el servidor MCP utilizando las siguientes especificaciones en su cliente MCP favorito (Claude Desktop, Cursor, Windsurf y más):
Ahora solicite al LLM que ejecute la prueba, por ejemplo,
run locust test for hello.py. El servidor Locust MCP usará la siguiente herramienta para iniciar la prueba:
run_locust: ejecuta una prueba con opciones configurables para el modo sin cabeza, el host, el tiempo de ejecución, los usuarios y la tasa de generación
Referencia de API
Ejecutar la prueba de langosta
Parámetros:
test_file: Ruta a su script de prueba de Locustheadless: Ejecutar en modo sin cabeza (Verdadero) o con interfaz de usuario (Falso)host: host de destino para la prueba de cargaruntime: Duración de la prueba (p. ej., "30 s", "1 m", "5 m")users: Número de usuarios simultáneos a simularspawn_rate: Frecuencia con la que se generan los usuarios
✨ Casos de uso
Análisis de resultados impulsados por LLM
Depuración eficaz con la ayuda de LLM
🤝 Contribuyendo
¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.
📄 Licencia
Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.