Integrations
Enables running Locust load tests with configurable parameters (users, spawn rate, runtime) for HTTP/HTTPS performance testing through a simple API.
🚀 ⚡️ servidor locust-mcp
Implementación de un servidor de Protocolo de Contexto de Modelo (MCP) para ejecutar pruebas de carga de Locust. Este servidor permite una integración fluida de las capacidades de pruebas de carga de Locust con entornos de desarrollo basados en IA.
✨ Características
- Integración sencilla con el marco del Protocolo de Contexto de Modelo
- Compatibilidad con modos sin cabeza y de interfaz de usuario
- Parámetros de prueba configurables (usuarios, tasa de generación, tiempo de ejecución)
- API fácil de usar para ejecutar pruebas de carga de Locust
- Salida de ejecución de pruebas en tiempo real
- Compatibilidad con el protocolo HTTP/HTTPS lista para usar
- Compatibilidad con escenarios de tareas personalizados
🔧 Requisitos previos
Antes de comenzar, asegúrese de tener instalado lo siguiente:
- Python 3.13 o superior
- Gestor de paquetes uv ( Guía de instalación )
📦 Instalación
- Clonar el repositorio:
- Instale las dependencias necesarias:
- Configurar variables de entorno (opcional): Cree un archivo
.env
en la raíz del proyecto:
🚀 Primeros pasos
- Cree un script de prueba de Locust (por ejemplo,
hello.py
):
- Configure el servidor MCP utilizando las siguientes especificaciones en su cliente MCP favorito (Claude Desktop, Cursor, Windsurf y más):
- Ahora solicite al LLM que ejecute la prueba, por ejemplo,
run locust test for hello.py
. El servidor Locust MCP usará la siguiente herramienta para iniciar la prueba:
run_locust
: ejecuta una prueba con opciones configurables para el modo sin cabeza, el host, el tiempo de ejecución, los usuarios y la tasa de generación
Referencia de API
Ejecutar la prueba de langosta
Parámetros:
test_file
: Ruta a su script de prueba de Locustheadless
: Ejecutar en modo sin cabeza (Verdadero) o con interfaz de usuario (Falso)host
: host de destino para la prueba de cargaruntime
: Duración de la prueba (p. ej., "30 s", "1 m", "5 m")users
: Número de usuarios simultáneos a simularspawn_rate
: Frecuencia con la que se generan los usuarios
✨ Casos de uso
- Análisis de resultados impulsados por LLM
- Depuración eficaz con la ayuda de LLM
🤝 Contribuyendo
¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.
📄 Licencia
Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.
You must be authenticated.
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Tools
Un servidor que integra las capacidades de prueba de carga de Locust con entornos de desarrollo impulsados por IA, lo que permite a los usuarios ejecutar pruebas de rendimiento a través de comandos de lenguaje natural.
Related MCP Servers
- -securityFlicense-qualityA demonstration server that allows large language models to perform penetration testing tasks autonomously by interfacing with the Mythic C2 framework.Last updated -11Python
- -securityAlicense-qualityA Message Control Protocol server that runs PHP tests and static analysis tools automatically for developers, providing results directly to AI assistants in Cursor editor.Last updated -1TypeScriptMIT License
- AsecurityFlicenseAqualityA Model Context Protocol server that allows AI assistants to execute and manage JMeter performance tests through natural language commands.Last updated -210Python
- AsecurityAlicenseAqualityQA Sphere MCP server that enables Large Language Models to interact directly with test management system test cases, supporting AI-powered development workflows and test case discovery.Last updated -6528JavaScriptMIT License