Skip to main content
Glama

🚀 ⚡️ servidor locust-mcp

Implementación de un servidor de Protocolo de Contexto de Modelo (MCP) para ejecutar pruebas de carga de Locust. Este servidor permite una integración fluida de las capacidades de pruebas de carga de Locust con entornos de desarrollo basados en IA.

✨ Características

  • Integración sencilla con el marco del Protocolo de Contexto de Modelo

  • Compatibilidad con modos sin cabeza y de interfaz de usuario

  • Parámetros de prueba configurables (usuarios, tasa de generación, tiempo de ejecución)

  • API fácil de usar para ejecutar pruebas de carga de Locust

  • Salida de ejecución de pruebas en tiempo real

  • Compatibilidad con el protocolo HTTP/HTTPS lista para usar

  • Compatibilidad con escenarios de tareas personalizados

Servidor Locust-MCP

Related MCP server: Web-QA

🔧 Requisitos previos

Antes de comenzar, asegúrese de tener instalado lo siguiente:

📦 Instalación

  1. Clonar el repositorio:

git clone https://github.com/qainsights/locust-mcp-server.git
  1. Instale las dependencias necesarias:

uv pip install -r requirements.txt
  1. Configurar variables de entorno (opcional): Cree un archivo .env en la raíz del proyecto:

LOCUST_HOST=http://localhost:8089 # Default host for your tests LOCUST_USERS=3 # Default number of users LOCUST_SPAWN_RATE=1 # Default user spawn rate LOCUST_RUN_TIME=10s # Default test duration

🚀 Primeros pasos

  1. Cree un script de prueba de Locust (por ejemplo, hello.py ):

from locust import HttpUser, task, between class QuickstartUser(HttpUser): wait_time = between(1, 5) @task def hello_world(self): self.client.get("/hello") self.client.get("/world") @task(3) def view_items(self): for item_id in range(10): self.client.get(f"/item?id={item_id}", name="/item") time.sleep(1) def on_start(self): self.client.post("/login", json={"username":"foo", "password":"bar"})
  1. Configure el servidor MCP utilizando las siguientes especificaciones en su cliente MCP favorito (Claude Desktop, Cursor, Windsurf y más):

{ "mcpServers": { "locust": { "command": "/Users/naveenkumar/.local/bin/uv", "args": [ "--directory", "/Users/naveenkumar/Gits/locust-mcp-server", "run", "locust_server.py" ] } } }
  1. Ahora solicite al LLM que ejecute la prueba, por ejemplo, run locust test for hello.py . El servidor Locust MCP usará la siguiente herramienta para iniciar la prueba:

  • run_locust : ejecuta una prueba con opciones configurables para el modo sin cabeza, el host, el tiempo de ejecución, los usuarios y la tasa de generación

Referencia de API

Ejecutar la prueba de langosta

run_locust( test_file: str, headless: bool = True, host: str = "http://localhost:8089", runtime: str = "10s", users: int = 3, spawn_rate: int = 1 )

Parámetros:

  • test_file : Ruta a su script de prueba de Locust

  • headless : Ejecutar en modo sin cabeza (Verdadero) o con interfaz de usuario (Falso)

  • host : host de destino para la prueba de carga

  • runtime : Duración de la prueba (p. ej., "30 s", "1 m", "5 m")

  • users : Número de usuarios simultáneos a simular

  • spawn_rate : Frecuencia con la que se generan los usuarios

✨ Casos de uso

  • Análisis de resultados impulsados por LLM

  • Depuración eficaz con la ayuda de LLM

🤝 Contribuyendo

¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.

📄 Licencia

Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.

One-click Deploy
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/QAInsights/locust-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server