Skip to main content
Glama

k6-mcp-server

🚀 ⚡️ servidor k6-mcp

Una implementación de servidor de Protocolo de contexto de modelo (MCP) para ejecutar pruebas de carga k6.

✨ Características

  • Integración sencilla con el marco del Protocolo de Contexto de Modelo
  • Compatibilidad con duraciones de pruebas personalizadas y usuarios virtuales (VU)
  • API fácil de usar para ejecutar pruebas de carga k6
  • Configurable a través de variables de entorno
  • Salida de ejecución de pruebas en tiempo real

🔧 Requisitos previos

Antes de comenzar, asegúrese de tener instalado lo siguiente:

📦 Instalación

  1. Clonar el repositorio:
git clone https://github.com/yourusername/k6-mcp-server.git
  1. Instale las dependencias necesarias:
uv pip install -r requirements.txt
  1. Configurar variables de entorno (opcional): Cree un archivo .env en la raíz del proyecto:
K6_BIN=/path/to/k6 # Optional: defaults to 'k6' in system PATH

🚀 Primeros pasos

  1. Cree un script de prueba k6 (por ejemplo, test.js ):
import http from "k6/http"; import { sleep } from "k6"; export default function () { http.get("http://test.k6.io"); sleep(1); }
  1. Configure el servidor MCP utilizando las siguientes especificaciones en su cliente MCP favorito (Claude Desktop, Cursor, Windsurf y más):
{ "mcpServers": { "k6": { "command": "/Users/naveenkumar/.local/bin/uv", "args": [ "--directory", "/Users/naveenkumar/Gits/k6-mcp-server", "run", "k6_server.py" ] } } }
  1. Ahora, pídale al LLM que ejecute la prueba; por ejemplo, run k6 test for hello.js . El servidor k6 mcp utilizará una de las siguientes herramientas para iniciar la prueba.
  • execute_k6_test : ejecuta una prueba con opciones predeterminadas (duración de 30 s, 10 VU)
  • execute_k6_test_with_options : Ejecutar una prueba con duración y VU personalizadas

k6-MCP

Referencia de API

Ejecutar prueba K6

execute_k6_test( script_file: str, duration: str = "30s", # Optional vus: int = 10 # Optional )

Ejecutar prueba K6 con opciones personalizadas

execute_k6_test_with_options( script_file: str, duration: str, vus: int )

🤝 Contribuyendo

¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.

📄 Licencia

Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.

-
security - not tested
A
license - permissive license
-
quality - not tested

Una implementación de servidor de Protocolo de contexto de modelo (MCP) que permite a los asistentes de IA ejecutar pruebas de carga k6 a través de comandos de lenguaje natural, admitiendo duraciones de prueba personalizadas y usuarios virtuales.

  1. ✨ Características
    1. 🔧 Requisitos previos
      1. 📦 Instalación
        1. 🚀 Primeros pasos
          1. Referencia de API
            1. Ejecutar prueba K6
            2. Ejecutar prueba K6 con opciones personalizadas
          2. 🤝 Contribuyendo
            1. 📄 Licencia

              Related MCP Servers

              • A
                security
                F
                license
                A
                quality
                Model Context Protocol (MCP) server that integrates Redash with AI assistants like Claude, allowing them to query data, manage visualizations, and interact with dashboards through natural language.
                Last updated -
                10
                104
                21
                JavaScript
                • Apple
              • A
                security
                A
                license
                A
                quality
                A Model Context Protocol (MCP) server that enables AI assistants to control and interact with Android devices, allowing for device management, app debugging, system analysis, and UI automation through natural language commands.
                Last updated -
                29
                143
                Python
                Apache 2.0
                • Linux
                • Apple
              • A
                security
                F
                license
                A
                quality
                A Model Context Protocol server that allows AI assistants to execute and manage JMeter performance tests through natural language commands.
                Last updated -
                2
                27
                Python
              • A
                security
                A
                license
                A
                quality
                A Model Context Protocol (MCP) server for LeetCode that enables AI assistants to access LeetCode problems, user information, and contest data.
                Last updated -
                7
                1
                TypeScript
                MIT License

              View all related MCP servers

              MCP directory API

              We provide all the information about MCP servers via our MCP API.

              curl -X GET 'https://glama.ai/api/mcp/v1/servers/QAInsights/k6-mcp-server'

              If you have feedback or need assistance with the MCP directory API, please join our Discord server