Skip to main content
Glama

🚀 ⚡️ 로커스트-MCP-서버

Locust 부하 테스트 실행을 위한 모델 컨텍스트 프로토콜(MCP) 서버 구현입니다. 이 서버를 통해 Locust 부하 테스트 기능과 AI 기반 개발 환경의 원활한 통합이 가능합니다.

✨ 특징

  • 모델 컨텍스트 프로토콜 프레임워크와의 간단한 통합

  • 헤드리스 및 UI 모드 지원

  • 구성 가능한 테스트 매개변수(사용자, 생성 속도, 런타임)

  • Locust 부하 테스트를 실행하기 위한 사용하기 쉬운 API

  • 실시간 테스트 실행 출력

  • HTTP/HTTPS 프로토콜 지원

  • 사용자 정의 작업 시나리오 지원

Locust-MCP-서버

Related MCP server: Web-QA

🔧 필수 조건

시작하기 전에 다음 사항이 설치되어 있는지 확인하세요.

📦 설치

  1. 저장소를 복제합니다.

지엑스피1

  1. 필요한 종속성을 설치하세요:

uv pip install -r requirements.txt
  1. 환경 변수 설정(선택 사항): 프로젝트 루트에 .env 파일을 만듭니다.

LOCUST_HOST=http://localhost:8089 # Default host for your tests LOCUST_USERS=3 # Default number of users LOCUST_SPAWN_RATE=1 # Default user spawn rate LOCUST_RUN_TIME=10s # Default test duration

🚀 시작하기

  1. Locust 테스트 스크립트를 만듭니다(예: hello.py ):

from locust import HttpUser, task, between class QuickstartUser(HttpUser): wait_time = between(1, 5) @task def hello_world(self): self.client.get("/hello") self.client.get("/world") @task(3) def view_items(self): for item_id in range(10): self.client.get(f"/item?id={item_id}", name="/item") time.sleep(1) def on_start(self): self.client.post("/login", json={"username":"foo", "password":"bar"})
  1. 아래 사양을 사용하여 선호하는 MCP 클라이언트(Claude Desktop, Cursor, Windsurf 등)에서 MCP 서버를 구성하세요.

{ "mcpServers": { "locust": { "command": "/Users/naveenkumar/.local/bin/uv", "args": [ "--directory", "/Users/naveenkumar/Gits/locust-mcp-server", "run", "locust_server.py" ] } } }
  1. 이제 LLM에 테스트를 실행하도록 요청합니다. 예: run locust test for hello.py . Locust MCP 서버는 다음 도구를 사용하여 테스트를 시작합니다.

  • run_locust : 헤드리스 모드, 호스트, 런타임, 사용자 및 생성 속도에 대한 구성 가능한 옵션으로 테스트를 실행합니다.

📝 API 참조

메뚜기 테스트 실행

run_locust( test_file: str, headless: bool = True, host: str = "http://localhost:8089", runtime: str = "10s", users: int = 3, spawn_rate: int = 1 )

매개변수:

  • test_file : Locust 테스트 스크립트 경로

  • headless : 헤드리스 모드(True) 또는 UI(False)로 실행

  • host : 부하 테스트를 위한 대상 호스트

  • runtime : 테스트 기간(예: "30초", "1분", "5분")

  • users : 시뮬레이션할 동시 사용자 수

  • spawn_rate : 사용자가 생성되는 속도

✨ 사용 사례

  • LLM 기반 결과 분석

  • LLM의 도움으로 효과적인 디버깅

🤝 기여하기

기여를 환영합니다! 풀 리퀘스트를 제출해 주세요.

📄 라이센스

이 프로젝트는 MIT 라이선스에 따라 라이선스가 부여되었습니다. 자세한 내용은 라이선스 파일을 참조하세요.

One-click Deploy
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/QAInsights/locust-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server