Herramienta de evaluación comparativa MCP vLLM
Esta es una prueba de concepto sobre cómo utilizar MCP para evaluar de forma interactiva vLLM.
No somos nuevos en benchmarking, lea nuestro blog:
Evaluación comparativa de vLLM
Esta es solo una exploración de posibilidades con MCP.
Uso
- Clonar el repositorio
- Agreguelo a sus servidores MCP:
Entonces puedes indicar un ejemplo como este:
Hacer:
- Debido a algunas salidas aleatorias de vllm, es posible que se indique que encontró un JSON no válido. Aún no lo he investigado.
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Una herramienta interactiva que permite a los usuarios evaluar los puntos finales de vLLM a través de MCP, lo que permite realizar pruebas de rendimiento de modelos LLM con parámetros personalizables.
Related MCP Servers
- -securityAlicense-qualityA comprehensive toolkit that enhances LLM capabilities through the Model Context Protocol, allowing LLMs to interact with external services including command-line operations, file management, Figma integration, and audio processing.Last updated -17PythonApache 2.0
- -securityAlicense-qualityAn MCP server that allows agents to test and compare LLM prompts across OpenAI and Anthropic models, supporting single tests, side-by-side comparisons, and multi-turn conversations.Last updated -PythonMIT License
- AsecurityFlicenseAqualityAn experimental MCP gateway that provides specialized LLM enhancement prompts based on the L1B3RT4S repository, primarily intended to enhance weaker models' capabilities.Last updated -12,0127JavaScript
- -securityAlicense-qualityAn MCP server that enables LLMs to autonomously reverse engineer applications through Cutter, allowing them to decompile binaries, analyze code, and rename methods programmatically.Last updated -6PythonApache 2.0