Server Configuration
Describes the environment variables required to run the server.
| Name | Required | Description | Default |
|---|---|---|---|
| LLM_API_KEY | No | API Key (requerida para servicios cloud) | |
| LLM_BASE_URL | No | URL del servidor LLM | http://localhost:1234/v1 |
Capabilities
Server capabilities have not been inspected yet.
Tools
Functions exposed to the LLM to take actions
| Name | Description |
|---|---|
| llm_get_models | Obtiene la lista de modelos disponibles en el servidor LLM (compatible con OpenAI API: LM Studio, Ollama, vLLM, OpenAI, etc.) |
| llm_status | Verifica el estado de conexión con el servidor LLM y lista los modelos disponibles |
| llm_chat | Envía un prompt al modelo y recibe una respuesta con métricas de rendimiento (latencia, tokens/s) |
| llm_benchmark | Ejecuta un benchmark con múltiples prompts para evaluar rendimiento del modelo |
| llm_evaluate_coherence | Evalúa la coherencia del modelo ejecutando el mismo prompt múltiples veces |
| llm_test_capabilities | Prueba las capacidades del modelo en diferentes áreas: razonamiento, código, creatividad, hechos, instrucciones |
| llm_compare_models | Compara el rendimiento de múltiples modelos con el mismo prompt |
| llm_quality_report | Genera un reporte completo de calidad del modelo incluyendo benchmark, coherencia y capacidades |
Prompts
Interactive templates invoked by user choice
| Name | Description |
|---|---|
No prompts | |
Resources
Contextual data attached and managed by the client
| Name | Description |
|---|---|
No resources | |