Skip to main content
Glama

Server Configuration

Describes the environment variables required to run the server.

NameRequiredDescriptionDefault
LLM_API_KEYNoAPI Key (requerida para servicios cloud)
LLM_BASE_URLNoURL del servidor LLMhttp://localhost:1234/v1

Capabilities

Server capabilities have not been inspected yet.

Tools

Functions exposed to the LLM to take actions

NameDescription
llm_get_models

Obtiene la lista de modelos disponibles en el servidor LLM (compatible con OpenAI API: LM Studio, Ollama, vLLM, OpenAI, etc.)

llm_status

Verifica el estado de conexión con el servidor LLM y lista los modelos disponibles

llm_chat

Envía un prompt al modelo y recibe una respuesta con métricas de rendimiento (latencia, tokens/s)

llm_benchmark

Ejecuta un benchmark con múltiples prompts para evaluar rendimiento del modelo

llm_evaluate_coherence

Evalúa la coherencia del modelo ejecutando el mismo prompt múltiples veces

llm_test_capabilities

Prueba las capacidades del modelo en diferentes áreas: razonamiento, código, creatividad, hechos, instrucciones

llm_compare_models

Compara el rendimiento de múltiples modelos con el mismo prompt

llm_quality_report

Genera un reporte completo de calidad del modelo incluyendo benchmark, coherencia y capacidades

Prompts

Interactive templates invoked by user choice

NameDescription

No prompts

Resources

Contextual data attached and managed by the client

NameDescription

No resources

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/ramgeart/llm-mcp-bridge'

If you have feedback or need assistance with the MCP directory API, please join our Discord server