Skip to main content
Glama

whichmodel-mcp

Un asesor de enrutamiento de modelos para agentes autónomos: obtenga recomendaciones de LLM optimizadas por costo a través de MCP.

whichmodel.dev realiza un seguimiento de los precios y las capacidades de más de 100 modelos LLM, actualizados cada 4 horas. Este servidor MCP expone esos datos para que los agentes de IA puedan elegir el modelo correcto al mejor precio para cada tarea.

Punto final MCP

https://whichmodel.dev/mcp

Transporte: HTTP transmitible (especificación MCP 2025-03-26)

Inicio rápido

Añádalo a la configuración de su cliente MCP:

{
  "mcpServers": {
    "whichmodel": {
      "url": "https://whichmodel.dev/mcp"
    }
  }
}

No se requiere clave API. No se necesita instalación.

Stdio (clientes locales)

Para clientes MCP que utilizan transporte stdio (Claude Desktop, Cursor, etc.):

{
  "mcpServers": {
    "whichmodel": {
      "command": "npx",
      "args": ["-y", "whichmodel-mcp"]
    }
  }
}

Esto ejecuta un proxy local ligero que reenvía las solicitudes al servidor remoto.

Herramientas

recommend_model

Obtenga una recomendación de modelo optimizada por costo para un tipo de tarea, complejidad y presupuesto específicos.

Parámetro

Tipo

Descripción

task_type

enum (requerido)

chat, code_generation, code_review, summarisation, translation, data_extraction, tool_calling, creative_writing, research, classification, embedding, vision, reasoning

complexity

low

medium

high

Complejidad de la tarea (predeterminado: medium)

estimated_input_tokens

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Which-Model/whichmodel-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server