Skip to main content
Glama

whichmodel-mcp

Консультант по выбору моделей для автономных агентов — получайте рекомендации по LLM с оптимизацией затрат через MCP.

whichmodel.dev отслеживает цены и возможности более 100 моделей LLM, обновляя данные каждые 4 часа. Этот MCP-сервер предоставляет эти данные, чтобы ИИ-агенты могли выбирать подходящую модель по лучшей цене для каждой задачи.

MCP Endpoint

https://whichmodel.dev/mcp

Транспорт: Streamable HTTP (спецификация MCP 2025-03-26)

Быстрый старт

Добавьте в конфигурацию вашего MCP-клиента:

{
  "mcpServers": {
    "whichmodel": {
      "url": "https://whichmodel.dev/mcp"
    }
  }
}

API-ключ не требуется. Установка не нужна.

Stdio (локальные клиенты)

Для MCP-клиентов, использующих транспорт stdio (Claude Desktop, Cursor и т. д.):

{
  "mcpServers": {
    "whichmodel": {
      "command": "npx",
      "args": ["-y", "whichmodel-mcp"]
    }
  }
}

Это запускает легкий локальный прокси-сервер, который перенаправляет запросы на удаленный сервер.

Инструменты

recommend_model

Получение рекомендации по модели с оптимизацией затрат для конкретного типа задачи, сложности и бюджета.

Параметр

Тип

Описание

task_type

enum (обязательно)

chat, code_generation, code_review, summarisation, translation, data_extraction, tool_calling, creative_writing, research, classification, embedding, vision, reasoning

complexity

low

medium

high

Сложность задачи (по умолчанию: medium)

estimated_input_tokens

number

Ожидаемый объем входных данных в токенах

estimated_output_tokens

number

Ожидаемый объем выходных данных в токенах

budget_per_call

number

Максимальные расходы в USD за вызов

requirements

object

Требования к возможностям: tool_calling, json_output, streaming, context_window_min, providers_include, providers_exclude

Возвращает: рекомендуемую модель, альтернативу, бюджетный вариант, оценку стоимости и обоснование.


compare_models

Прямое сравнение 2–5 моделей с дополнительными прогнозами затрат по объему.

Параметр

Тип

Описание

models

string[] (обязательно)

ID моделей, например [anthropic/claude-sonnet-4, openai/gpt-4.1]

task_type

enum

Контекст для сравнения

volume

object

calls_per_day, avg_input_tokens, avg_output_tokens для прогнозов дневных/месячных затрат

Возвращает: цены, возможности, уровни качества и прогнозируемые затраты для каждой модели.


get_pricing

Поиск необработанных данных о ценах с фильтрами по модели, провайдеру, ценовому потолку и возможностям.

Параметр

Тип

Описание

model_id

string

Конкретный ID модели

provider

string

Фильтр по провайдеру, например anthropic

max_input_price

number

Максимальная цена за миллион входных токенов (USD)

capabilities

string[]

Необходимые возможности: tool_calling, json_output, streaming, vision

min_context_window

number

Минимальное контекстное окно в токенах

limit

number

Максимальное количество результатов (1–100, по умолчанию 20)


check_price_changes

Просмотр изменений цен на модели с определенной даты.

Параметр

Тип

Описание

since

string (обязательно)

Дата в формате ISO, например 2026-04-01

model_id

string

Фильтр по конкретной модели

provider

string

Фильтр по конкретному провайдеру

Возвращает: повышения цен, снижения, новые модели и устаревшие модели.

Интеграция с агентами

WhichModel разработан как инструмент по умолчанию в конвейерах автономных агентов. Добавьте его к любому агенту, чтобы он мог автоматически выбирать правильную модель по правильной цене для каждой подзадачи.

Системный промпт (скопировать и вставить)

Добавьте этот блок в системный промпт вашего агента:

You have access to the WhichModel MCP server for cost-aware model selection.

Before calling any LLM for a subtask, use recommend_model to pick the right model:

  recommend_model({
    task_type: "code_generation",   // chat | code_generation | summarisation | reasoning | ...
    complexity: "medium",           // low | medium | high
    estimated_input_tokens: 2000,   // optional
    estimated_output_tokens: 500,   // optional
    budget_per_call: 0.01,          // optional hard cap in USD
    requirements: {
      tool_calling: true,           // if the subtask needs tool use
    }
  })

Use the returned recommendation.model_id. The response includes cost_estimate and
reasoning so you can log why each model was chosen.

Шаблоны промптов через MCP

Сервер предоставляет встроенные шаблоны промптов, которые можно получить через prompts/get:

Имя промпта

Вариант использования

cost-aware-agent

Полный блок системного промпта для выбора модели с учетом затрат

task-router-snippet

Минимальный фрагмент для добавления в существующий системный промпт

budget-constrained-agent

Жесткое ограничение затрат на вызов (передайте аргумент budget_usd)

Получение программным способом:

{ "method": "prompts/get", "params": { "name": "cost-aware-agent" } }

Интеграции с фреймворками

Актуальность данных

Данные о ценах обновляются каждые 4 часа из OpenRouter. Каждый ответ включает временную метку data_freshness, чтобы вы знали, насколько актуальны данные.

Ссылки

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Which-Model/whichmodel-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server