Skip to main content
Glama

Volt HQ

Оракул цен на вычислительные мощности для AI-агентов.

Что он делает

  • Сравнивает цены у 9 провайдеров (OpenAI, Anthropic, Groq, Together AI, DeepInfra, Fireworks AI, Cerebras, Hyperbolic, Akash) — более 200 предложений с актуальными ценами API

  • Рекомендует оптимальную маршрутизацию — подсказывает вашему агенту, где получить то же качество за меньшие деньги, с оценкой экономии

  • Отслеживает расходы и бюджеты — сводки расходов по провайдерам/моделям, отчеты об экономии и оповещения при достижении пороговых значений

Установка

Автоматическая настройка Cursor и Claude Desktop одной командой:

npx volthq-mcp-server --setup

Обнаруживает установленные клиенты, объединяет конфигурацию, не перезаписывая ваши существующие MCP-серверы.

Cursor — добавьте в .cursor/mcp.json:

{
  "mcpServers": {
    "volthq": {
      "command": "npx",
      "args": ["-y", "volthq-mcp-server"]
    }
  }
}

Claude Desktop — добавьте в claude_desktop_config.json:

{
  "mcpServers": {
    "volthq": {
      "command": "npx",
      "args": ["-y", "volthq-mcp-server"]
    }
  }
}

Инструменты

Инструмент

Описание

volt_check_price

Сравнение цен у разных провайдеров для модели

volt_recommend_route

Получение рекомендации по оптимальному провайдеру с оценкой экономии

volt_get_spend

Сводка расходов по провайдеру и модели (сегодня/7д/30д)

volt_get_savings

Сравнение фактических расходов с оптимизированными

volt_set_budget_alert

Установка оповещений о достижении дневного/недельного/месячного бюджета

Пример

> volt_check_price { "model": "llama-70b" }

Price comparison for "llama-70b" — 14 offerings found
────────────────────────────────────────────────────────────
1. DeepInfra — Llama-70B
   Input: $0.20/M tokens | Output: $0.27/M tokens | Avg: $0.24/M
   Quality: 88% | Region: global

2. Hyperbolic — Llama-70B (FP8) on H100-SXM
   Input: $0.40/M tokens | Output: $0.40/M tokens | Avg: $0.40/M
   Quality: 85% | Region: global

3. Hyperbolic — Llama-70B (BF16) on H100-SXM
   Input: $0.55/M tokens | Output: $0.55/M tokens | Avg: $0.55/M
   Quality: 88% | Region: global

4. Groq — Llama-70B
   Input: $0.59/M tokens | Output: $0.79/M tokens | Avg: $0.69/M
   Quality: 88% | Region: global

5. Fireworks AI — Llama-70B
   Input: $0.90/M tokens | Output: $0.90/M tokens | Avg: $0.90/M
   Quality: 88% | Region: global

6. Together AI — Llama-70B
   Input: $0.88/M tokens | Output: $0.88/M tokens | Avg: $0.88/M
   Quality: 88% | Region: global

7. Akash — Llama-70B (FP8) on H100-SXM
   Input: $3.49/M tokens | Output: $8.72/M tokens | Avg: $6.11/M
   Quality: 85% | Region: global

8. Akash — Llama-70B (FP8) on A100-80GB
   Input: $5.24/M tokens | Output: $13.11/M tokens | Avg: $9.18/M
   Quality: 85% | Region: global

Cheapest is 97% less than most expensive option.

DeepInfra по $0.24/M, Hyperbolic по $0.40/M, Groq по $0.69/M, Fireworks AI по $0.90/M — всё это в сравнении с GPT-4o по $6.25/M.

Поддерживаемые провайдеры

  • OpenAI — GPT-4o, GPT-4o-mini

  • Anthropic — Claude Sonnet 4.6, Claude Haiku 4.5

  • Groq — Llama-70B, Llama-8B, Mixtral-8x7B

  • Together AI — Llama-70B, Llama-8B, DeepSeek-V3

  • DeepInfra — 75+ моделей с актуальными ценами API (Llama, DeepSeek, Qwen, Mistral, Gemma и другие)

  • Fireworks AI — Llama-70B, Llama-8B, DeepSeek-V3

  • Cerebras — Llama-3.1-8B, Qwen-3-235B

  • Hyperbolic — DeepSeek-V3, DeepSeek-R1, Llama-70B, Llama-8B

  • Akash — Llama-70B, Llama-8B на H100 и A100 (актуальные цены на GPU)

Телеметрия

По умолчанию Volt собирает анонимные метаданные об использовании для улучшения рекомендаций по маршрутизации. Сюда входят: название провайдера, название модели, время отклика инструмента и статус успеха/ошибки.

Что никогда не собирается: промпты, выходные данные, API-ключи, количество токенов или любой контент, позволяющий идентифицировать пользователя. IP-адреса хешируются и усекаются на стороне сервера.

Чтобы отказаться от сбора данных, установите переменную окружения:

VOLT_OBSERVATIONS=false

Ссылки

Лицензия

MIT

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/newageflyfish-max/volthq-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server