volthq-mcp-server
Volt HQ
Оракул цен на вычислительные мощности для AI-агентов.
Что он делает
Сравнивает цены у 9 провайдеров (OpenAI, Anthropic, Groq, Together AI, DeepInfra, Fireworks AI, Cerebras, Hyperbolic, Akash) — более 200 предложений с актуальными ценами API
Рекомендует оптимальную маршрутизацию — подсказывает вашему агенту, где получить то же качество за меньшие деньги, с оценкой экономии
Отслеживает расходы и бюджеты — сводки расходов по провайдерам/моделям, отчеты об экономии и оповещения при достижении пороговых значений
Установка
Автоматическая настройка Cursor и Claude Desktop одной командой:
npx volthq-mcp-server --setupОбнаруживает установленные клиенты, объединяет конфигурацию, не перезаписывая ваши существующие MCP-серверы.
Cursor — добавьте в .cursor/mcp.json:
{
"mcpServers": {
"volthq": {
"command": "npx",
"args": ["-y", "volthq-mcp-server"]
}
}
}Claude Desktop — добавьте в claude_desktop_config.json:
{
"mcpServers": {
"volthq": {
"command": "npx",
"args": ["-y", "volthq-mcp-server"]
}
}
}Инструменты
Инструмент | Описание |
| Сравнение цен у разных провайдеров для модели |
| Получение рекомендации по оптимальному провайдеру с оценкой экономии |
| Сводка расходов по провайдеру и модели (сегодня/7д/30д) |
| Сравнение фактических расходов с оптимизированными |
| Установка оповещений о достижении дневного/недельного/месячного бюджета |
Пример
> volt_check_price { "model": "llama-70b" }
Price comparison for "llama-70b" — 14 offerings found
────────────────────────────────────────────────────────────
1. DeepInfra — Llama-70B
Input: $0.20/M tokens | Output: $0.27/M tokens | Avg: $0.24/M
Quality: 88% | Region: global
2. Hyperbolic — Llama-70B (FP8) on H100-SXM
Input: $0.40/M tokens | Output: $0.40/M tokens | Avg: $0.40/M
Quality: 85% | Region: global
3. Hyperbolic — Llama-70B (BF16) on H100-SXM
Input: $0.55/M tokens | Output: $0.55/M tokens | Avg: $0.55/M
Quality: 88% | Region: global
4. Groq — Llama-70B
Input: $0.59/M tokens | Output: $0.79/M tokens | Avg: $0.69/M
Quality: 88% | Region: global
5. Fireworks AI — Llama-70B
Input: $0.90/M tokens | Output: $0.90/M tokens | Avg: $0.90/M
Quality: 88% | Region: global
6. Together AI — Llama-70B
Input: $0.88/M tokens | Output: $0.88/M tokens | Avg: $0.88/M
Quality: 88% | Region: global
7. Akash — Llama-70B (FP8) on H100-SXM
Input: $3.49/M tokens | Output: $8.72/M tokens | Avg: $6.11/M
Quality: 85% | Region: global
8. Akash — Llama-70B (FP8) on A100-80GB
Input: $5.24/M tokens | Output: $13.11/M tokens | Avg: $9.18/M
Quality: 85% | Region: global
Cheapest is 97% less than most expensive option.DeepInfra по $0.24/M, Hyperbolic по $0.40/M, Groq по $0.69/M, Fireworks AI по $0.90/M — всё это в сравнении с GPT-4o по $6.25/M.
Поддерживаемые провайдеры
OpenAI — GPT-4o, GPT-4o-mini
Anthropic — Claude Sonnet 4.6, Claude Haiku 4.5
Groq — Llama-70B, Llama-8B, Mixtral-8x7B
Together AI — Llama-70B, Llama-8B, DeepSeek-V3
DeepInfra — 75+ моделей с актуальными ценами API (Llama, DeepSeek, Qwen, Mistral, Gemma и другие)
Fireworks AI — Llama-70B, Llama-8B, DeepSeek-V3
Cerebras — Llama-3.1-8B, Qwen-3-235B
Hyperbolic — DeepSeek-V3, DeepSeek-R1, Llama-70B, Llama-8B
Akash — Llama-70B, Llama-8B на H100 и A100 (актуальные цены на GPU)
Телеметрия
По умолчанию Volt собирает анонимные метаданные об использовании для улучшения рекомендаций по маршрутизации. Сюда входят: название провайдера, название модели, время отклика инструмента и статус успеха/ошибки.
Что никогда не собирается: промпты, выходные данные, API-ключи, количество токенов или любой контент, позволяющий идентифицировать пользователя. IP-адреса хешируются и усекаются на стороне сервера.
Чтобы отказаться от сбора данных, установите переменную окружения:
VOLT_OBSERVATIONS=falseСсылки
npm: volthq-mcp-server
Веб-сайт: volthq.dev
Лицензия
MIT
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/newageflyfish-max/volthq-mcp-server'
If you have feedback or need assistance with the MCP directory API, please join our Discord server