volthq-mcp-server
Volt HQ
Das Rechenpreis-Orakel für KI-Agenten.
Was es tut
Vergleicht Preise bei 9 Anbietern (OpenAI, Anthropic, Groq, Together AI, DeepInfra, Fireworks AI, Cerebras, Hyperbolic, Akash) — über 200 Angebote mit Live-API-Preisen
Empfiehlt optimales Routing — sagt Ihrem Agenten, wo er die gleiche Qualität günstiger erhält, inklusive Einsparungsschätzungen
Verfolgt Ausgaben und Budgets — Ausgabenzusammenfassungen nach Anbieter/Modell, Einsparungsberichte und Schwellenwertwarnungen
Installation
Konfigurieren Sie Cursor und Claude Desktop automatisch mit einem Befehl:
npx volthq-mcp-server --setupErkennt installierte Clients und führt die Konfiguration zusammen, ohne Ihre bestehenden MCP-Server zu überschreiben.
Cursor — zum .cursor/mcp.json hinzufügen:
{
"mcpServers": {
"volthq": {
"command": "npx",
"args": ["-y", "volthq-mcp-server"]
}
}
}Claude Desktop — zum claude_desktop_config.json hinzufügen:
{
"mcpServers": {
"volthq": {
"command": "npx",
"args": ["-y", "volthq-mcp-server"]
}
}
}Tools
Tool | Beschreibung |
| Preise für ein Modell bei verschiedenen Anbietern vergleichen |
| Optimale Anbieterempfehlung mit Einsparungsschätzung erhalten |
| Ausgabenzusammenfassung nach Anbieter und Modell (heute/7d/30d) |
| Vergleich zwischen tatsächlichen Ausgaben und optimierten Ausgaben |
| Tägliche/wöchentliche/monatliche Budget-Schwellenwertwarnungen festlegen |
Beispiel
> volt_check_price { "model": "llama-70b" }
Price comparison for "llama-70b" — 14 offerings found
────────────────────────────────────────────────────────────
1. DeepInfra — Llama-70B
Input: $0.20/M tokens | Output: $0.27/M tokens | Avg: $0.24/M
Quality: 88% | Region: global
2. Hyperbolic — Llama-70B (FP8) on H100-SXM
Input: $0.40/M tokens | Output: $0.40/M tokens | Avg: $0.40/M
Quality: 85% | Region: global
3. Hyperbolic — Llama-70B (BF16) on H100-SXM
Input: $0.55/M tokens | Output: $0.55/M tokens | Avg: $0.55/M
Quality: 88% | Region: global
4. Groq — Llama-70B
Input: $0.59/M tokens | Output: $0.79/M tokens | Avg: $0.69/M
Quality: 88% | Region: global
5. Fireworks AI — Llama-70B
Input: $0.90/M tokens | Output: $0.90/M tokens | Avg: $0.90/M
Quality: 88% | Region: global
6. Together AI — Llama-70B
Input: $0.88/M tokens | Output: $0.88/M tokens | Avg: $0.88/M
Quality: 88% | Region: global
7. Akash — Llama-70B (FP8) on H100-SXM
Input: $3.49/M tokens | Output: $8.72/M tokens | Avg: $6.11/M
Quality: 85% | Region: global
8. Akash — Llama-70B (FP8) on A100-80GB
Input: $5.24/M tokens | Output: $13.11/M tokens | Avg: $9.18/M
Quality: 85% | Region: global
Cheapest is 97% less than most expensive option.DeepInfra für $0,24/M, Hyperbolic für $0,40/M, Groq für $0,69/M, Fireworks AI für $0,90/M — alles im Vergleich zu GPT-4o für $6,25/M.
Unterstützte Anbieter
OpenAI — GPT-4o, GPT-4o-mini
Anthropic — Claude Sonnet 4.6, Claude Haiku 4.5
Groq — Llama-70B, Llama-8B, Mixtral-8x7B
Together AI — Llama-70B, Llama-8B, DeepSeek-V3
DeepInfra — 75+ Modelle mit Live-API-Preisen (Llama, DeepSeek, Qwen, Mistral, Gemma und mehr)
Fireworks AI — Llama-70B, Llama-8B, DeepSeek-V3
Cerebras — Llama-3.1-8B, Qwen-3-235B
Hyperbolic — DeepSeek-V3, DeepSeek-R1, Llama-70B, Llama-8B
Akash — Llama-70B, Llama-8B auf H100 und A100 (Live-GPU-Preise)
Telemetrie
Volt sammelt standardmäßig anonyme Nutzungsmetadaten, um Routing-Empfehlungen zu verbessern. Dazu gehören: Anbietername, Modellname, Tool-Antwortzeit sowie Erfolgs-/Fehlerstatus.
Was niemals gesammelt wird: Prompts, Ausgaben, API-Schlüssel, Token-Anzahlen oder andere nutzeridentifizierbare Inhalte. IPs werden serverseitig gehasht und gekürzt.
Um dies zu deaktivieren, setzen Sie die Umgebungsvariable:
VOLT_OBSERVATIONS=falseLinks
npm: volthq-mcp-server
Web: volthq.dev
Lizenz
MIT
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/newageflyfish-max/volthq-mcp-server'
If you have feedback or need assistance with the MCP directory API, please join our Discord server