Skip to main content
Glama

Volt HQ

AIエージェントのためのコンピューティング価格オラクル。

機能

  • 価格比較 — 9つのプロバイダー(OpenAI、Anthropic、Groq、Together AI、DeepInfra、Fireworks AI、Cerebras、Hyperbolic、Akash)の200以上の製品のライブAPI価格を比較

  • 最適なルーティングの推奨 — 同じ品質をより安く利用できるプロバイダーを、節約額の予測とともにエージェントに提示

  • 支出と予算の追跡 — プロバイダー/モデルごとの支出サマリー、節約レポート、しきい値アラート

インストール

以下のコマンド1つでCursorとClaude Desktopを自動設定します:

npx volthq-mcp-server --setup

インストール済みのクライアントを検出し、既存のMCPサーバーを上書きすることなく設定をマージします。

Cursor.cursor/mcp.json に追加:

{
  "mcpServers": {
    "volthq": {
      "command": "npx",
      "args": ["-y", "volthq-mcp-server"]
    }
  }
}

Claude Desktopclaude_desktop_config.json に追加:

{
  "mcpServers": {
    "volthq": {
      "command": "npx",
      "args": ["-y", "volthq-mcp-server"]
    }
  }
}

ツール

ツール

説明

volt_check_price

モデルのプロバイダー間価格比較

volt_recommend_route

節約額の予測付きで最適なプロバイダーを推奨

volt_get_spend

プロバイダーおよびモデルごとの支出サマリー(今日/7日間/30日間)

volt_get_savings

実際の支出と最適化された支出の比較

volt_set_budget_alert

日次/週次/月次の予算しきい値アラートを設定

> volt_check_price { "model": "llama-70b" }

Price comparison for "llama-70b" — 14 offerings found
────────────────────────────────────────────────────────────
1. DeepInfra — Llama-70B
   Input: $0.20/M tokens | Output: $0.27/M tokens | Avg: $0.24/M
   Quality: 88% | Region: global

2. Hyperbolic — Llama-70B (FP8) on H100-SXM
   Input: $0.40/M tokens | Output: $0.40/M tokens | Avg: $0.40/M
   Quality: 85% | Region: global

3. Hyperbolic — Llama-70B (BF16) on H100-SXM
   Input: $0.55/M tokens | Output: $0.55/M tokens | Avg: $0.55/M
   Quality: 88% | Region: global

4. Groq — Llama-70B
   Input: $0.59/M tokens | Output: $0.79/M tokens | Avg: $0.69/M
   Quality: 88% | Region: global

5. Fireworks AI — Llama-70B
   Input: $0.90/M tokens | Output: $0.90/M tokens | Avg: $0.90/M
   Quality: 88% | Region: global

6. Together AI — Llama-70B
   Input: $0.88/M tokens | Output: $0.88/M tokens | Avg: $0.88/M
   Quality: 88% | Region: global

7. Akash — Llama-70B (FP8) on H100-SXM
   Input: $3.49/M tokens | Output: $8.72/M tokens | Avg: $6.11/M
   Quality: 85% | Region: global

8. Akash — Llama-70B (FP8) on A100-80GB
   Input: $5.24/M tokens | Output: $13.11/M tokens | Avg: $9.18/M
   Quality: 85% | Region: global

Cheapest is 97% less than most expensive option.

DeepInfraは$0.24/M、Hyperbolicは$0.40/M、Groqは$0.69/M、Fireworks AIは$0.90/M — すべてGPT-4oの$6.25/Mと比較。

対応プロバイダー

  • OpenAI — GPT-4o, GPT-4o-mini

  • Anthropic — Claude Sonnet 4.6, Claude Haiku 4.5

  • Groq — Llama-70B, Llama-8B, Mixtral-8x7B

  • Together AI — Llama-70B, Llama-8B, DeepSeek-V3

  • DeepInfra — 75以上のモデル(ライブAPI価格対応:Llama, DeepSeek, Qwen, Mistral, Gemmaなど)

  • Fireworks AI — Llama-70B, Llama-8B, DeepSeek-V3

  • Cerebras — Llama-3.1-8B, Qwen-3-235B

  • Hyperbolic — DeepSeek-V3, DeepSeek-R1, Llama-70B, Llama-8B

  • Akash — H100およびA100上のLlama-70B, Llama-8B(ライブGPU価格)

テレメトリ

Voltは、ルーティングの推奨を改善するために、デフォルトで匿名化された使用メタデータを収集します。これには、プロバイダー名、モデル名、ツールの応答時間、成功/失敗ステータスが含まれます。

収集されないもの: プロンプト、出力、APIキー、トークン数、またはユーザーを特定できるコンテンツ。IPアドレスはサーバー側でハッシュ化および切り捨てられます。

オプトアウトするには、環境変数を設定してください:

VOLT_OBSERVATIONS=false

リンク

ライセンス

MIT

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/newageflyfish-max/volthq-mcp-server'

If you have feedback or need assistance with the MCP directory API, please join our Discord server