Whichmodel-mcp
whichmodel-mcp
Ein Modell-Routing-Berater für autonome Agenten – erhalten Sie kostenoptimierte LLM-Empfehlungen via MCP.
whichmodel.dev verfolgt Preise und Fähigkeiten von über 100 LLM-Modellen und wird alle 4 Stunden aktualisiert. Dieser MCP-Server stellt diese Daten bereit, damit KI-Agenten für jede Aufgabe das richtige Modell zum besten Preis auswählen können.
MCP-Endpunkt
https://whichmodel.dev/mcpTransport: Streamable HTTP (MCP-Spezifikation 2025-03-26)
Schnellstart
Fügen Sie dies Ihrer MCP-Client-Konfiguration hinzu:
{
"mcpServers": {
"whichmodel": {
"url": "https://whichmodel.dev/mcp"
}
}
}Kein API-Schlüssel erforderlich. Keine Installation notwendig.
Stdio (lokale Clients)
Für MCP-Clients, die den Stdio-Transport verwenden (Claude Desktop, Cursor, etc.):
{
"mcpServers": {
"whichmodel": {
"command": "npx",
"args": ["-y", "whichmodel-mcp"]
}
}
}Dies führt einen schlanken lokalen Proxy aus, der Anfragen an den Remote-Server weiterleitet.
Tools
recommend_model
Erhalten Sie eine kostenoptimierte Modell-Empfehlung für einen spezifischen Aufgabentyp, Komplexität und Budget.
Parameter | Typ | Beschreibung | ||
| enum (erforderlich) |
| ||
|
|
|
| Aufgabenkomplexität (Standard: |
| number | Erwartete Eingabegröße in Token | ||
| number | Erwartete Ausgabegröße in Token | ||
| number | Maximales Budget in USD pro Aufruf | ||
| object | Anforderungskriterien: |
Gibt zurück: empfohlenes Modell, Alternative, Budget-Option, Kostenschätzung und Begründung.
compare_models
Direkter Vergleich von 2–5 Modellen mit optionalen Volumen-Kostenprojektionen.
Parameter | Typ | Beschreibung |
| string[] (erforderlich) | Modell-IDs, z. B. |
| enum | Kontext für den Vergleich |
| object |
|
Gibt zurück: Preise, Fähigkeiten, Qualitätsstufen und projizierte Kosten pro Modell.
get_pricing
Abfrage von Rohpreisdaten mit Filtern nach Modell, Anbieter, Preisobergrenze und Fähigkeiten.
Parameter | Typ | Beschreibung |
| string | Spezifische Modell-ID |
| string | Filtern nach Anbieter, z. B. |
| number | Maximaler Eingabepreis pro Million Token (USD) |
| string[] | Erforderliche Fähigkeiten: |
| number | Minimales Kontextfenster in Token |
| number | Maximale Ergebnisse (1–100, Standard 20) |
check_price_changes
Sehen Sie, welche Modellpreise sich seit einem bestimmten Datum geändert haben.
Parameter | Typ | Beschreibung |
| string (erforderlich) | ISO-Datum, z. B. |
| string | Auf ein spezifisches Modell filtern |
| string | Auf einen spezifischen Anbieter filtern |
Gibt zurück: Preiserhöhungen, Preissenkungen, neue Modelle und Abkündigungen.
Agenten-Integration
WhichModel ist darauf ausgelegt, ein Standard-Tool in Pipelines autonomer Agenten zu sein. Fügen Sie es jedem Agenten hinzu, damit er automatisch für jede Teilaufgabe das richtige Modell zum richtigen Preis auswählen kann.
System-Prompt (Kopieren und Einfügen)
Fügen Sie diesen Block zum System-Prompt Ihres Agenten hinzu:
You have access to the WhichModel MCP server for cost-aware model selection.
Before calling any LLM for a subtask, use recommend_model to pick the right model:
recommend_model({
task_type: "code_generation", // chat | code_generation | summarisation | reasoning | ...
complexity: "medium", // low | medium | high
estimated_input_tokens: 2000, // optional
estimated_output_tokens: 500, // optional
budget_per_call: 0.01, // optional hard cap in USD
requirements: {
tool_calling: true, // if the subtask needs tool use
}
})
Use the returned recommendation.model_id. The response includes cost_estimate and
reasoning so you can log why each model was chosen.Prompt-Vorlagen via MCP
Der Server stellt integrierte Prompt-Vorlagen bereit, die Sie über prompts/get abrufen können:
Prompt-Name | Anwendungsfall |
| Vollständiger System-Prompt-Block für kostenbewusste Modellauswahl |
| Minimales Snippet zum Hinzufügen zu einem bestehenden System-Prompt |
| Harte Kostenobergrenze pro Aufruf (übergeben Sie das Argument |
Programmgesteuert abrufen:
{ "method": "prompts/get", "params": { "name": "cost-aware-agent" } }Framework-Integrationen
LangChain:
langchain-whichmodel—WhichModelRouter-ChainHaystack:
whichmodel-haystack—WhichModelRouter-Komponente
Datenaktualität
Preisdaten werden alle 4 Stunden von OpenRouter aktualisiert. Jede Antwort enthält einen data_freshness-Zeitstempel, damit Sie wissen, wie aktuell die Daten sind.
Links
Website: whichmodel.dev
MCP-Endpunkt: https://whichmodel.dev/mcp
Discovery: https://whichmodel.dev/.well-known/mcp.json
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/Which-Model/whichmodel-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server