Cross-LLM MCP Server
🤖 Cross-LLM MCP-Server
Greifen Sie von einem Ort aus auf mehrere LLM-APIs zu. Rufen Sie ChatGPT, Claude, DeepSeek, Gemini, Grok, Kimi, Perplexity, Mistral und den Hugging Face Inference Router mit intelligenter Modellauswahl, Präferenzen und Prompt-Protokollierung auf.
Ein MCP (Model Context Protocol)-Server, der einen einheitlichen Zugriff auf mehrere Large Language Model-APIs für KI-Entwicklungsumgebungen wie Cursor und Claude Desktop bietet.
Warum Cross-LLM MCP verwenden?
🌐 9 LLM-Anbieter – ChatGPT, Claude, DeepSeek, Gemini, Grok, Kimi, Perplexity, Mistral, Hugging Face
🎯 Intelligente Modellauswahl – Tag-basierte Präferenzen (Programmierung, Business, Reasoning, Mathematik, Kreativität, Allgemein)
📊 Prompt-Protokollierung – Verfolgen Sie alle Prompts mit Verlauf, Statistiken und Analysen
💰 Kostenoptimierung – Wählen Sie Flaggschiff- oder günstigere Modelle basierend auf Ihren Präferenzen
⚡ Einfache Einrichtung – Installation mit einem Klick in Cursor oder einfache manuelle Einrichtung
🔄 Alle LLMs aufrufen – Erhalten Sie Antworten von allen Anbietern gleichzeitig
Related MCP server: URL Fetch MCP
Schnellstart
Bereit, auf mehrere LLMs zuzugreifen? In Sekunden installiert:
In Cursor installieren (Empfohlen):
Oder manuell installieren:
npm install -g cross-llm-mcp
# Or from source:
git clone https://github.com/JamesANZ/cross-llm-mcp.git
cd cross-llm-mcp && npm install && npm run buildFunktionen
🤖 Individuelle LLM-Tools
call-chatgpt– OpenAIs ChatGPT-APIcall-claude– Anthropic's Claude-APIcall-deepseek– DeepSeek-APIcall-gemini– Google's Gemini-APIcall-grok– xAI's Grok-APIcall-kimi– Moonshot AI's Kimi-APIcall-perplexity– Perplexity AI-APIcall-mistral– Mistral AI-APIcall-huggingface– Hugging Face Inference Router (OpenAI-kompatible Hub-Modelle)
🔄 Kombinierte Tools
call-all-llms– Alle LLMs mit demselben Prompt aufrufencall-llm– Einen bestimmten Anbieter nach Namen aufrufen
⚙️ Präferenzen & Modellauswahl
get-user-preferences– Aktuelle Präferenzen abrufenset-user-preferences– Standardmodell, Kostenpräferenz und Tag-basierte Präferenzen festlegenget-models-by-tag– Modelle nach Tag finden (Programmierung, Business, Reasoning, Mathematik, Kreativität, Allgemein)
📝 Prompt-Protokollierung
get-prompt-history– Prompt-Verlauf mit Filtern anzeigenget-prompt-stats– Statistiken zu Prompt-Protokollen abrufendelete-prompt-entries– Protokolleinträge nach Kriterien löschenclear-prompt-history– Alle Prompt-Protokolle löschen
Installation
Cursor (Ein-Klick)
Klicken Sie auf den oben stehenden Installationslink oder verwenden Sie:
cursor://anysphere.cursor-deeplink/mcp/install?name=cross-llm-mcp&config=eyJjcm9zcy1sbG0tbWNwIjp7ImNvbW1hbmQiOiJucHgiLCJhcmdzIjpbIi15IiwiY3Jvc3MtbGxtLW1jcCJdfX0=Fügen Sie nach der Installation Ihre API-Schlüssel in den Cursor-Einstellungen hinzu (siehe Konfiguration unten).
Manuelle Installation
Voraussetzungen: Node.js 18+ und npm
# Clone and build
git clone https://github.com/JamesANZ/cross-llm-mcp.git
cd cross-llm-mcp
npm install
npm run buildClaude Desktop
Fügen Sie dies zu claude_desktop_config.json hinzu:
macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
Windows: %APPDATA%\Claude\claude_desktop_config.json
{
"mcpServers": {
"cross-llm-mcp": {
"command": "node",
"args": ["/absolute/path/to/cross-llm-mcp/build/index.js"],
"env": {
"OPENAI_API_KEY": "your_openai_api_key_here",
"ANTHROPIC_API_KEY": "your_anthropic_api_key_here",
"DEEPSEEK_API_KEY": "your_deepseek_api_key_here",
"GEMINI_API_KEY": "your_gemini_api_key_here",
"XAI_API_KEY": "your_grok_api_key_here",
"KIMI_API_KEY": "your_kimi_api_key_here",
"PERPLEXITY_API_KEY": "your_perplexity_api_key_here",
"MISTRAL_API_KEY": "your_mistral_api_key_here",
"HF_TOKEN": "your_huggingface_token_here"
}
}
}
}Starten Sie Claude Desktop nach der Konfiguration neu.
Konfiguration
API-Schlüssel
Setzen Sie Umgebungsvariablen für die LLM-Anbieter, die Sie verwenden möchten:
export OPENAI_API_KEY="your_openai_api_key"
export ANTHROPIC_API_KEY="your_anthropic_api_key"
export DEEPSEEK_API_KEY="your_deepseek_api_key"
export GEMINI_API_KEY="your_gemini_api_key"
export XAI_API_KEY="your_grok_api_key"
export KIMI_API_KEY="your_kimi_api_key"
export PERPLEXITY_API_KEY="your_perplexity_api_key"
export MISTRAL_API_KEY="your_mistral_api_key"
export HF_TOKEN="your_huggingface_token"
# Or: HUGGINGFACE_API_KEY (same as HF_TOKEN)
# Optional: DEFAULT_HUGGINGFACE_MODEL, HUGGINGFACE_INFERENCE_BASE_URL (default https://router.huggingface.co/v1)API-Schlüssel erhalten
Anthropic: https://console.anthropic.com/
DeepSeek: https://platform.deepseek.com/
Google Gemini: https://makersuite.google.com/app/apikey
xAI Grok: https://console.x.ai/
Moonshot AI: https://platform.moonshot.ai/
Perplexity: https://www.perplexity.ai/hub
Mistral: https://console.mistral.ai/
Hugging Face: Erstellen Sie ein fein abgestimmtes Token mit Inference (serverless / Inference Providers)-Zugriff unter https://huggingface.co/settings/tokens. Siehe Chat Completion für unterstützte Modelle.
Hub-Modelle lokal ausführen (außerhalb dieses MCP)
Dieser Server ruft den gehosteten Inference Router von Hugging Face auf; er lädt keine Gewichte herunter und führt kein PyTorch/GGUF innerhalb von Node aus. Um Modelle auf Ihrem Computer auszuführen, verwenden Sie Tools wie Ollama, llama.cpp, Text Generation Inference oder Hugging Face Inference Endpoints und verweisen Sie andere Clients auf diese Dienste, falls sie eine API bereitstellen.
Anwendungsbeispiele
ChatGPT aufrufen
Erhalten Sie eine Antwort von OpenAI:
{
"tool": "call-chatgpt",
"arguments": {
"prompt": "Explain quantum computing in simple terms",
"temperature": 0.7,
"max_tokens": 500
}
}Hugging Face aufrufen
Erhalten Sie eine Antwort von einem Hub-Modell über den Inference Router (model ist die Hub-Repo-ID, z. B. Qwen/Qwen2.5-7B-Instruct):
{
"tool": "call-huggingface",
"arguments": {
"prompt": "Reply with exactly: ok",
"model": "Qwen/Qwen2.5-7B-Instruct",
"temperature": 0.3,
"max_tokens": 32
}
}Alle LLMs aufrufen
Erhalten Sie Antworten von allen Anbietern:
{
"tool": "call-all-llms",
"arguments": {
"prompt": "Write a short poem about AI",
"temperature": 0.8
}
}Tag-basierte Präferenzen festlegen
Verwenden Sie automatisch das beste Modell für jeden Aufgabentyp:
{
"tool": "set-user-preferences",
"arguments": {
"defaultModel": "gpt-4o",
"costPreference": "cheaper",
"tagPreferences": {
"coding": "deepseek-r1",
"general": "gpt-4o",
"business": "claude-3.5-sonnet-20241022",
"reasoning": "deepseek-r1",
"math": "deepseek-r1",
"creative": "gpt-4o"
}
}
}Prompt-Verlauf abrufen
Sehen Sie sich Ihre Prompt-Protokolle an:
{
"tool": "get-prompt-history",
"arguments": {
"provider": "chatgpt",
"limit": 10
}
}Modell-Tags
Modelle werden nach ihren Stärken markiert:
coding:
deepseek-r1,deepseek-coder,gpt-4o,claude-3.5-sonnet-20241022business:
claude-3-opus-20240229,gpt-4o,gemini-1.5-proreasoning:
deepseek-r1,o1-preview,claude-3.5-sonnet-20241022math:
deepseek-r1,o1-preview,o1-minicreative:
gpt-4o,claude-3-opus-20240229,gemini-1.5-progeneral:
gpt-4o-mini,claude-3-haiku-20240307,gemini-1.5-flash
Anwendungsfälle
Multi-Perspektiven-Analyse – Erhalten Sie verschiedene Perspektiven von mehreren LLMs
Modellvergleich – Vergleichen Sie Antworten, um Stärken und Schwächen zu verstehen
Kostenoptimierung – Wählen Sie das kostengünstigste Modell für jede Aufgabe
Qualitätssicherung – Querverweise auf Antworten von mehreren Modellen
Intelligente Auswahl – Verwenden Sie automatisch das beste Modell für Programmierung, Business, Reasoning usw.
Prompt-Analytik – Verfolgen Sie Nutzung, Kosten und Muster mit automatischer Protokollierung
Technische Details
Erstellt mit: Node.js, TypeScript, MCP SDK
Abhängigkeiten: @modelcontextprotocol/sdk, superagent, zod
Plattformen: macOS, Windows, Linux
Speicherung der Präferenzen:
Unix/macOS:
~/.cross-llm-mcp/preferences.jsonWindows:
%APPDATA%/cross-llm-mcp/preferences.json
Speicherung der Prompt-Protokolle:
Unix/macOS:
~/.cross-llm-mcp/prompts.jsonWindows:
%APPDATA%/cross-llm-mcp/prompts.json
Mitwirken
⭐ Wenn Ihnen dieses Projekt hilft, geben Sie ihm bitte einen Stern auf GitHub! ⭐
Beiträge sind willkommen! Bitte öffnen Sie ein Issue oder senden Sie einen Pull Request.
Lizenz
MIT-Lizenz – siehe LICENSE.md für Details.
Support
Wenn Sie dieses Projekt nützlich finden, ziehen Sie eine Unterstützung in Betracht:
⚡ Lightning Network
lnbc1pjhhsqepp5mjgwnvg0z53shm22hfe9us289lnaqkwv8rn2s0rtekg5vvj56xnqdqqcqzzsxqyz5vqsp5gu6vh9hyp94c7t3tkpqrp2r059t4vrw7ps78a4n0a2u52678c7yq9qyyssq7zcferywka50wcy75skjfrdrk930cuyx24rg55cwfuzxs49rc9c53mpz6zug5y2544pt8y9jflnq0ltlha26ed846jh0y7n4gm8jd3qqaautqa₿ Bitcoin: bc1ptzvr93pn959xq4et6sqzpfnkk2args22ewv5u2th4ps7hshfaqrshe0xtp
Ξ Ethereum/EVM: 0x42ea529282DDE0AA87B42d9E83316eb23FE62c3f
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/JamesANZ/cross-llm-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server