Skip to main content
Glama
JamesANZ

Cross-LLM MCP Server

🤖 Cross-LLM MCP-Server

Greifen Sie von einem Ort aus auf mehrere LLM-APIs zu. Rufen Sie ChatGPT, Claude, DeepSeek, Gemini, Grok, Kimi, Perplexity, Mistral und den Hugging Face Inference Router mit intelligenter Modellauswahl, Präferenzen und Prompt-Protokollierung auf.

Ein MCP (Model Context Protocol)-Server, der einen einheitlichen Zugriff auf mehrere Large Language Model-APIs für KI-Entwicklungsumgebungen wie Cursor und Claude Desktop bietet.

Trust Score

Warum Cross-LLM MCP verwenden?

  • 🌐 9 LLM-Anbieter – ChatGPT, Claude, DeepSeek, Gemini, Grok, Kimi, Perplexity, Mistral, Hugging Face

  • 🎯 Intelligente Modellauswahl – Tag-basierte Präferenzen (Programmierung, Business, Reasoning, Mathematik, Kreativität, Allgemein)

  • 📊 Prompt-Protokollierung – Verfolgen Sie alle Prompts mit Verlauf, Statistiken und Analysen

  • 💰 Kostenoptimierung – Wählen Sie Flaggschiff- oder günstigere Modelle basierend auf Ihren Präferenzen

  • Einfache Einrichtung – Installation mit einem Klick in Cursor oder einfache manuelle Einrichtung

  • 🔄 Alle LLMs aufrufen – Erhalten Sie Antworten von allen Anbietern gleichzeitig

Related MCP server: URL Fetch MCP

Schnellstart

Bereit, auf mehrere LLMs zuzugreifen? In Sekunden installiert:

In Cursor installieren (Empfohlen):

🔗 In Cursor installieren

Oder manuell installieren:

npm install -g cross-llm-mcp
# Or from source:
git clone https://github.com/JamesANZ/cross-llm-mcp.git
cd cross-llm-mcp && npm install && npm run build

Funktionen

🤖 Individuelle LLM-Tools

  • call-chatgpt – OpenAIs ChatGPT-API

  • call-claude – Anthropic's Claude-API

  • call-deepseek – DeepSeek-API

  • call-gemini – Google's Gemini-API

  • call-grok – xAI's Grok-API

  • call-kimi – Moonshot AI's Kimi-API

  • call-perplexity – Perplexity AI-API

  • call-mistral – Mistral AI-API

  • call-huggingface – Hugging Face Inference Router (OpenAI-kompatible Hub-Modelle)

🔄 Kombinierte Tools

  • call-all-llms – Alle LLMs mit demselben Prompt aufrufen

  • call-llm – Einen bestimmten Anbieter nach Namen aufrufen

⚙️ Präferenzen & Modellauswahl

  • get-user-preferences – Aktuelle Präferenzen abrufen

  • set-user-preferences – Standardmodell, Kostenpräferenz und Tag-basierte Präferenzen festlegen

  • get-models-by-tag – Modelle nach Tag finden (Programmierung, Business, Reasoning, Mathematik, Kreativität, Allgemein)

📝 Prompt-Protokollierung

  • get-prompt-history – Prompt-Verlauf mit Filtern anzeigen

  • get-prompt-stats – Statistiken zu Prompt-Protokollen abrufen

  • delete-prompt-entries – Protokolleinträge nach Kriterien löschen

  • clear-prompt-history – Alle Prompt-Protokolle löschen

Installation

Cursor (Ein-Klick)

Klicken Sie auf den oben stehenden Installationslink oder verwenden Sie:

cursor://anysphere.cursor-deeplink/mcp/install?name=cross-llm-mcp&config=eyJjcm9zcy1sbG0tbWNwIjp7ImNvbW1hbmQiOiJucHgiLCJhcmdzIjpbIi15IiwiY3Jvc3MtbGxtLW1jcCJdfX0=

Fügen Sie nach der Installation Ihre API-Schlüssel in den Cursor-Einstellungen hinzu (siehe Konfiguration unten).

Manuelle Installation

Voraussetzungen: Node.js 18+ und npm

# Clone and build
git clone https://github.com/JamesANZ/cross-llm-mcp.git
cd cross-llm-mcp
npm install
npm run build

Claude Desktop

Fügen Sie dies zu claude_desktop_config.json hinzu:

macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
Windows: %APPDATA%\Claude\claude_desktop_config.json

{
  "mcpServers": {
    "cross-llm-mcp": {
      "command": "node",
      "args": ["/absolute/path/to/cross-llm-mcp/build/index.js"],
      "env": {
        "OPENAI_API_KEY": "your_openai_api_key_here",
        "ANTHROPIC_API_KEY": "your_anthropic_api_key_here",
        "DEEPSEEK_API_KEY": "your_deepseek_api_key_here",
        "GEMINI_API_KEY": "your_gemini_api_key_here",
        "XAI_API_KEY": "your_grok_api_key_here",
        "KIMI_API_KEY": "your_kimi_api_key_here",
        "PERPLEXITY_API_KEY": "your_perplexity_api_key_here",
        "MISTRAL_API_KEY": "your_mistral_api_key_here",
        "HF_TOKEN": "your_huggingface_token_here"
      }
    }
  }
}

Starten Sie Claude Desktop nach der Konfiguration neu.

Konfiguration

API-Schlüssel

Setzen Sie Umgebungsvariablen für die LLM-Anbieter, die Sie verwenden möchten:

export OPENAI_API_KEY="your_openai_api_key"
export ANTHROPIC_API_KEY="your_anthropic_api_key"
export DEEPSEEK_API_KEY="your_deepseek_api_key"
export GEMINI_API_KEY="your_gemini_api_key"
export XAI_API_KEY="your_grok_api_key"
export KIMI_API_KEY="your_kimi_api_key"
export PERPLEXITY_API_KEY="your_perplexity_api_key"
export MISTRAL_API_KEY="your_mistral_api_key"
export HF_TOKEN="your_huggingface_token"
# Or: HUGGINGFACE_API_KEY (same as HF_TOKEN)
# Optional: DEFAULT_HUGGINGFACE_MODEL, HUGGINGFACE_INFERENCE_BASE_URL (default https://router.huggingface.co/v1)

API-Schlüssel erhalten

Hub-Modelle lokal ausführen (außerhalb dieses MCP)

Dieser Server ruft den gehosteten Inference Router von Hugging Face auf; er lädt keine Gewichte herunter und führt kein PyTorch/GGUF innerhalb von Node aus. Um Modelle auf Ihrem Computer auszuführen, verwenden Sie Tools wie Ollama, llama.cpp, Text Generation Inference oder Hugging Face Inference Endpoints und verweisen Sie andere Clients auf diese Dienste, falls sie eine API bereitstellen.

Anwendungsbeispiele

ChatGPT aufrufen

Erhalten Sie eine Antwort von OpenAI:

{
  "tool": "call-chatgpt",
  "arguments": {
    "prompt": "Explain quantum computing in simple terms",
    "temperature": 0.7,
    "max_tokens": 500
  }
}

Hugging Face aufrufen

Erhalten Sie eine Antwort von einem Hub-Modell über den Inference Router (model ist die Hub-Repo-ID, z. B. Qwen/Qwen2.5-7B-Instruct):

{
  "tool": "call-huggingface",
  "arguments": {
    "prompt": "Reply with exactly: ok",
    "model": "Qwen/Qwen2.5-7B-Instruct",
    "temperature": 0.3,
    "max_tokens": 32
  }
}

Alle LLMs aufrufen

Erhalten Sie Antworten von allen Anbietern:

{
  "tool": "call-all-llms",
  "arguments": {
    "prompt": "Write a short poem about AI",
    "temperature": 0.8
  }
}

Tag-basierte Präferenzen festlegen

Verwenden Sie automatisch das beste Modell für jeden Aufgabentyp:

{
  "tool": "set-user-preferences",
  "arguments": {
    "defaultModel": "gpt-4o",
    "costPreference": "cheaper",
    "tagPreferences": {
      "coding": "deepseek-r1",
      "general": "gpt-4o",
      "business": "claude-3.5-sonnet-20241022",
      "reasoning": "deepseek-r1",
      "math": "deepseek-r1",
      "creative": "gpt-4o"
    }
  }
}

Prompt-Verlauf abrufen

Sehen Sie sich Ihre Prompt-Protokolle an:

{
  "tool": "get-prompt-history",
  "arguments": {
    "provider": "chatgpt",
    "limit": 10
  }
}

Modell-Tags

Modelle werden nach ihren Stärken markiert:

  • coding: deepseek-r1, deepseek-coder, gpt-4o, claude-3.5-sonnet-20241022

  • business: claude-3-opus-20240229, gpt-4o, gemini-1.5-pro

  • reasoning: deepseek-r1, o1-preview, claude-3.5-sonnet-20241022

  • math: deepseek-r1, o1-preview, o1-mini

  • creative: gpt-4o, claude-3-opus-20240229, gemini-1.5-pro

  • general: gpt-4o-mini, claude-3-haiku-20240307, gemini-1.5-flash

Anwendungsfälle

  • Multi-Perspektiven-Analyse – Erhalten Sie verschiedene Perspektiven von mehreren LLMs

  • Modellvergleich – Vergleichen Sie Antworten, um Stärken und Schwächen zu verstehen

  • Kostenoptimierung – Wählen Sie das kostengünstigste Modell für jede Aufgabe

  • Qualitätssicherung – Querverweise auf Antworten von mehreren Modellen

  • Intelligente Auswahl – Verwenden Sie automatisch das beste Modell für Programmierung, Business, Reasoning usw.

  • Prompt-Analytik – Verfolgen Sie Nutzung, Kosten und Muster mit automatischer Protokollierung

Technische Details

Erstellt mit: Node.js, TypeScript, MCP SDK
Abhängigkeiten: @modelcontextprotocol/sdk, superagent, zod
Plattformen: macOS, Windows, Linux

Speicherung der Präferenzen:

  • Unix/macOS: ~/.cross-llm-mcp/preferences.json

  • Windows: %APPDATA%/cross-llm-mcp/preferences.json

Speicherung der Prompt-Protokolle:

  • Unix/macOS: ~/.cross-llm-mcp/prompts.json

  • Windows: %APPDATA%/cross-llm-mcp/prompts.json

Mitwirken

Wenn Ihnen dieses Projekt hilft, geben Sie ihm bitte einen Stern auf GitHub!

Beiträge sind willkommen! Bitte öffnen Sie ein Issue oder senden Sie einen Pull Request.

Lizenz

MIT-Lizenz – siehe LICENSE.md für Details.

Support

Wenn Sie dieses Projekt nützlich finden, ziehen Sie eine Unterstützung in Betracht:

⚡ Lightning Network

lnbc1pjhhsqepp5mjgwnvg0z53shm22hfe9us289lnaqkwv8rn2s0rtekg5vvj56xnqdqqcqzzsxqyz5vqsp5gu6vh9hyp94c7t3tkpqrp2r059t4vrw7ps78a4n0a2u52678c7yq9qyyssq7zcferywka50wcy75skjfrdrk930cuyx24rg55cwfuzxs49rc9c53mpz6zug5y2544pt8y9jflnq0ltlha26ed846jh0y7n4gm8jd3qqaautqa

₿ Bitcoin: bc1ptzvr93pn959xq4et6sqzpfnkk2args22ewv5u2th4ps7hshfaqrshe0xtp

Ξ Ethereum/EVM: 0x42ea529282DDE0AA87B42d9E83316eb23FE62c3f

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/JamesANZ/cross-llm-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server