Multi-LLM-Cross-Check MCP-Server
Ein Model Control Protocol (MCP)-Server ermöglicht die gleichzeitige Überprüfung von Antworten mehrerer LLM-Anbieter. Dieser Server ist als MCP-Server in Claude Desktop integriert und bietet eine einheitliche Schnittstelle für die Abfrage verschiedener LLM-APIs.
Merkmale
- Mehrere LLM-Anbieter parallel abfragen
- Unterstützt derzeit:
- OpenAI (ChatGPT)
- Anthropisch (Claude)
- Ratlosigkeits-KI
- Google (Gemini)
- Asynchrone Parallelverarbeitung für schnellere Antworten
- Einfache Integration mit Claude Desktop
Voraussetzungen
- Python 3.8 oder höher
- API-Schlüssel für die LLM-Anbieter, die Sie verwenden möchten
- UV-Paketmanager (Installation mit
pip install uv
)
Installation
Installation über Smithery
So installieren Sie Multi LLM Cross-Check Server für Claude Desktop automatisch über Smithery :
Manuelle Installation
- Klonen Sie dieses Repository:
- UV-Umgebung initialisieren und Anforderungen installieren:
- Konfigurieren Sie in Claude Desktop: Erstellen Sie in Ihrem Claude Desktop-Konfigurationsverzeichnis eine Datei mit dem Namen
claude_desktop_config.json
mit folgendem Inhalt:Hinweise:- Sie müssen nur die API-Schlüssel für die LLM-Anbieter hinzufügen, die Sie verwenden möchten. Der Server überspringt alle Anbieter ohne konfigurierte API-Schlüssel.
- Möglicherweise müssen Sie den vollständigen Pfad zur UV-Programmdatei in das Befehlsfeld eingeben. Sie erhalten diesen, indem Sie
which uv
unter MacOS/Linux oderwhere uv
unter Windows ausführen.
Verwenden des MCP-Servers
Nach der Konfiguration:
- Der Server wird automatisch gestartet, wenn Sie Claude Desktop öffnen
- Sie können das Tool
cross_check
in Ihren Gesprächen verwenden, indem Sie darum bitten, „mit anderen LLMs zu vergleichen“. - Geben Sie eine Eingabeaufforderung ein, und es werden Antworten von allen konfigurierten LLM-Anbietern zurückgegeben
API-Antwortformat
Der Server gibt ein Wörterbuch mit Antworten von jedem LLM-Anbieter zurück:
Fehlerbehandlung
- Wenn für einen bestimmten LLM kein API-Schlüssel angegeben wird, wird dieser Anbieter übersprungen
- API-Fehler werden abgefangen und in der Antwort zurückgegeben
- Die Antwort jedes LLM ist unabhängig, sodass Fehler bei einem Anbieter keine Auswirkungen auf andere haben
Beitragen
Beiträge sind willkommen! Senden Sie gerne einen Pull Request.
Lizenz
Dieses Projekt ist unter der MIT-Lizenz lizenziert – Einzelheiten finden Sie in der Datei LICENSE.
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Ein Model Control Protocol-Server, der in Claude Desktop integriert ist, um die gleichzeitige Abfrage und Querprüfung von Antworten mehrerer LLM-Anbieter, darunter OpenAI, Anthropic, Perplexity AI und Google Gemini, zu ermöglichen.
Related MCP Servers
- -securityAlicense-qualityA Model Context Protocol (MCP) server that lets you seamlessly use OpenAI's models right from Claude.Last updated -12428JavaScriptMIT License
- AsecurityAlicenseAqualityA Model Context Protocol server that provides LLMs with access to Valyu's knowledge retrieval and feedback APIs for searching proprietary/web sources and submitting transaction feedback.Last updated -2TypeScriptMIT License
- -securityAlicense-qualityA Model Context Protocol server that enables LLMs like Claude to interact with SQLite and SQL Server databases, allowing for schema inspection and SQL query execution.Last updated -19544TypeScriptMIT License
- -securityFlicense-qualityA unified Model Context Protocol Gateway that bridges LLM interfaces with various tools and services, providing OpenAI API compatibility and supporting both synchronous and asynchronous tool execution.Last updated -Python