Multi LLM Cross-Check MCP Server

MIT License
4
  • Linux
  • Apple

Servidor MCP de verificación cruzada de múltiples LLM

Un servidor de Protocolo de Control de Modelos (MCP) que permite la verificación cruzada de respuestas de múltiples proveedores de LLM simultáneamente. Este servidor se integra con Claude Desktop como servidor MCP para proporcionar una interfaz unificada para consultar diferentes API de LLM.

Características

  • Consultar varios proveedores de LLM en paralelo
  • Actualmente admite:
    • OpenAI (ChatGPT)
    • Antrópico (Claude)
    • IA de perplejidad
    • Google (Géminis)
  • Procesamiento paralelo asincrónico para respuestas más rápidas
  • Fácil integración con Claude Desktop

Prerrequisitos

  • Python 3.8 o superior
  • Claves API para los proveedores de LLM que desea utilizar
  • Gestor de paquetes uv (instalar con pip install uv )

Instalación

  1. Clonar este repositorio:
git clone https://github.com/lior-ps/multi-llm-cross-check-mcp-server.git cd multi-llm-cross-check-mcp-server
  1. Inicializar el entorno uv e instalar los requisitos:
uv venv uv pip install -r requirements.txt
  1. Configurar en Claude Desktop: cree un archivo llamado claude_desktop_config.json en su directorio de configuración de Claude Desktop con el siguiente contenido:
    { "mcp_servers": [ { "command": "uv", "args": [ "--directory", "/multi-llm-cross-check-mcp-server", "run", "main.py" ], "env": { "OPENAI_API_KEY": "your_openai_key", // Get from https://platform.openai.com/api-keys "ANTHROPIC_API_KEY": "your_anthropic_key", // Get from https://console.anthropic.com/account/keys "PERPLEXITY_API_KEY": "your_perplexity_key", // Get from https://www.perplexity.ai/settings/api "GEMINI_API_KEY": "your_gemini_key" // Get from https://makersuite.google.com/app/apikey } } ] }
    Notas:
    1. Solo necesita agregar las claves API de los proveedores LLM que desee usar. El servidor omitirá los proveedores sin claves API configuradas.
    2. Es posible que necesites introducir la ruta completa del ejecutable uv en el campo de comandos. Puedes obtenerla ejecutando which uv en macOS/Linux o where uv en Windows.

Uso del servidor MCP

Una vez configurado:

  1. El servidor se iniciará automáticamente cuando abras Claude Desktop
  2. Puedes usar la herramienta cross_check en tus conversaciones pidiendo "verificar con otros LLM"
  3. Proporcione un mensaje y devolverá respuestas de todos los proveedores LLM configurados

Formato de respuesta de la API

El servidor devuelve un diccionario con respuestas de cada proveedor LLM:

{ "ChatGPT": { ... }, "Claude": { ... }, "Perplexity": { ... }, "Gemini": { ... } }

Manejo de errores

  • Si no se proporciona una clave API para un LLM específico, se omitirá ese proveedor
  • Los errores de API se detectan y se devuelven en la respuesta.
  • La respuesta de cada LLM es independiente, por lo que los errores con un proveedor no afectarán a los demás.

Contribuyendo

¡Agradecemos sus contribuciones! No dude en enviar una solicitud de incorporación de cambios.

Licencia

Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.

-
security - not tested
A
license - permissive license
-
quality - not tested

Un servidor de protocolo de control de modelos que se integra con Claude Desktop para permitir la consulta simultánea y la verificación cruzada de respuestas de múltiples proveedores de LLM, incluidos OpenAI, Anthropic, Perplexity AI y Google Gemini.

  1. Features
    1. Prerequisites
      1. Installation
        1. Using the MCP Server
          1. API Response Format
            1. Error Handling
              1. Contributing
                1. License
                  ID: 38wi9ancdo