Skip to main content
Glama

Multi LLM Cross-Check MCP Server

다중 LLM 교차 검사 MCP 서버

여러 LLM 제공업체의 응답을 동시에 교차 검증할 수 있는 모델 제어 프로토콜(MCP) 서버입니다. 이 서버는 Claude Desktop과 MCP 서버로 통합되어 다양한 LLM API를 쿼리하기 위한 통합 인터페이스를 제공합니다.

특징

  • 여러 LLM 공급자를 병렬로 쿼리합니다.
  • 현재 지원:
    • 오픈AI(ChatGPT)
    • 인간 중심적(클로드)
    • 퍼플렉시티 AI
    • 구글(제미니)
  • 더 빠른 응답을 위한 비동기 병렬 처리
  • Claude Desktop과의 간편한 통합

필수 조건

  • Python 3.8 이상
  • 사용하려는 LLM 공급자에 대한 API 키
  • uv 패키지 관리자( pip install uv 로 설치)

설치

Smithery를 통해 설치

Smithery를 통해 Claude Desktop용 Multi LLM Cross-Check Server를 자동으로 설치하려면:

지엑스피1

수동 설치

  1. 이 저장소를 복제하세요:
git clone https://github.com/lior-ps/multi-llm-cross-check-mcp-server.git cd multi-llm-cross-check-mcp-server
  1. uv 환경을 초기화하고 요구 사항을 설치합니다.
uv venv uv pip install -r requirements.txt
  1. Claude Desktop에서 구성: Claude Desktop 구성 디렉토리에 다음 내용이 포함된 claude_desktop_config.json 이라는 파일을 만듭니다.
    { "mcp_servers": [ { "command": "uv", "args": [ "--directory", "/multi-llm-cross-check-mcp-server", "run", "main.py" ], "env": { "OPENAI_API_KEY": "your_openai_key", // Get from https://platform.openai.com/api-keys "ANTHROPIC_API_KEY": "your_anthropic_key", // Get from https://console.anthropic.com/account/keys "PERPLEXITY_API_KEY": "your_perplexity_key", // Get from https://www.perplexity.ai/settings/api "GEMINI_API_KEY": "your_gemini_key" // Get from https://makersuite.google.com/app/apikey } } ] }
    참고사항:
    1. 사용하려는 LLM 공급자의 API 키만 추가하면 됩니다. 서버는 API 키가 구성되지 않은 공급자를 건너뜁니다.
    2. 명령 필드에 uv 실행 파일의 전체 경로를 입력해야 할 수도 있습니다. MacOS/Linux에서는 which uv , Windows에서는 where uv 실행하여 경로를 확인할 수 있습니다.

MCP 서버 사용

구성 후:

  1. Claude Desktop을 열면 서버가 자동으로 시작됩니다.
  2. "다른 LLM과 교차 확인"을 요청하여 대화에서 cross_check 도구를 사용할 수 있습니다.
  3. 프롬프트를 제공하면 구성된 모든 LLM 공급자로부터 응답이 반환됩니다.

API 응답 형식

서버는 각 LLM 공급자의 응답이 포함된 사전을 반환합니다.

{ "ChatGPT": { ... }, "Claude": { ... }, "Perplexity": { ... }, "Gemini": { ... } }

오류 처리

  • 특정 LLM에 대한 API 키가 제공되지 않으면 해당 공급자는 건너뜁니다.
  • API 오류는 포착되어 응답으로 반환됩니다.
  • 각 LLM의 응답은 독립적이므로 한 공급자의 오류가 다른 공급자에게 영향을 미치지 않습니다.

기여하다

기여를 환영합니다! 풀 리퀘스트를 제출해 주세요.

특허

이 프로젝트는 MIT 라이선스에 따라 라이선스가 부여되었습니다. 자세한 내용은 라이선스 파일을 참조하세요.

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

여러 LLM 공급자(OpenAI, Anthropic, Perplexity AI, Google Gemini 등)의 응답을 동시에 쿼리하고 교차 검사할 수 있도록 Claude Desktop과 통합된 모델 제어 프로토콜 서버입니다.

  1. 특징
    1. 필수 조건
      1. 설치
        1. Smithery를 통해 설치
        2. 수동 설치
      2. MCP 서버 사용
        1. API 응답 형식
          1. 오류 처리
            1. 기여하다
              1. 특허

                Related MCP Servers

                • -
                  security
                  A
                  license
                  -
                  quality
                  A Model Context Protocol (MCP) server that lets you seamlessly use OpenAI's models right from Claude.
                  Last updated -
                  1
                  24
                  28
                  JavaScript
                  MIT License
                  • Apple
                • A
                  security
                  A
                  license
                  A
                  quality
                  A Model Context Protocol server that provides LLMs with access to Valyu's knowledge retrieval and feedback APIs for searching proprietary/web sources and submitting transaction feedback.
                  Last updated -
                  2
                  TypeScript
                  MIT License
                  • Linux
                  • Apple
                • -
                  security
                  A
                  license
                  -
                  quality
                  A Model Context Protocol server that enables LLMs like Claude to interact with SQLite and SQL Server databases, allowing for schema inspection and SQL query execution.
                  Last updated -
                  124
                  40
                  TypeScript
                  MIT License
                  • Linux
                  • Apple
                • -
                  security
                  F
                  license
                  -
                  quality
                  A unified Model Context Protocol Gateway that bridges LLM interfaces with various tools and services, providing OpenAI API compatibility and supporting both synchronous and asynchronous tool execution.
                  Last updated -
                  Python

                View all related MCP servers

                MCP directory API

                We provide all the information about MCP servers via our MCP API.

                curl -X GET 'https://glama.ai/api/mcp/v1/servers/lior-ps/multi-llm-cross-check-mcp-server'

                If you have feedback or need assistance with the MCP directory API, please join our Discord server