다중 LLM 교차 검사 MCP 서버
여러 LLM 제공업체의 응답을 동시에 교차 검증할 수 있는 모델 제어 프로토콜(MCP) 서버입니다. 이 서버는 Claude Desktop과 MCP 서버로 통합되어 다양한 LLM API를 쿼리하기 위한 통합 인터페이스를 제공합니다.
특징
- 여러 LLM 공급자를 병렬로 쿼리합니다.
- 현재 지원:
- 오픈AI(ChatGPT)
- 인간 중심적(클로드)
- 퍼플렉시티 AI
- 구글(제미니)
- 더 빠른 응답을 위한 비동기 병렬 처리
- Claude Desktop과의 간편한 통합
필수 조건
- Python 3.8 이상
- 사용하려는 LLM 공급자에 대한 API 키
- uv 패키지 관리자(
pip install uv
로 설치)
설치
- 이 저장소를 복제하세요:
지엑스피1
- uv 환경을 초기화하고 요구 사항을 설치합니다.
Copy
- Claude Desktop에서 구성: Claude Desktop 구성 디렉토리에 다음 내용이 포함된
claude_desktop_config.json
이라는 파일을 만듭니다.참고사항:Copy- 사용하려는 LLM 공급자의 API 키만 추가하면 됩니다. 서버는 API 키가 구성되지 않은 공급자를 건너뜁니다.
- 명령 필드에 uv 실행 파일의 전체 경로를 입력해야 할 수도 있습니다. MacOS/Linux에서는
which uv
, Windows에서는where uv
실행하여 경로를 확인할 수 있습니다.
MCP 서버 사용
구성 후:
- Claude Desktop을 열면 서버가 자동으로 시작됩니다.
- "다른 LLM과 교차 확인"을 요청하여 대화에서
cross_check
도구를 사용할 수 있습니다. - 프롬프트를 제공하면 구성된 모든 LLM 공급자로부터 응답이 반환됩니다.
API 응답 형식
서버는 각 LLM 공급자의 응답이 포함된 사전을 반환합니다.
Copy
오류 처리
- 특정 LLM에 대한 API 키가 제공되지 않으면 해당 공급자는 건너뜁니다.
- API 오류는 포착되어 응답으로 반환됩니다.
- 각 LLM의 응답은 독립적이므로 한 공급자의 오류가 다른 공급자에게 영향을 미치지 않습니다.
기여하다
기여를 환영합니다! 풀 리퀘스트를 제출해 주세요.
특허
이 프로젝트는 MIT 라이선스에 따라 라이선스가 부여되었습니다. 자세한 내용은 라이선스 파일을 참조하세요.
This server cannot be installed
여러 LLM 공급자(OpenAI, Anthropic, Perplexity AI, Google Gemini 등)의 응답을 동시에 쿼리하고 교차 검사할 수 있도록 Claude Desktop과 통합된 모델 제어 프로토콜 서버입니다.