Integrations
LLM 브리지 MCP
LLM Bridge MCP는 AI 에이전트가 표준화된 인터페이스를 통해 여러 대규모 언어 모델과 상호 작용할 수 있도록 지원합니다. 메시지 제어 프로토콜(MCP)을 활용하여 다양한 LLM 제공업체에 원활하게 접근할 수 있도록 하여 모델 간 전환을 용이하게 하고 동일한 애플리케이션에서 여러 모델을 사용할 수 있도록 지원합니다.
특징
- 여러 LLM 공급자에 대한 통합 인터페이스:
- OpenAI(GPT 모델)
- 인류학적(클로드 모델)
- 구글(제미니 모델)
- 딥시크
- ...
- 유형 안전 및 검증을 위해 Pydantic AI로 구축됨
- 온도 및 최대 토큰과 같은 사용자 정의 가능한 매개변수를 지원합니다.
- 사용 추적 및 측정 항목을 제공합니다.
도구
서버는 다음 도구를 구현합니다.
지엑스피1
prompt
: LLM에 보낼 텍스트 프롬프트model_name
: 사용할 특정 모델(기본값: "openai:gpt-4o-mini")temperature
: 무작위성을 제어합니다(0.0~1.0)max_tokens
: 생성할 최대 토큰 수system_prompt
: 모델의 동작을 안내하는 선택적 시스템 프롬프트
설치
Smithery를 통해 설치
Smithery를 통해 Claude Desktop에 llm-bridge-mcp를 자동으로 설치하려면:
Copy
수동 설치
- 저장소를 복제합니다.
Copy
- uv를 설치하세요(아직 설치되지 않았다면):
Copy
구성
API 키로 루트 디렉토리에 .env
파일을 만듭니다.
Copy
용법
Claude Desktop 또는 Cursor와 함께 사용
Claude Desktop 구성 파일이나 .cursor/mcp.json
에 서버 항목을 추가합니다.
Copy
문제 해결
일반적인 문제
1. "spawn uvx ENOENT" 오류
이 오류는 시스템이 PATH에서 uvx
실행 파일을 찾을 수 없을 때 발생합니다. 해결 방법은 다음과 같습니다.
해결 방법: uvx의 전체 경로를 사용하세요
uvx 실행 파일의 전체 경로를 찾으세요.
Copy
그런 다음 MCP 서버 구성을 업데이트하여 전체 경로를 사용하세요.
Copy
특허
이 프로젝트는 MIT 라이선스에 따라 라이선스가 부여되었습니다. 자세한 내용은 라이선스 파일을 참조하세요.
This server cannot be installed
표준화된 인터페이스를 통해 AI 에이전트가 여러 LLM 공급자(OpenAI, Anthropic, Google, DeepSeek)와 상호 작용할 수 있도록 하여 모델 간에 쉽게 전환하거나 동일한 애플리케이션에서 여러 모델을 사용할 수 있습니다.