LLM 브리지 MCP
LLM Bridge MCP는 AI 에이전트가 표준화된 인터페이스를 통해 여러 대규모 언어 모델과 상호 작용할 수 있도록 지원합니다. 메시지 제어 프로토콜(MCP)을 활용하여 다양한 LLM 제공업체에 원활하게 접근할 수 있도록 하여 모델 간 전환을 용이하게 하고 동일한 애플리케이션에서 여러 모델을 사용할 수 있도록 지원합니다.
특징
여러 LLM 공급자에 대한 통합 인터페이스:
OpenAI(GPT 모델)
인류학적(클로드 모델)
구글(제미니 모델)
딥시크
...
유형 안전 및 검증을 위해 Pydantic AI로 구축됨
온도 및 최대 토큰과 같은 사용자 정의 가능한 매개변수를 지원합니다.
사용 추적 및 측정 항목을 제공합니다.
Related MCP server: Model Context Provider (MCP) Server
도구
서버는 다음 도구를 구현합니다.
지엑스피1
prompt: LLM에 보낼 텍스트 프롬프트model_name: 사용할 특정 모델(기본값: "openai:gpt-4o-mini")temperature: 무작위성을 제어합니다(0.0~1.0)max_tokens: 생성할 최대 토큰 수system_prompt: 모델의 동작을 안내하는 선택적 시스템 프롬프트
설치
Smithery를 통해 설치
Smithery를 통해 Claude Desktop에 llm-bridge-mcp를 자동으로 설치하려면:
수동 설치
저장소를 복제합니다.
uv를 설치하세요(아직 설치되지 않았다면):
구성
API 키로 루트 디렉토리에 .env 파일을 만듭니다.
용법
Claude Desktop 또는 Cursor와 함께 사용
Claude Desktop 구성 파일이나 .cursor/mcp.json 에 서버 항목을 추가합니다.
문제 해결
일반적인 문제
1. "spawn uvx ENOENT" 오류
이 오류는 시스템이 PATH에서 uvx 실행 파일을 찾을 수 없을 때 발생합니다. 해결 방법은 다음과 같습니다.
해결 방법: uvx의 전체 경로를 사용하세요
uvx 실행 파일의 전체 경로를 찾으세요.
그런 다음 MCP 서버 구성을 업데이트하여 전체 경로를 사용하세요.
특허
이 프로젝트는 MIT 라이선스에 따라 라이선스가 부여되었습니다. 자세한 내용은 라이선스 파일을 참조하세요.