LLM Bridge MCP

MIT License
3
  • Linux
  • Apple

Integrations

  • Allows access to Google's Gemini models through the same standardized interface used for other LLM providers

  • Provides access to OpenAI's GPT models through a standardized interface, supporting customizable parameters like temperature and max tokens

LLM 브리지 MCP

LLM Bridge MCP는 AI 에이전트가 표준화된 인터페이스를 통해 여러 대규모 언어 모델과 상호 작용할 수 있도록 지원합니다. 메시지 제어 프로토콜(MCP)을 활용하여 다양한 LLM 제공업체에 원활하게 접근할 수 있도록 하여 모델 간 전환을 용이하게 하고 동일한 애플리케이션에서 여러 모델을 사용할 수 있도록 지원합니다.

특징

  • 여러 LLM 공급자에 대한 통합 인터페이스:
    • OpenAI(GPT 모델)
    • 인류학적(클로드 모델)
    • 구글(제미니 모델)
    • 딥시크
    • ...
  • 유형 안전 및 검증을 위해 Pydantic AI로 구축됨
  • 온도 및 최대 토큰과 같은 사용자 정의 가능한 매개변수를 지원합니다.
  • 사용 추적 및 측정 항목을 제공합니다.

도구

서버는 다음 도구를 구현합니다.

지엑스피1

  • prompt : LLM에 보낼 텍스트 프롬프트
  • model_name : 사용할 특정 모델(기본값: "openai:gpt-4o-mini")
  • temperature : 무작위성을 제어합니다(0.0~1.0)
  • max_tokens : 생성할 최대 토큰 수
  • system_prompt : 모델의 동작을 안내하는 선택적 시스템 프롬프트

설치

Smithery를 통해 설치

Smithery를 통해 Claude Desktop에 llm-bridge-mcp를 자동으로 설치하려면:

npx -y @smithery/cli install @sjquant/llm-bridge-mcp --client claude

수동 설치

  1. 저장소를 복제합니다.
git clone https://github.com/yourusername/llm-bridge-mcp.git cd llm-bridge-mcp
  1. uv를 설치하세요(아직 설치되지 않았다면):
# On macOS brew install uv # On Linux curl -LsSf https://astral.sh/uv/install.sh | sh # On Windows powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

구성

API 키로 루트 디렉토리에 .env 파일을 만듭니다.

OPENAI_API_KEY=your_openai_api_key ANTHROPIC_API_KEY=your_anthropic_api_key GOOGLE_API_KEY=your_google_api_key DEEPSEEK_API_KEY=your_deepseek_api_key

용법

Claude Desktop 또는 Cursor와 함께 사용

Claude Desktop 구성 파일이나 .cursor/mcp.json 에 서버 항목을 추가합니다.

"mcpServers": { "llm-bridge": { "command": "uvx", "args": [ "llm-bridge-mcp" ], "env": { "OPENAI_API_KEY": "your_openai_api_key", "ANTHROPIC_API_KEY": "your_anthropic_api_key", "GOOGLE_API_KEY": "your_google_api_key", "DEEPSEEK_API_KEY": "your_deepseek_api_key" } } }

문제 해결

일반적인 문제

1. "spawn uvx ENOENT" 오류

이 오류는 시스템이 PATH에서 uvx 실행 파일을 찾을 수 없을 때 발생합니다. 해결 방법은 다음과 같습니다.

해결 방법: uvx의 전체 경로를 사용하세요

uvx 실행 파일의 전체 경로를 찾으세요.

# On macOS/Linux which uvx # On Windows where.exe uvx

그런 다음 MCP 서버 구성을 업데이트하여 전체 경로를 사용하세요.

"mcpServers": { "llm-bridge": { "command": "/full/path/to/uvx", // Replace with your actual path "args": [ "llm-bridge-mcp" ], "env": { // ... your environment variables } } }

특허

이 프로젝트는 MIT 라이선스에 따라 라이선스가 부여되었습니다. 자세한 내용은 라이선스 파일을 참조하세요.

-
security - not tested
A
license - permissive license
-
quality - not tested

표준화된 인터페이스를 통해 AI 에이전트가 여러 LLM 공급자(OpenAI, Anthropic, Google, DeepSeek)와 상호 작용할 수 있도록 하여 모델 간에 쉽게 전환하거나 동일한 애플리케이션에서 여러 모델을 사용할 수 있습니다.

  1. Features
    1. Tools
      1. Installation
        1. Installing via Smithery
        2. Manual Installation
      2. Configuration
        1. Usage
          1. Using with Claude Desktop or Cursor
          2. Troubleshooting
        2. License
          ID: 72opagtg7m