Skip to main content
Glama

LLM Bridge MCP

by sjquant

LLM 브리지 MCP

LLM Bridge MCP는 AI 에이전트가 표준화된 인터페이스를 통해 여러 대규모 언어 모델과 상호 작용할 수 있도록 지원합니다. 메시지 제어 프로토콜(MCP)을 활용하여 다양한 LLM 제공업체에 원활하게 접근할 수 있도록 하여 모델 간 전환을 용이하게 하고 동일한 애플리케이션에서 여러 모델을 사용할 수 있도록 지원합니다.

특징

  • 여러 LLM 공급자에 대한 통합 인터페이스:
    • OpenAI(GPT 모델)
    • 인류학적(클로드 모델)
    • 구글(제미니 모델)
    • 딥시크
    • ...
  • 유형 안전 및 검증을 위해 Pydantic AI로 구축됨
  • 온도 및 최대 토큰과 같은 사용자 정의 가능한 매개변수를 지원합니다.
  • 사용 추적 및 측정 항목을 제공합니다.

도구

서버는 다음 도구를 구현합니다.

지엑스피1

  • prompt : LLM에 보낼 텍스트 프롬프트
  • model_name : 사용할 특정 모델(기본값: "openai")
  • temperature : 무작위성을 제어합니다(0.0~1.0)
  • max_tokens : 생성할 최대 토큰 수
  • system_prompt : 모델의 동작을 안내하는 선택적 시스템 프롬프트

설치

Smithery를 통해 설치

Smithery를 통해 Claude Desktop에 llm-bridge-mcp를 자동으로 설치하려면:

npx -y @smithery/cli install @sjquant/llm-bridge-mcp --client claude

수동 설치

  1. 저장소를 복제합니다.
git clone https://github.com/yourusername/llm-bridge-mcp.git cd llm-bridge-mcp
  1. uv를 설치하세요(아직 설치되지 않았다면):
# On macOS brew install uv # On Linux curl -LsSf https://astral.sh/uv/install.sh | sh # On Windows powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

구성

API 키로 루트 디렉토리에 .env 파일을 만듭니다.

OPENAI_API_KEY=your_openai_api_key ANTHROPIC_API_KEY=your_anthropic_api_key GOOGLE_API_KEY=your_google_api_key DEEPSEEK_API_KEY=your_deepseek_api_key

용법

Claude Desktop 또는 Cursor와 함께 사용

Claude Desktop 구성 파일이나 .cursor/mcp.json 에 서버 항목을 추가합니다.

"mcpServers": { "llm-bridge": { "command": "uvx", "args": [ "llm-bridge-mcp" ], "env": { "OPENAI_API_KEY": "your_openai_api_key", "ANTHROPIC_API_KEY": "your_anthropic_api_key", "GOOGLE_API_KEY": "your_google_api_key", "DEEPSEEK_API_KEY": "your_deepseek_api_key" } } }

문제 해결

일반적인 문제
1. "spawn uvx ENOENT" 오류

이 오류는 시스템이 PATH에서 uvx 실행 파일을 찾을 수 없을 때 발생합니다. 해결 방법은 다음과 같습니다.

해결 방법: uvx의 전체 경로를 사용하세요

uvx 실행 파일의 전체 경로를 찾으세요.

# On macOS/Linux which uvx # On Windows where.exe uvx

그런 다음 MCP 서버 구성을 업데이트하여 전체 경로를 사용하세요.

"mcpServers": { "llm-bridge": { "command": "/full/path/to/uvx", // Replace with your actual path "args": [ "llm-bridge-mcp" ], "env": { // ... your environment variables } } }

특허

이 프로젝트는 MIT 라이선스에 따라 라이선스가 부여되었습니다. 자세한 내용은 라이선스 파일을 참조하세요.

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

표준화된 인터페이스를 통해 AI 에이전트가 여러 LLM 공급자(OpenAI, Anthropic, Google, DeepSeek)와 상호 작용할 수 있도록 하여 모델 간에 쉽게 전환하거나 동일한 애플리케이션에서 여러 모델을 사용할 수 있습니다.

  1. 특징
    1. 도구
      1. 설치
        1. Smithery를 통해 설치
        2. 수동 설치
      2. 구성
        1. 용법
          1. Claude Desktop 또는 Cursor와 함께 사용
          2. 문제 해결
        2. 특허

          Related MCP Servers

          • A
            security
            A
            license
            A
            quality
            Provides integration with OpenRouter.ai, allowing access to various AI models through a unified interface.
            Last updated -
            4
            154
            28
            TypeScript
            Apache 2.0
          • -
            security
            A
            license
            -
            quality
            This server facilitates the invocation of AI models from providers like Anthropic, OpenAI, and Groq, enabling users to manage and configure large language model interactions seamlessly.
            Last updated -
            9
            Python
            MIT License
          • A
            security
            F
            license
            A
            quality
            A bridge that enables seamless integration of Ollama's local LLM capabilities into MCP-powered applications, allowing users to manage and run AI models locally with full API coverage.
            Last updated -
            10
            33
            JavaScript
            • Apple
          • -
            security
            F
            license
            -
            quality
            Enables communication and coordination between different LLM agents across multiple systems, allowing specialized agents to collaborate on tasks, share context, and coordinate work through a unified platform.
            Last updated -
            4
            TypeScript
            • Linux
            • Apple

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/sjquant/llm-bridge-mcp'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server