Skip to main content
Glama

LLM Bridge MCP

by sjquant

LLM Puente MCP

LLM Bridge MCP permite a los agentes de IA interactuar con múltiples modelos de lenguaje extensos a través de una interfaz estandarizada. Utiliza el Protocolo de Control de Mensajes (MCP) para proporcionar un acceso fluido a diferentes proveedores de LLM, lo que facilita el cambio entre modelos o el uso de varios en la misma aplicación.

Características

  • Interfaz unificada para múltiples proveedores de LLM:
    • OpenAI (modelos GPT)
    • Antrópico (modelos de Claude)
    • Google (modelos Gemini)
    • Búsqueda profunda
    • ...
  • Creado con Pydantic AI para seguridad y validación de tipos
  • Admite parámetros personalizables como temperatura y tokens máximos.
  • Proporciona seguimiento de uso y métricas.

Herramientas

El servidor implementa la siguiente herramienta:

run_llm( prompt: str, model_name: KnownModelName = "openai:gpt-4o-mini", temperature: float = 0.7, max_tokens: int = 8192, system_prompt: str = "", ) -> LLMResponse
  • prompt : El mensaje de texto que se enviará al LLM
  • model_name : Modelo específico a utilizar (predeterminado: "openai")
  • temperature : controla la aleatoriedad (0,0 a 1,0)
  • max_tokens : Número máximo de tokens a generar
  • system_prompt : mensaje del sistema opcional para guiar el comportamiento del modelo

Instalación

Instalación mediante herrería

Para instalar llm-bridge-mcp para Claude Desktop automáticamente a través de Smithery :

npx -y @smithery/cli install @sjquant/llm-bridge-mcp --client claude

Instalación manual

  1. Clonar el repositorio:
git clone https://github.com/yourusername/llm-bridge-mcp.git cd llm-bridge-mcp
  1. Instalar uv (si aún no está instalado):
# On macOS brew install uv # On Linux curl -LsSf https://astral.sh/uv/install.sh | sh # On Windows powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

Configuración

Cree un archivo .env en el directorio raíz con sus claves API:

OPENAI_API_KEY=your_openai_api_key ANTHROPIC_API_KEY=your_anthropic_api_key GOOGLE_API_KEY=your_google_api_key DEEPSEEK_API_KEY=your_deepseek_api_key

Uso

Uso con Claude Desktop o Cursor

Agregue una entrada de servidor a su archivo de configuración de Claude Desktop o .cursor/mcp.json :

"mcpServers": { "llm-bridge": { "command": "uvx", "args": [ "llm-bridge-mcp" ], "env": { "OPENAI_API_KEY": "your_openai_api_key", "ANTHROPIC_API_KEY": "your_anthropic_api_key", "GOOGLE_API_KEY": "your_google_api_key", "DEEPSEEK_API_KEY": "your_deepseek_api_key" } } }

Solución de problemas

Problemas comunes
1. Error "spawn uvx ENOENT"

Este error ocurre cuando el sistema no puede encontrar el ejecutable uvx en su PATH. Para solucionarlo:

Solución: utilice la ruta completa a uvx

Encuentre la ruta completa a su ejecutable uvx:

# On macOS/Linux which uvx # On Windows where.exe uvx

Luego actualice la configuración de su servidor MCP para utilizar la ruta completa:

"mcpServers": { "llm-bridge": { "command": "/full/path/to/uvx", // Replace with your actual path "args": [ "llm-bridge-mcp" ], "env": { // ... your environment variables } } }

Licencia

Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.

-
security - not tested
A
license - permissive license
-
quality - not tested

remote-capable server

The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.

Permite que los agentes de IA interactúen con múltiples proveedores de LLM (OpenAI, Anthropic, Google, DeepSeek) a través de una interfaz estandarizada, lo que facilita el cambio entre modelos o el uso de múltiples modelos en la misma aplicación.

  1. Características
    1. Herramientas
      1. Instalación
        1. Instalación mediante herrería
        2. Instalación manual
      2. Configuración
        1. Uso
          1. Uso con Claude Desktop o Cursor
          2. Solución de problemas
        2. Licencia

          Related MCP Servers

          • A
            security
            A
            license
            A
            quality
            Provides integration with OpenRouter.ai, allowing access to various AI models through a unified interface.
            Last updated -
            4
            154
            28
            TypeScript
            Apache 2.0
          • -
            security
            A
            license
            -
            quality
            This server facilitates the invocation of AI models from providers like Anthropic, OpenAI, and Groq, enabling users to manage and configure large language model interactions seamlessly.
            Last updated -
            9
            Python
            MIT License
          • A
            security
            F
            license
            A
            quality
            A bridge that enables seamless integration of Ollama's local LLM capabilities into MCP-powered applications, allowing users to manage and run AI models locally with full API coverage.
            Last updated -
            10
            33
            JavaScript
            • Apple
          • -
            security
            F
            license
            -
            quality
            Enables communication and coordination between different LLM agents across multiple systems, allowing specialized agents to collaborate on tasks, share context, and coordinate work through a unified platform.
            Last updated -
            4
            TypeScript
            • Linux
            • Apple

          View all related MCP servers

          MCP directory API

          We provide all the information about MCP servers via our MCP API.

          curl -X GET 'https://glama.ai/api/mcp/v1/servers/sjquant/llm-bridge-mcp'

          If you have feedback or need assistance with the MCP directory API, please join our Discord server