Skip to main content
Glama

LLM Puente MCP

insignia de herrería

LLM Bridge MCP permite a los agentes de IA interactuar con múltiples modelos de lenguaje extensos a través de una interfaz estandarizada. Utiliza el Protocolo de Control de Mensajes (MCP) para proporcionar un acceso fluido a diferentes proveedores de LLM, lo que facilita el cambio entre modelos o el uso de varios en la misma aplicación.

Características

  • Interfaz unificada para múltiples proveedores de LLM:

    • OpenAI (modelos GPT)

    • Antrópico (modelos de Claude)

    • Google (modelos Gemini)

    • Búsqueda profunda

    • ...

  • Creado con Pydantic AI para seguridad y validación de tipos

  • Admite parámetros personalizables como temperatura y tokens máximos.

  • Proporciona seguimiento de uso y métricas.

Related MCP server: Model Context Provider (MCP) Server

Herramientas

El servidor implementa la siguiente herramienta:

run_llm( prompt: str, model_name: KnownModelName = "openai:gpt-4o-mini", temperature: float = 0.7, max_tokens: int = 8192, system_prompt: str = "", ) -> LLMResponse
  • prompt : El mensaje de texto que se enviará al LLM

  • model_name : Modelo específico a utilizar (predeterminado: "openai:gpt-4o-mini")

  • temperature : controla la aleatoriedad (0,0 a 1,0)

  • max_tokens : Número máximo de tokens a generar

  • system_prompt : mensaje del sistema opcional para guiar el comportamiento del modelo

Instalación

Instalación mediante herrería

Para instalar llm-bridge-mcp para Claude Desktop automáticamente a través de Smithery :

npx -y @smithery/cli install @sjquant/llm-bridge-mcp --client claude

Instalación manual

  1. Clonar el repositorio:

git clone https://github.com/yourusername/llm-bridge-mcp.git cd llm-bridge-mcp
  1. Instalar uv (si aún no está instalado):

# On macOS brew install uv # On Linux curl -LsSf https://astral.sh/uv/install.sh | sh # On Windows powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

Configuración

Cree un archivo .env en el directorio raíz con sus claves API:

OPENAI_API_KEY=your_openai_api_key ANTHROPIC_API_KEY=your_anthropic_api_key GOOGLE_API_KEY=your_google_api_key DEEPSEEK_API_KEY=your_deepseek_api_key

Uso

Uso con Claude Desktop o Cursor

Agregue una entrada de servidor a su archivo de configuración de Claude Desktop o .cursor/mcp.json :

"mcpServers": { "llm-bridge": { "command": "uvx", "args": [ "llm-bridge-mcp" ], "env": { "OPENAI_API_KEY": "your_openai_api_key", "ANTHROPIC_API_KEY": "your_anthropic_api_key", "GOOGLE_API_KEY": "your_google_api_key", "DEEPSEEK_API_KEY": "your_deepseek_api_key" } } }

Solución de problemas

Problemas comunes

1. Error "spawn uvx ENOENT"

Este error ocurre cuando el sistema no puede encontrar el ejecutable uvx en su PATH. Para solucionarlo:

Solución: utilice la ruta completa a uvx

Encuentre la ruta completa a su ejecutable uvx:

# On macOS/Linux which uvx # On Windows where.exe uvx

Luego actualice la configuración de su servidor MCP para utilizar la ruta completa:

"mcpServers": { "llm-bridge": { "command": "/full/path/to/uvx", // Replace with your actual path "args": [ "llm-bridge-mcp" ], "env": { // ... your environment variables } } }

Licencia

Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.

Deploy Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Tools

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/sjquant/llm-bridge-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server