Skip to main content
Glama
sjquant
by sjquant

LLM Puente MCP

insignia de herrería

LLM Bridge MCP permite a los agentes de IA interactuar con múltiples modelos de lenguaje extensos a través de una interfaz estandarizada. Utiliza el Protocolo de Control de Mensajes (MCP) para proporcionar un acceso fluido a diferentes proveedores de LLM, lo que facilita el cambio entre modelos o el uso de varios en la misma aplicación.

Características

  • Interfaz unificada para múltiples proveedores de LLM:

    • OpenAI (modelos GPT)

    • Antrópico (modelos de Claude)

    • Google (modelos Gemini)

    • Búsqueda profunda

    • ...

  • Creado con Pydantic AI para seguridad y validación de tipos

  • Admite parámetros personalizables como temperatura y tokens máximos.

  • Proporciona seguimiento de uso y métricas.

Related MCP server: Model Context Provider (MCP) Server

Herramientas

El servidor implementa la siguiente herramienta:

run_llm(
    prompt: str,
    model_name: KnownModelName = "openai:gpt-4o-mini",
    temperature: float = 0.7,
    max_tokens: int = 8192,
    system_prompt: str = "",
) -> LLMResponse
  • prompt : El mensaje de texto que se enviará al LLM

  • model_name : Modelo específico a utilizar (predeterminado: "openai:gpt-4o-mini")

  • temperature : controla la aleatoriedad (0,0 a 1,0)

  • max_tokens : Número máximo de tokens a generar

  • system_prompt : mensaje del sistema opcional para guiar el comportamiento del modelo

Instalación

Instalación mediante herrería

Para instalar llm-bridge-mcp para Claude Desktop automáticamente a través de Smithery :

npx -y @smithery/cli install @sjquant/llm-bridge-mcp --client claude

Instalación manual

  1. Clonar el repositorio:

git clone https://github.com/yourusername/llm-bridge-mcp.git
cd llm-bridge-mcp
  1. Instalar uv (si aún no está instalado):

# On macOS
brew install uv

# On Linux
curl -LsSf https://astral.sh/uv/install.sh | sh

# On Windows
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

Configuración

Cree un archivo .env en el directorio raíz con sus claves API:

OPENAI_API_KEY=your_openai_api_key
ANTHROPIC_API_KEY=your_anthropic_api_key
GOOGLE_API_KEY=your_google_api_key
DEEPSEEK_API_KEY=your_deepseek_api_key

Uso

Uso con Claude Desktop o Cursor

Agregue una entrada de servidor a su archivo de configuración de Claude Desktop o .cursor/mcp.json :

"mcpServers": {
  "llm-bridge": {
    "command": "uvx",
    "args": [
      "llm-bridge-mcp"
    ],
    "env": {
      "OPENAI_API_KEY": "your_openai_api_key",
      "ANTHROPIC_API_KEY": "your_anthropic_api_key",
      "GOOGLE_API_KEY": "your_google_api_key",
      "DEEPSEEK_API_KEY": "your_deepseek_api_key"
    }
  }
}

Solución de problemas

Problemas comunes

1. Error "spawn uvx ENOENT"

Este error ocurre cuando el sistema no puede encontrar el ejecutable uvx en su PATH. Para solucionarlo:

Solución: utilice la ruta completa a uvx

Encuentre la ruta completa a su ejecutable uvx:

# On macOS/Linux
which uvx

# On Windows
where.exe uvx

Luego actualice la configuración de su servidor MCP para utilizar la ruta completa:

"mcpServers": {
  "llm-bridge": {
    "command": "/full/path/to/uvx",  // Replace with your actual path
    "args": [
      "llm-bridge-mcp"
    ],
    "env": {
      // ... your environment variables
    }
  }
}

Licencia

Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - confirmed to work

Tools

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/sjquant/llm-bridge-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server