LLM Puente MCP
LLM Bridge MCP permite a los agentes de IA interactuar con múltiples modelos de lenguaje extensos a través de una interfaz estandarizada. Utiliza el Protocolo de Control de Mensajes (MCP) para proporcionar un acceso fluido a diferentes proveedores de LLM, lo que facilita el cambio entre modelos o el uso de varios en la misma aplicación.
Características
Interfaz unificada para múltiples proveedores de LLM:
OpenAI (modelos GPT)
Antrópico (modelos de Claude)
Google (modelos Gemini)
Búsqueda profunda
...
Creado con Pydantic AI para seguridad y validación de tipos
Admite parámetros personalizables como temperatura y tokens máximos.
Proporciona seguimiento de uso y métricas.
Related MCP server: Model Context Provider (MCP) Server
Herramientas
El servidor implementa la siguiente herramienta:
prompt: El mensaje de texto que se enviará al LLMmodel_name: Modelo específico a utilizar (predeterminado: "openai:gpt-4o-mini")temperature: controla la aleatoriedad (0,0 a 1,0)max_tokens: Número máximo de tokens a generarsystem_prompt: mensaje del sistema opcional para guiar el comportamiento del modelo
Instalación
Instalación mediante herrería
Para instalar llm-bridge-mcp para Claude Desktop automáticamente a través de Smithery :
Instalación manual
Clonar el repositorio:
Instalar uv (si aún no está instalado):
Configuración
Cree un archivo .env en el directorio raíz con sus claves API:
Uso
Uso con Claude Desktop o Cursor
Agregue una entrada de servidor a su archivo de configuración de Claude Desktop o .cursor/mcp.json :
Solución de problemas
Problemas comunes
1. Error "spawn uvx ENOENT"
Este error ocurre cuando el sistema no puede encontrar el ejecutable uvx en su PATH. Para solucionarlo:
Solución: utilice la ruta completa a uvx
Encuentre la ruta completa a su ejecutable uvx:
Luego actualice la configuración de su servidor MCP para utilizar la ruta completa:
Licencia
Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.