Integrations
LLM Puente MCP
LLM Bridge MCP permite a los agentes de IA interactuar con múltiples modelos de lenguaje extensos a través de una interfaz estandarizada. Utiliza el Protocolo de Control de Mensajes (MCP) para proporcionar un acceso fluido a diferentes proveedores de LLM, lo que facilita el cambio entre modelos o el uso de varios en la misma aplicación.
Características
- Interfaz unificada para múltiples proveedores de LLM:
- OpenAI (modelos GPT)
- Antrópico (modelos de Claude)
- Google (modelos Gemini)
- Búsqueda profunda
- ...
- Creado con Pydantic AI para seguridad y validación de tipos
- Admite parámetros personalizables como temperatura y tokens máximos.
- Proporciona seguimiento de uso y métricas.
Herramientas
El servidor implementa la siguiente herramienta:
prompt
: El mensaje de texto que se enviará al LLMmodel_name
: Modelo específico a utilizar (predeterminado: "openai:gpt-4o-mini")temperature
: controla la aleatoriedad (0,0 a 1,0)max_tokens
: Número máximo de tokens a generarsystem_prompt
: mensaje del sistema opcional para guiar el comportamiento del modelo
Instalación
Instalación mediante herrería
Para instalar llm-bridge-mcp para Claude Desktop automáticamente a través de Smithery :
Instalación manual
- Clonar el repositorio:
- Instalar uv (si aún no está instalado):
Configuración
Cree un archivo .env
en el directorio raíz con sus claves API:
Uso
Uso con Claude Desktop o Cursor
Agregue una entrada de servidor a su archivo de configuración de Claude Desktop o .cursor/mcp.json
:
Solución de problemas
Problemas comunes
1. Error "spawn uvx ENOENT"
Este error ocurre cuando el sistema no puede encontrar el ejecutable uvx
en su PATH. Para solucionarlo:
Solución: utilice la ruta completa a uvx
Encuentre la ruta completa a su ejecutable uvx:
Luego actualice la configuración de su servidor MCP para utilizar la ruta completa:
Licencia
Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.
This server cannot be installed
Permite que los agentes de IA interactúen con múltiples proveedores de LLM (OpenAI, Anthropic, Google, DeepSeek) a través de una interfaz estandarizada, lo que facilita el cambio entre modelos o el uso de múltiples modelos en la misma aplicación.