LLM Puente MCP
LLM Bridge MCP permite a los agentes de IA interactuar con múltiples modelos de lenguaje extensos a través de una interfaz estandarizada. Utiliza el Protocolo de Control de Mensajes (MCP) para proporcionar un acceso fluido a diferentes proveedores de LLM, lo que facilita el cambio entre modelos o el uso de varios en la misma aplicación.
Características
- Interfaz unificada para múltiples proveedores de LLM:
- OpenAI (modelos GPT)
- Antrópico (modelos de Claude)
- Google (modelos Gemini)
- Búsqueda profunda
- ...
- Creado con Pydantic AI para seguridad y validación de tipos
- Admite parámetros personalizables como temperatura y tokens máximos.
- Proporciona seguimiento de uso y métricas.
Herramientas
El servidor implementa la siguiente herramienta:
prompt
: El mensaje de texto que se enviará al LLMmodel_name
: Modelo específico a utilizar (predeterminado: "openai")temperature
: controla la aleatoriedad (0,0 a 1,0)max_tokens
: Número máximo de tokens a generarsystem_prompt
: mensaje del sistema opcional para guiar el comportamiento del modelo
Instalación
Instalación mediante herrería
Para instalar llm-bridge-mcp para Claude Desktop automáticamente a través de Smithery :
Instalación manual
- Clonar el repositorio:
- Instalar uv (si aún no está instalado):
Configuración
Cree un archivo .env
en el directorio raíz con sus claves API:
Uso
Uso con Claude Desktop o Cursor
Agregue una entrada de servidor a su archivo de configuración de Claude Desktop o .cursor/mcp.json
:
Solución de problemas
Problemas comunes
1. Error "spawn uvx ENOENT"
Este error ocurre cuando el sistema no puede encontrar el ejecutable uvx
en su PATH. Para solucionarlo:
Solución: utilice la ruta completa a uvx
Encuentre la ruta completa a su ejecutable uvx:
Luego actualice la configuración de su servidor MCP para utilizar la ruta completa:
Licencia
Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.
This server cannot be installed
remote-capable server
The server can be hosted and run remotely because it primarily relies on remote services or has no dependency on the local environment.
Permite que los agentes de IA interactúen con múltiples proveedores de LLM (OpenAI, Anthropic, Google, DeepSeek) a través de una interfaz estandarizada, lo que facilita el cambio entre modelos o el uso de múltiples modelos en la misma aplicación.
Related MCP Servers
- AsecurityAlicenseAqualityProvides integration with OpenRouter.ai, allowing access to various AI models through a unified interface.Last updated -415428TypeScriptApache 2.0
- -securityAlicense-qualityThis server facilitates the invocation of AI models from providers like Anthropic, OpenAI, and Groq, enabling users to manage and configure large language model interactions seamlessly.Last updated -9PythonMIT License
- AsecurityFlicenseAqualityA bridge that enables seamless integration of Ollama's local LLM capabilities into MCP-powered applications, allowing users to manage and run AI models locally with full API coverage.Last updated -1033JavaScript
- -securityFlicense-qualityEnables communication and coordination between different LLM agents across multiple systems, allowing specialized agents to collaborate on tasks, share context, and coordinate work through a unified platform.Last updated -4TypeScript