LLM Bridge MCP
LLM Puente MCP
LLM Bridge MCP permite a los agentes de IA interactuar con múltiples modelos de lenguaje extensos a través de una interfaz estandarizada. Utiliza el Protocolo de Control de Mensajes (MCP) para proporcionar un acceso fluido a diferentes proveedores de LLM, lo que facilita el cambio entre modelos o el uso de varios en la misma aplicación.
Características
Interfaz unificada para múltiples proveedores de LLM:
OpenAI (modelos GPT)
Antrópico (modelos de Claude)
Google (modelos Gemini)
Búsqueda profunda
...
Creado con Pydantic AI para seguridad y validación de tipos
Admite parámetros personalizables como temperatura y tokens máximos.
Proporciona seguimiento de uso y métricas.
Related MCP server: Model Context Provider (MCP) Server
Herramientas
El servidor implementa la siguiente herramienta:
run_llm(
prompt: str,
model_name: KnownModelName = "openai:gpt-4o-mini",
temperature: float = 0.7,
max_tokens: int = 8192,
system_prompt: str = "",
) -> LLMResponseprompt: El mensaje de texto que se enviará al LLMmodel_name: Modelo específico a utilizar (predeterminado: "openai:gpt-4o-mini")temperature: controla la aleatoriedad (0,0 a 1,0)max_tokens: Número máximo de tokens a generarsystem_prompt: mensaje del sistema opcional para guiar el comportamiento del modelo
Instalación
Instalación mediante herrería
Para instalar llm-bridge-mcp para Claude Desktop automáticamente a través de Smithery :
npx -y @smithery/cli install @sjquant/llm-bridge-mcp --client claudeInstalación manual
Clonar el repositorio:
git clone https://github.com/yourusername/llm-bridge-mcp.git
cd llm-bridge-mcpInstalar uv (si aún no está instalado):
# On macOS
brew install uv
# On Linux
curl -LsSf https://astral.sh/uv/install.sh | sh
# On Windows
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"Configuración
Cree un archivo .env en el directorio raíz con sus claves API:
OPENAI_API_KEY=your_openai_api_key
ANTHROPIC_API_KEY=your_anthropic_api_key
GOOGLE_API_KEY=your_google_api_key
DEEPSEEK_API_KEY=your_deepseek_api_keyUso
Uso con Claude Desktop o Cursor
Agregue una entrada de servidor a su archivo de configuración de Claude Desktop o .cursor/mcp.json :
"mcpServers": {
"llm-bridge": {
"command": "uvx",
"args": [
"llm-bridge-mcp"
],
"env": {
"OPENAI_API_KEY": "your_openai_api_key",
"ANTHROPIC_API_KEY": "your_anthropic_api_key",
"GOOGLE_API_KEY": "your_google_api_key",
"DEEPSEEK_API_KEY": "your_deepseek_api_key"
}
}
}Solución de problemas
Problemas comunes
1. Error "spawn uvx ENOENT"
Este error ocurre cuando el sistema no puede encontrar el ejecutable uvx en su PATH. Para solucionarlo:
Solución: utilice la ruta completa a uvx
Encuentre la ruta completa a su ejecutable uvx:
# On macOS/Linux
which uvx
# On Windows
where.exe uvxLuego actualice la configuración de su servidor MCP para utilizar la ruta completa:
"mcpServers": {
"llm-bridge": {
"command": "/full/path/to/uvx", // Replace with your actual path
"args": [
"llm-bridge-mcp"
],
"env": {
// ... your environment variables
}
}
}Licencia
Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Tools
Appeared in Searches
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/sjquant/llm-bridge-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server