LLM Puente MCP
LLM Bridge MCP permite a los agentes de IA interactuar con múltiples modelos de lenguaje extensos a través de una interfaz estandarizada. Utiliza el Protocolo de Control de Mensajes (MCP) para proporcionar un acceso fluido a diferentes proveedores de LLM, lo que facilita el cambio entre modelos o el uso de varios en la misma aplicación.
Características
Interfaz unificada para múltiples proveedores de LLM:
OpenAI (modelos GPT)
Antrópico (modelos de Claude)
Google (modelos Gemini)
Búsqueda profunda
...
Creado con Pydantic AI para seguridad y validación de tipos
Admite parámetros personalizables como temperatura y tokens máximos.
Proporciona seguimiento de uso y métricas.
Related MCP server: Model Context Provider (MCP) Server
Herramientas
El servidor implementa la siguiente herramienta:
run_llm(
prompt: str,
model_name: KnownModelName = "openai:gpt-4o-mini",
temperature: float = 0.7,
max_tokens: int = 8192,
system_prompt: str = "",
) -> LLMResponseprompt: El mensaje de texto que se enviará al LLMmodel_name: Modelo específico a utilizar (predeterminado: "openai:gpt-4o-mini")temperature: controla la aleatoriedad (0,0 a 1,0)max_tokens: Número máximo de tokens a generarsystem_prompt: mensaje del sistema opcional para guiar el comportamiento del modelo
Instalación
Instalación mediante herrería
Para instalar llm-bridge-mcp para Claude Desktop automáticamente a través de Smithery :
npx -y @smithery/cli install @sjquant/llm-bridge-mcp --client claudeInstalación manual
Clonar el repositorio:
git clone https://github.com/yourusername/llm-bridge-mcp.git
cd llm-bridge-mcpInstalar uv (si aún no está instalado):
# On macOS
brew install uv
# On Linux
curl -LsSf https://astral.sh/uv/install.sh | sh
# On Windows
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"Configuración
Cree un archivo .env en el directorio raíz con sus claves API:
OPENAI_API_KEY=your_openai_api_key
ANTHROPIC_API_KEY=your_anthropic_api_key
GOOGLE_API_KEY=your_google_api_key
DEEPSEEK_API_KEY=your_deepseek_api_keyUso
Uso con Claude Desktop o Cursor
Agregue una entrada de servidor a su archivo de configuración de Claude Desktop o .cursor/mcp.json :
"mcpServers": {
"llm-bridge": {
"command": "uvx",
"args": [
"llm-bridge-mcp"
],
"env": {
"OPENAI_API_KEY": "your_openai_api_key",
"ANTHROPIC_API_KEY": "your_anthropic_api_key",
"GOOGLE_API_KEY": "your_google_api_key",
"DEEPSEEK_API_KEY": "your_deepseek_api_key"
}
}
}Solución de problemas
Problemas comunes
1. Error "spawn uvx ENOENT"
Este error ocurre cuando el sistema no puede encontrar el ejecutable uvx en su PATH. Para solucionarlo:
Solución: utilice la ruta completa a uvx
Encuentre la ruta completa a su ejecutable uvx:
# On macOS/Linux
which uvx
# On Windows
where.exe uvxLuego actualice la configuración de su servidor MCP para utilizar la ruta completa:
"mcpServers": {
"llm-bridge": {
"command": "/full/path/to/uvx", // Replace with your actual path
"args": [
"llm-bridge-mcp"
],
"env": {
// ... your environment variables
}
}
}Licencia
Este proyecto está licenciado bajo la licencia MIT: consulte el archivo de LICENCIA para obtener más detalles.