Cross-LLM MCP Server
🤖 Servidor MCP Cross-LLM
Accede a múltiples APIs de LLM desde un solo lugar. Llama a ChatGPT, Claude, DeepSeek, Gemini, Grok, Kimi, Perplexity, Mistral y al enrutador de inferencia de Hugging Face con selección inteligente de modelos, preferencias y registro de prompts.
Un servidor MCP (Protocolo de Contexto de Modelo) que proporciona acceso unificado a múltiples APIs de Modelos de Lenguaje Extensos para entornos de programación con IA como Cursor y Claude Desktop.
¿Por qué usar Cross-LLM MCP?
🌐 9 Proveedores de LLM – ChatGPT, Claude, DeepSeek, Gemini, Grok, Kimi, Perplexity, Mistral, Hugging Face
🎯 Selección Inteligente de Modelos – Preferencias basadas en etiquetas (programación, negocios, razonamiento, matemáticas, creativo, general)
📊 Registro de Prompts – Rastrea todos los prompts con historial, estadísticas y análisis
💰 Optimización de Costes – Elige modelos insignia o más económicos según tus preferencias
⚡ Configuración Fácil – Instalación con un clic en Cursor o configuración manual sencilla
🔄 Llama a todos los LLMs – Obtén respuestas de todos los proveedores simultáneamente
Related MCP server: URL Fetch MCP
Inicio Rápido
¿Listo para acceder a múltiples LLMs? Instálalo en segundos:
Instalar en Cursor (Recomendado):
O instálalo manualmente:
npm install -g cross-llm-mcp
# Or from source:
git clone https://github.com/JamesANZ/cross-llm-mcp.git
cd cross-llm-mcp && npm install && npm run buildCaracterísticas
🤖 Herramientas Individuales de LLM
call-chatgpt– API de ChatGPT de OpenAIcall-claude– API de Claude de Anthropiccall-deepseek– API de DeepSeekcall-gemini– API de Gemini de Googlecall-grok– API de Grok de xAIcall-kimi– API de Kimi de Moonshot AIcall-perplexity– API de Perplexity AIcall-mistral– API de Mistral AIcall-huggingface– Enrutador de Inferencia de Hugging Face (modelos del Hub compatibles con OpenAI)
🔄 Herramientas Combinadas
call-all-llms– Llama a todos los LLMs con el mismo promptcall-llm– Llama a un proveedor específico por su nombre
⚙️ Preferencias y Selección de Modelos
get-user-preferences– Obtén las preferencias actualesset-user-preferences– Establece el modelo predeterminado, preferencia de coste y preferencias basadas en etiquetasget-models-by-tag– Encuentra modelos por etiqueta (programación, negocios, razonamiento, matemáticas, creativo, general)
📝 Registro de Prompts
get-prompt-history– Visualiza el historial de prompts con filtrosget-prompt-stats– Obtén estadísticas sobre los registros de promptsdelete-prompt-entries– Elimina entradas de registro según criteriosclear-prompt-history– Borra todos los registros de prompts
Instalación
Cursor (Un Clic)
Haz clic en el enlace de instalación de arriba o usa:
cursor://anysphere.cursor-deeplink/mcp/install?name=cross-llm-mcp&config=eyJjcm9zcy1sbG0tbWNwIjp7ImNvbW1hbmQiOiJucHgiLCJhcmdzIjpbIi15IiwiY3Jvc3MtbGxtLW1jcCJdfX0=Después de la instalación, añade tus claves de API en la configuración de Cursor (consulta la Configuración a continuación).
Instalación Manual
Requisitos: Node.js 18+ y npm
# Clone and build
git clone https://github.com/JamesANZ/cross-llm-mcp.git
cd cross-llm-mcp
npm install
npm run buildClaude Desktop
Añádelo a claude_desktop_config.json:
macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
Windows: %APPDATA%\Claude\claude_desktop_config.json
{
"mcpServers": {
"cross-llm-mcp": {
"command": "node",
"args": ["/absolute/path/to/cross-llm-mcp/build/index.js"],
"env": {
"OPENAI_API_KEY": "your_openai_api_key_here",
"ANTHROPIC_API_KEY": "your_anthropic_api_key_here",
"DEEPSEEK_API_KEY": "your_deepseek_api_key_here",
"GEMINI_API_KEY": "your_gemini_api_key_here",
"XAI_API_KEY": "your_grok_api_key_here",
"KIMI_API_KEY": "your_kimi_api_key_here",
"PERPLEXITY_API_KEY": "your_perplexity_api_key_here",
"MISTRAL_API_KEY": "your_mistral_api_key_here",
"HF_TOKEN": "your_huggingface_token_here"
}
}
}
}Reinicia Claude Desktop después de la configuración.
Configuración
Claves de API
Establece variables de entorno para los proveedores de LLM que desees utilizar:
export OPENAI_API_KEY="your_openai_api_key"
export ANTHROPIC_API_KEY="your_anthropic_api_key"
export DEEPSEEK_API_KEY="your_deepseek_api_key"
export GEMINI_API_KEY="your_gemini_api_key"
export XAI_API_KEY="your_grok_api_key"
export KIMI_API_KEY="your_kimi_api_key"
export PERPLEXITY_API_KEY="your_perplexity_api_key"
export MISTRAL_API_KEY="your_mistral_api_key"
export HF_TOKEN="your_huggingface_token"
# Or: HUGGINGFACE_API_KEY (same as HF_TOKEN)
# Optional: DEFAULT_HUGGINGFACE_MODEL, HUGGINGFACE_INFERENCE_BASE_URL (default https://router.huggingface.co/v1)Obtención de Claves de API
Anthropic: https://console.anthropic.com/
DeepSeek: https://platform.deepseek.com/
Google Gemini: https://makersuite.google.com/app/apikey
xAI Grok: https://console.x.ai/
Moonshot AI: https://platform.moonshot.ai/
Perplexity: https://www.perplexity.ai/hub
Mistral: https://console.mistral.ai/
Hugging Face: Crea un token de grano fino con acceso a Inference (serverless / Inference Providers) en https://huggingface.co/settings/tokens. Consulta Chat Completion para ver los modelos compatibles.
Ejecución de modelos del Hub localmente (fuera de este MCP)
Este servidor llama al enrutador de inferencia alojado de Hugging Face; no descarga pesos ni ejecuta PyTorch/GGUF dentro de Node. Para ejecutar modelos en tu máquina, utiliza herramientas como Ollama, llama.cpp, Text Generation Inference o Inference Endpoints de Hugging Face, y luego apunta otros clientes a esos servicios si exponen una API.
Ejemplos de Uso
Llamar a ChatGPT
Obtén una respuesta de OpenAI:
{
"tool": "call-chatgpt",
"arguments": {
"prompt": "Explain quantum computing in simple terms",
"temperature": 0.7,
"max_tokens": 500
}
}Llamar a Hugging Face
Obtén una respuesta de un modelo del Hub a través del enrutador de inferencia (model es el ID del repositorio del Hub, p. ej., Qwen/Qwen2.5-7B-Instruct):
{
"tool": "call-huggingface",
"arguments": {
"prompt": "Reply with exactly: ok",
"model": "Qwen/Qwen2.5-7B-Instruct",
"temperature": 0.3,
"max_tokens": 32
}
}Llamar a todos los LLMs
Obtén respuestas de todos los proveedores:
{
"tool": "call-all-llms",
"arguments": {
"prompt": "Write a short poem about AI",
"temperature": 0.8
}
}Establecer Preferencias Basadas en Etiquetas
Utiliza automáticamente el mejor modelo para cada tipo de tarea:
{
"tool": "set-user-preferences",
"arguments": {
"defaultModel": "gpt-4o",
"costPreference": "cheaper",
"tagPreferences": {
"coding": "deepseek-r1",
"general": "gpt-4o",
"business": "claude-3.5-sonnet-20241022",
"reasoning": "deepseek-r1",
"math": "deepseek-r1",
"creative": "gpt-4o"
}
}
}Obtener Historial de Prompts
Visualiza tus registros de prompts:
{
"tool": "get-prompt-history",
"arguments": {
"provider": "chatgpt",
"limit": 10
}
}Etiquetas de Modelos
Los modelos están etiquetados según sus fortalezas:
coding:
deepseek-r1,deepseek-coder,gpt-4o,claude-3.5-sonnet-20241022business:
claude-3-opus-20240229,gpt-4o,gemini-1.5-proreasoning:
deepseek-r1,o1-preview,claude-3.5-sonnet-20241022math:
deepseek-r1,o1-preview,o1-minicreative:
gpt-4o,claude-3-opus-20240229,gemini-1.5-progeneral:
gpt-4o-mini,claude-3-haiku-20240307,gemini-1.5-flash
Casos de Uso
Análisis Multi-Perspectiva – Obtén diferentes perspectivas de múltiples LLMs
Comparación de Modelos – Compara respuestas para entender fortalezas y debilidades
Optimización de Costes – Elige el modelo más rentable para cada tarea
Aseguramiento de Calidad – Referencia cruzada de respuestas de múltiples modelos
Selección Inteligente – Utiliza automáticamente el mejor modelo para programación, negocios, razonamiento, etc.
Análisis de Prompts – Rastrea el uso, costes y patrones con registro automático
Detalles Técnicos
Construido con: Node.js, TypeScript, MCP SDK
Dependencias: @modelcontextprotocol/sdk, superagent, zod
Plataformas: macOS, Windows, Linux
Almacenamiento de Preferencias:
Unix/macOS:
~/.cross-llm-mcp/preferences.jsonWindows:
%APPDATA%/cross-llm-mcp/preferences.json
Almacenamiento de Registro de Prompts:
Unix/macOS:
~/.cross-llm-mcp/prompts.jsonWindows:
%APPDATA%/cross-llm-mcp/prompts.json
Contribución
⭐ Si este proyecto te ayuda, ¡por favor dale una estrella en GitHub! ⭐
¡Las contribuciones son bienvenidas! Por favor, abre un issue o envía un pull request.
Licencia
Licencia MIT – consulta LICENSE.md para más detalles.
Soporte
Si encuentras útil este proyecto, considera apoyarlo:
⚡ Lightning Network
lnbc1pjhhsqepp5mjgwnvg0z53shm22hfe9us289lnaqkwv8rn2s0rtekg5vvj56xnqdqqcqzzsxqyz5vqsp5gu6vh9hyp94c7t3tkpqrp2r059t4vrw7ps78a4n0a2u52678c7yq9qyyssq7zcferywka50wcy75skjfrdrk930cuyx24rg55cwfuzxs49rc9c53mpz6zug5y2544pt8y9jflnq0ltlha26ed846jh0y7n4gm8jd3qqaautqa₿ Bitcoin: bc1ptzvr93pn959xq4et6sqzpfnkk2args22ewv5u2th4ps7hshfaqrshe0xtp
Ξ Ethereum/EVM: 0x42ea529282DDE0AA87B42d9E83316eb23FE62c3f
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/JamesANZ/cross-llm-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server