Cross-LLM MCP Server
🤖 Cross-LLM MCP Server
Доступ к нескольким API LLM из одного места. Вызывайте ChatGPT, Claude, DeepSeek, Gemini, Grok, Kimi, Perplexity, Mistral и Hugging Face Inference Router с интеллектуальным выбором моделей, настройками предпочтений и логированием промптов.
Сервер MCP (Model Context Protocol), предоставляющий унифицированный доступ к нескольким API больших языковых моделей для сред разработки ИИ, таких как Cursor и Claude Desktop.
Зачем использовать Cross-LLM MCP?
🌐 9 провайдеров LLM – ChatGPT, Claude, DeepSeek, Gemini, Grok, Kimi, Perplexity, Mistral, Hugging Face
🎯 Умный выбор модели – Предпочтения на основе тегов (программирование, бизнес, рассуждения, математика, творчество, общие задачи)
📊 Логирование промптов – Отслеживание всех промптов с историей, статистикой и аналитикой
💰 Оптимизация затрат – Выбор флагманских или более дешевых моделей в зависимости от предпочтений
⚡ Простая настройка – Установка в один клик в Cursor или простая ручная настройка
🔄 Вызов всех LLM – Получение ответов от всех провайдеров одновременно
Related MCP server: URL Fetch MCP
Быстрый старт
Готовы получить доступ к нескольким LLM? Установите за считанные секунды:
Установка в Cursor (рекомендуется):
Или установите вручную:
npm install -g cross-llm-mcp
# Or from source:
git clone https://github.com/JamesANZ/cross-llm-mcp.git
cd cross-llm-mcp && npm install && npm run buildФункции
🤖 Инструменты для отдельных LLM
call-chatgpt– API ChatGPT от OpenAIcall-claude– API Claude от Anthropiccall-deepseek– API DeepSeekcall-gemini– API Gemini от Googlecall-grok– API Grok от xAIcall-kimi– API Kimi от Moonshot AIcall-perplexity– API Perplexity AIcall-mistral– API Mistral AIcall-huggingface– Hugging Face Inference Router (модели Hub, совместимые с OpenAI)
🔄 Комбинированные инструменты
call-all-llms– Вызов всех LLM с одним и тем же промптомcall-llm– Вызов конкретного провайдера по имени
⚙️ Предпочтения и выбор модели
get-user-preferences– Получение текущих предпочтенийset-user-preferences– Установка модели по умолчанию, предпочтений по стоимости и предпочтений на основе теговget-models-by-tag– Поиск моделей по тегам (программирование, бизнес, рассуждения, математика, творчество, общие задачи)
📝 Логирование промптов
get-prompt-history– Просмотр истории промптов с фильтрамиget-prompt-stats– Получение статистики по логам промптовdelete-prompt-entries– Удаление записей логов по критериямclear-prompt-history– Очистка всех логов промптов
Установка
Cursor (в один клик)
Нажмите на ссылку установки выше или используйте:
cursor://anysphere.cursor-deeplink/mcp/install?name=cross-llm-mcp&config=eyJjcm9zcy1sbG0tbWNwIjp7ImNvbW1hbmQiOiJucHgiLCJhcmdzIjpbIi15IiwiY3Jvc3MtbGxtLW1jcCJdfX0=После установки добавьте свои API-ключи в настройках Cursor (см. раздел «Конфигурация» ниже).
Ручная установка
Требования: Node.js 18+ и npm
# Clone and build
git clone https://github.com/JamesANZ/cross-llm-mcp.git
cd cross-llm-mcp
npm install
npm run buildClaude Desktop
Добавьте в claude_desktop_config.json:
macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
Windows: %APPDATA%\Claude\claude_desktop_config.json
{
"mcpServers": {
"cross-llm-mcp": {
"command": "node",
"args": ["/absolute/path/to/cross-llm-mcp/build/index.js"],
"env": {
"OPENAI_API_KEY": "your_openai_api_key_here",
"ANTHROPIC_API_KEY": "your_anthropic_api_key_here",
"DEEPSEEK_API_KEY": "your_deepseek_api_key_here",
"GEMINI_API_KEY": "your_gemini_api_key_here",
"XAI_API_KEY": "your_grok_api_key_here",
"KIMI_API_KEY": "your_kimi_api_key_here",
"PERPLEXITY_API_KEY": "your_perplexity_api_key_here",
"MISTRAL_API_KEY": "your_mistral_api_key_here",
"HF_TOKEN": "your_huggingface_token_here"
}
}
}
}Перезапустите Claude Desktop после настройки.
Конфигурация
API-ключи
Установите переменные окружения для провайдеров LLM, которые вы хотите использовать:
export OPENAI_API_KEY="your_openai_api_key"
export ANTHROPIC_API_KEY="your_anthropic_api_key"
export DEEPSEEK_API_KEY="your_deepseek_api_key"
export GEMINI_API_KEY="your_gemini_api_key"
export XAI_API_KEY="your_grok_api_key"
export KIMI_API_KEY="your_kimi_api_key"
export PERPLEXITY_API_KEY="your_perplexity_api_key"
export MISTRAL_API_KEY="your_mistral_api_key"
export HF_TOKEN="your_huggingface_token"
# Or: HUGGINGFACE_API_KEY (same as HF_TOKEN)
# Optional: DEFAULT_HUGGINGFACE_MODEL, HUGGINGFACE_INFERENCE_BASE_URL (default https://router.huggingface.co/v1)Получение API-ключей
Anthropic: https://console.anthropic.com/
DeepSeek: https://platform.deepseek.com/
Google Gemini: https://makersuite.google.com/app/apikey
xAI Grok: https://console.x.ai/
Moonshot AI: https://platform.moonshot.ai/
Perplexity: https://www.perplexity.ai/hub
Mistral: https://console.mistral.ai/
Hugging Face: Создайте токен с детальными правами доступа Inference (serverless / Inference Providers) на странице https://huggingface.co/settings/tokens. См. Chat Completion для списка поддерживаемых моделей.
Запуск моделей Hub локально (вне этого MCP)
Этот сервер вызывает хостинговый Inference Router от Hugging Face; он не скачивает веса и не запускает PyTorch/GGUF внутри Node. Чтобы запускать модели на своем компьютере, используйте такие инструменты, как Ollama, llama.cpp, Text Generation Inference или Hugging Face Inference Endpoints, а затем направьте другие клиенты на эти сервисы, если они предоставляют API.
Примеры использования
Вызов ChatGPT
Получение ответа от OpenAI:
{
"tool": "call-chatgpt",
"arguments": {
"prompt": "Explain quantum computing in simple terms",
"temperature": 0.7,
"max_tokens": 500
}
}Вызов Hugging Face
Получение ответа от модели Hub через Inference Router (model — это идентификатор репозитория Hub, например Qwen/Qwen2.5-7B-Instruct):
{
"tool": "call-huggingface",
"arguments": {
"prompt": "Reply with exactly: ok",
"model": "Qwen/Qwen2.5-7B-Instruct",
"temperature": 0.3,
"max_tokens": 32
}
}Вызов всех LLM
Получение ответов от всех провайдеров:
{
"tool": "call-all-llms",
"arguments": {
"prompt": "Write a short poem about AI",
"temperature": 0.8
}
}Установка предпочтений на основе тегов
Автоматическое использование лучшей модели для каждого типа задачи:
{
"tool": "set-user-preferences",
"arguments": {
"defaultModel": "gpt-4o",
"costPreference": "cheaper",
"tagPreferences": {
"coding": "deepseek-r1",
"general": "gpt-4o",
"business": "claude-3.5-sonnet-20241022",
"reasoning": "deepseek-r1",
"math": "deepseek-r1",
"creative": "gpt-4o"
}
}
}Получение истории промптов
Просмотр ваших логов промптов:
{
"tool": "get-prompt-history",
"arguments": {
"provider": "chatgpt",
"limit": 10
}
}Теги моделей
Модели помечены в соответствии с их сильными сторонами:
coding:
deepseek-r1,deepseek-coder,gpt-4o,claude-3.5-sonnet-20241022business:
claude-3-opus-20240229,gpt-4o,gemini-1.5-proreasoning:
deepseek-r1,o1-preview,claude-3.5-sonnet-20241022math:
deepseek-r1,o1-preview,o1-minicreative:
gpt-4o,claude-3-opus-20240229,gemini-1.5-progeneral:
gpt-4o-mini,claude-3-haiku-20240307,gemini-1.5-flash
Варианты использования
Анализ с нескольких точек зрения – Получение различных взглядов от нескольких LLM
Сравнение моделей – Сравнение ответов для понимания сильных и слабых сторон
Оптимизация затрат – Выбор наиболее экономически эффективной модели для каждой задачи
Контроль качества – Перекрестная проверка ответов от нескольких моделей
Интеллектуальный выбор – Автоматическое использование лучшей модели для программирования, бизнеса, рассуждений и т.д.
Аналитика промптов – Отслеживание использования, затрат и паттернов с помощью автоматического логирования
Технические детали
Создано на: Node.js, TypeScript, MCP SDK
Зависимости: @modelcontextprotocol/sdk, superagent, zod
Платформы: macOS, Windows, Linux
Хранилище предпочтений:
Unix/macOS:
~/.cross-llm-mcp/preferences.jsonWindows:
%APPDATA%/cross-llm-mcp/preferences.json
Хранилище логов промптов:
Unix/macOS:
~/.cross-llm-mcp/prompts.jsonWindows:
%APPDATA%/cross-llm-mcp/prompts.json
Участие в разработке
⭐ Если этот проект помог вам, пожалуйста, поставьте звезду на GitHub! ⭐
Приветствуется любой вклад! Пожалуйста, откройте issue или отправьте pull request.
Лицензия
Лицензия MIT – подробности см. в LICENSE.md.
Поддержка
Если вы находите этот проект полезным, рассмотрите возможность его поддержки:
⚡ Lightning Network
lnbc1pjhhsqepp5mjgwnvg0z53shm22hfe9us289lnaqkwv8rn2s0rtekg5vvj56xnqdqqcqzzsxqyz5vqsp5gu6vh9hyp94c7t3tkpqrp2r059t4vrw7ps78a4n0a2u52678c7yq9qyyssq7zcferywka50wcy75skjfrdrk930cuyx24rg55cwfuzxs49rc9c53mpz6zug5y2544pt8y9jflnq0ltlha26ed846jh0y7n4gm8jd3qqaautqa₿ Bitcoin: bc1ptzvr93pn959xq4et6sqzpfnkk2args22ewv5u2th4ps7hshfaqrshe0xtp
Ξ Ethereum/EVM: 0x42ea529282DDE0AA87B42d9E83316eb23FE62c3f
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/JamesANZ/cross-llm-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server