Skip to main content
Glama
JamesANZ

Cross-LLM MCP Server

🤖 Cross-LLM MCP Server

Доступ к нескольким API LLM из одного места. Вызывайте ChatGPT, Claude, DeepSeek, Gemini, Grok, Kimi, Perplexity, Mistral и Hugging Face Inference Router с интеллектуальным выбором моделей, настройками предпочтений и логированием промптов.

Сервер MCP (Model Context Protocol), предоставляющий унифицированный доступ к нескольким API больших языковых моделей для сред разработки ИИ, таких как Cursor и Claude Desktop.

Trust Score

Зачем использовать Cross-LLM MCP?

  • 🌐 9 провайдеров LLM – ChatGPT, Claude, DeepSeek, Gemini, Grok, Kimi, Perplexity, Mistral, Hugging Face

  • 🎯 Умный выбор модели – Предпочтения на основе тегов (программирование, бизнес, рассуждения, математика, творчество, общие задачи)

  • 📊 Логирование промптов – Отслеживание всех промптов с историей, статистикой и аналитикой

  • 💰 Оптимизация затрат – Выбор флагманских или более дешевых моделей в зависимости от предпочтений

  • Простая настройка – Установка в один клик в Cursor или простая ручная настройка

  • 🔄 Вызов всех LLM – Получение ответов от всех провайдеров одновременно

Related MCP server: URL Fetch MCP

Быстрый старт

Готовы получить доступ к нескольким LLM? Установите за считанные секунды:

Установка в Cursor (рекомендуется):

🔗 Установить в Cursor

Или установите вручную:

npm install -g cross-llm-mcp
# Or from source:
git clone https://github.com/JamesANZ/cross-llm-mcp.git
cd cross-llm-mcp && npm install && npm run build

Функции

🤖 Инструменты для отдельных LLM

  • call-chatgpt – API ChatGPT от OpenAI

  • call-claude – API Claude от Anthropic

  • call-deepseek – API DeepSeek

  • call-gemini – API Gemini от Google

  • call-grok – API Grok от xAI

  • call-kimi – API Kimi от Moonshot AI

  • call-perplexity – API Perplexity AI

  • call-mistral – API Mistral AI

  • call-huggingface – Hugging Face Inference Router (модели Hub, совместимые с OpenAI)

🔄 Комбинированные инструменты

  • call-all-llms – Вызов всех LLM с одним и тем же промптом

  • call-llm – Вызов конкретного провайдера по имени

⚙️ Предпочтения и выбор модели

  • get-user-preferences – Получение текущих предпочтений

  • set-user-preferences – Установка модели по умолчанию, предпочтений по стоимости и предпочтений на основе тегов

  • get-models-by-tag – Поиск моделей по тегам (программирование, бизнес, рассуждения, математика, творчество, общие задачи)

📝 Логирование промптов

  • get-prompt-history – Просмотр истории промптов с фильтрами

  • get-prompt-stats – Получение статистики по логам промптов

  • delete-prompt-entries – Удаление записей логов по критериям

  • clear-prompt-history – Очистка всех логов промптов

Установка

Cursor (в один клик)

Нажмите на ссылку установки выше или используйте:

cursor://anysphere.cursor-deeplink/mcp/install?name=cross-llm-mcp&config=eyJjcm9zcy1sbG0tbWNwIjp7ImNvbW1hbmQiOiJucHgiLCJhcmdzIjpbIi15IiwiY3Jvc3MtbGxtLW1jcCJdfX0=

После установки добавьте свои API-ключи в настройках Cursor (см. раздел «Конфигурация» ниже).

Ручная установка

Требования: Node.js 18+ и npm

# Clone and build
git clone https://github.com/JamesANZ/cross-llm-mcp.git
cd cross-llm-mcp
npm install
npm run build

Claude Desktop

Добавьте в claude_desktop_config.json:

macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
Windows: %APPDATA%\Claude\claude_desktop_config.json

{
  "mcpServers": {
    "cross-llm-mcp": {
      "command": "node",
      "args": ["/absolute/path/to/cross-llm-mcp/build/index.js"],
      "env": {
        "OPENAI_API_KEY": "your_openai_api_key_here",
        "ANTHROPIC_API_KEY": "your_anthropic_api_key_here",
        "DEEPSEEK_API_KEY": "your_deepseek_api_key_here",
        "GEMINI_API_KEY": "your_gemini_api_key_here",
        "XAI_API_KEY": "your_grok_api_key_here",
        "KIMI_API_KEY": "your_kimi_api_key_here",
        "PERPLEXITY_API_KEY": "your_perplexity_api_key_here",
        "MISTRAL_API_KEY": "your_mistral_api_key_here",
        "HF_TOKEN": "your_huggingface_token_here"
      }
    }
  }
}

Перезапустите Claude Desktop после настройки.

Конфигурация

API-ключи

Установите переменные окружения для провайдеров LLM, которые вы хотите использовать:

export OPENAI_API_KEY="your_openai_api_key"
export ANTHROPIC_API_KEY="your_anthropic_api_key"
export DEEPSEEK_API_KEY="your_deepseek_api_key"
export GEMINI_API_KEY="your_gemini_api_key"
export XAI_API_KEY="your_grok_api_key"
export KIMI_API_KEY="your_kimi_api_key"
export PERPLEXITY_API_KEY="your_perplexity_api_key"
export MISTRAL_API_KEY="your_mistral_api_key"
export HF_TOKEN="your_huggingface_token"
# Or: HUGGINGFACE_API_KEY (same as HF_TOKEN)
# Optional: DEFAULT_HUGGINGFACE_MODEL, HUGGINGFACE_INFERENCE_BASE_URL (default https://router.huggingface.co/v1)

Получение API-ключей

Запуск моделей Hub локально (вне этого MCP)

Этот сервер вызывает хостинговый Inference Router от Hugging Face; он не скачивает веса и не запускает PyTorch/GGUF внутри Node. Чтобы запускать модели на своем компьютере, используйте такие инструменты, как Ollama, llama.cpp, Text Generation Inference или Hugging Face Inference Endpoints, а затем направьте другие клиенты на эти сервисы, если они предоставляют API.

Примеры использования

Вызов ChatGPT

Получение ответа от OpenAI:

{
  "tool": "call-chatgpt",
  "arguments": {
    "prompt": "Explain quantum computing in simple terms",
    "temperature": 0.7,
    "max_tokens": 500
  }
}

Вызов Hugging Face

Получение ответа от модели Hub через Inference Router (model — это идентификатор репозитория Hub, например Qwen/Qwen2.5-7B-Instruct):

{
  "tool": "call-huggingface",
  "arguments": {
    "prompt": "Reply with exactly: ok",
    "model": "Qwen/Qwen2.5-7B-Instruct",
    "temperature": 0.3,
    "max_tokens": 32
  }
}

Вызов всех LLM

Получение ответов от всех провайдеров:

{
  "tool": "call-all-llms",
  "arguments": {
    "prompt": "Write a short poem about AI",
    "temperature": 0.8
  }
}

Установка предпочтений на основе тегов

Автоматическое использование лучшей модели для каждого типа задачи:

{
  "tool": "set-user-preferences",
  "arguments": {
    "defaultModel": "gpt-4o",
    "costPreference": "cheaper",
    "tagPreferences": {
      "coding": "deepseek-r1",
      "general": "gpt-4o",
      "business": "claude-3.5-sonnet-20241022",
      "reasoning": "deepseek-r1",
      "math": "deepseek-r1",
      "creative": "gpt-4o"
    }
  }
}

Получение истории промптов

Просмотр ваших логов промптов:

{
  "tool": "get-prompt-history",
  "arguments": {
    "provider": "chatgpt",
    "limit": 10
  }
}

Теги моделей

Модели помечены в соответствии с их сильными сторонами:

  • coding: deepseek-r1, deepseek-coder, gpt-4o, claude-3.5-sonnet-20241022

  • business: claude-3-opus-20240229, gpt-4o, gemini-1.5-pro

  • reasoning: deepseek-r1, o1-preview, claude-3.5-sonnet-20241022

  • math: deepseek-r1, o1-preview, o1-mini

  • creative: gpt-4o, claude-3-opus-20240229, gemini-1.5-pro

  • general: gpt-4o-mini, claude-3-haiku-20240307, gemini-1.5-flash

Варианты использования

  • Анализ с нескольких точек зрения – Получение различных взглядов от нескольких LLM

  • Сравнение моделей – Сравнение ответов для понимания сильных и слабых сторон

  • Оптимизация затрат – Выбор наиболее экономически эффективной модели для каждой задачи

  • Контроль качества – Перекрестная проверка ответов от нескольких моделей

  • Интеллектуальный выбор – Автоматическое использование лучшей модели для программирования, бизнеса, рассуждений и т.д.

  • Аналитика промптов – Отслеживание использования, затрат и паттернов с помощью автоматического логирования

Технические детали

Создано на: Node.js, TypeScript, MCP SDK
Зависимости: @modelcontextprotocol/sdk, superagent, zod
Платформы: macOS, Windows, Linux

Хранилище предпочтений:

  • Unix/macOS: ~/.cross-llm-mcp/preferences.json

  • Windows: %APPDATA%/cross-llm-mcp/preferences.json

Хранилище логов промптов:

  • Unix/macOS: ~/.cross-llm-mcp/prompts.json

  • Windows: %APPDATA%/cross-llm-mcp/prompts.json

Участие в разработке

Если этот проект помог вам, пожалуйста, поставьте звезду на GitHub!

Приветствуется любой вклад! Пожалуйста, откройте issue или отправьте pull request.

Лицензия

Лицензия MIT – подробности см. в LICENSE.md.

Поддержка

Если вы находите этот проект полезным, рассмотрите возможность его поддержки:

⚡ Lightning Network

lnbc1pjhhsqepp5mjgwnvg0z53shm22hfe9us289lnaqkwv8rn2s0rtekg5vvj56xnqdqqcqzzsxqyz5vqsp5gu6vh9hyp94c7t3tkpqrp2r059t4vrw7ps78a4n0a2u52678c7yq9qyyssq7zcferywka50wcy75skjfrdrk930cuyx24rg55cwfuzxs49rc9c53mpz6zug5y2544pt8y9jflnq0ltlha26ed846jh0y7n4gm8jd3qqaautqa

₿ Bitcoin: bc1ptzvr93pn959xq4et6sqzpfnkk2args22ewv5u2th4ps7hshfaqrshe0xtp

Ξ Ethereum/EVM: 0x42ea529282DDE0AA87B42d9E83316eb23FE62c3f

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/JamesANZ/cross-llm-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server