Skip to main content
Glama

Ask LLM

CI GitHub Release License: MIT

Пакет

Тип

Версия

Загрузки

ask-gemini-mcp

MCP-сервер

npm

downloads

ask-codex-mcp

MCP-сервер

npm

downloads

ask-ollama-mcp

MCP-сервер

npm

downloads

ask-llm-mcp

MCP-сервер

npm

downloads

@ask-llm/plugin

Плагин Claude Code

GitHub

/plugin install

MCP-серверы + плагин Claude Code для взаимодействия ИИ с ИИ

MCP-серверы, которые связывают ваш ИИ-клиент с несколькими провайдерами LLM для взаимодействия ИИ с ИИ. Работает с Claude Code, Claude Desktop, Cursor, Warp, Copilot и более чем 40 другими MCP-клиентами. Используйте контекст Gemini (более 1 млн токенов), GPT-5.4 от Codex или локальные модели Ollama — всё через стандартный MCP.

Зачем?

  • Получить второе мнение — попросите другой ИИ проверить ваш подход к программированию перед коммитом

  • Обсудить планы — отправляйте архитектурные предложения для критики и альтернативных предложений

  • Проверить изменения — пусть несколько ИИ проанализируют diff-файлы, чтобы найти проблемы, которые мог пропустить ваш основной ИИ

  • Огромный контекст — Gemini читает целые кодовые базы (более 1 млн токенов), которые переполнили бы другие модели

  • Локально и конфиденциально — используйте Ollama для проверок, при которых данные не покидают ваш компьютер

Быстрый старт

Claude Code

# All-in-one — auto-detects installed providers
claude mcp add --scope user ask-llm -- npx -y ask-llm-mcp
claude mcp add --scope user gemini -- npx -y ask-gemini-mcp
claude mcp add --scope user codex -- npx -y ask-codex-mcp
claude mcp add --scope user ollama -- npx -y ask-ollama-mcp

Claude Desktop

Добавьте в claude_desktop_config.json:

{
  "mcpServers": {
    "ask-llm": {
      "command": "npx",
      "args": ["-y", "ask-llm-mcp"]
    }
  }
}
{
  "mcpServers": {
    "gemini": {
      "command": "npx",
      "args": ["-y", "ask-gemini-mcp"]
    },
    "codex": {
      "command": "npx",
      "args": ["-y", "ask-codex-mcp"]
    },
    "ollama": {
      "command": "npx",
      "args": ["-y", "ask-ollama-mcp"]
    }
  }
}

Cursor (.cursor/mcp.json):

{
  "mcpServers": {
    "ask-llm": { "command": "npx", "args": ["-y", "ask-llm-mcp"] }
  }
}

Codex CLI (~/.codex/config.toml):

[mcp_servers.ask-llm]
command = "npx"
args = ["-y", "ask-llm-mcp"]

Любой MCP-клиент (транспорт STDIO):

{ "command": "npx", "args": ["-y", "ask-llm-mcp"] }

Замените ask-llm-mcp на ask-gemini-mcp, ask-codex-mcp или ask-ollama-mcp для одного провайдера.

Плагин Claude Code

Плагин Ask LLM добавляет проверку кода от нескольких провайдеров, мозговой штурм и автоматизированные хуки прямо в Claude Code:

/plugin marketplace add Lykhoyda/ask-llm
/plugin install ask-llm@ask-llm-plugins

Что вы получаете

Функция

Описание

/multi-review

Параллельная проверка Gemini + Codex с 4-фазным конвейером валидации и выделением консенсуса

/gemini-review

Проверка только через Gemini с фильтрацией достоверности

/codex-review

Проверка только через Codex с фильтрацией достоверности

/ollama-review

Локальная проверка — данные не покидают ваш компьютер

/brainstorm

Мозговой штурм с несколькими LLM: Claude Opus исследует тему на основе реальных файлов параллельно с внешними провайдерами (Gemini/Codex/Ollama), затем синтезирует все результаты, отдавая приоритет проверенным данным

/compare

Сравнение необработанных ответов от нескольких провайдеров бок о бок, без синтеза — для случаев, когда вы хотите увидеть, как каждый провайдер формулирует один и тот же ответ

Pre-commit hook

Проверяет подготовленные изменения перед git commit, предупреждает о критических проблемах

Агенты проверки используют 4-фазный конвейер, вдохновленный плагином проверки кода от Anthropic: сбор контекста, построение промпта с явным исключением ложноположительных результатов, синтез и проверка каждого найденного результата на уровне исходного кода.

Подробности см. в документации плагина.

Предварительные требования

  • Node.js v20.0.0 или выше (LTS)

  • Хотя бы один провайдер:

    • Gemini CLInpm install -g @google/gemini-cli && gemini login

    • Codex CLI — установлен и аутентифицирован

    • Ollama — запущен локально с загруженной моделью (ollama pull qwen2.5-coder:7b)

Инструменты MCP

Инструмент

Пакет

Цель

ask-gemini

ask-gemini-mcp

Отправка промптов в Gemini CLI с синтаксисом файлов @. Контекст 1 млн+ токенов. Потоковый вывод в реальном времени через stream-json

ask-gemini-edit

ask-gemini-mcp

Получение структурированных блоков редактирования кода OLD/NEW от Gemini

fetch-chunk

ask-gemini-mcp

Извлечение фрагментов из кэшированных больших ответов

ask-codex

ask-codex-mcp

Отправка промптов в Codex CLI. GPT-5.4 с резервным вариантом mini. Возобновление сессии через sessionId

ask-ollama

ask-ollama-mcp

Отправка промптов в локальный Ollama. Полная конфиденциальность, нулевая стоимость. Повтор диалога на стороне сервера через sessionId

ask-llm

ask-llm-mcp

Единый оркестратор — выбор провайдера для каждого вызова. Распространение на всех установленных провайдеров

multi-llm

ask-llm-mcp

Отправка одного и того же промпта нескольким провайдерам параллельно; возвращает ответы каждого провайдера + использование за один вызов

get-usage-stats

все

Итоговые токены за сессию, количество переключений на резервные модели, разбивка по провайдеру/модели — всё в памяти, без сохранения

diagnose

ask-llm-mcp

Самодиагностика: версия Node, разрешение PATH, наличие CLI провайдеров + версии. Только чтение

ping

все

Тест соединения — проверка настройки MCP

Все инструменты ask-* принимают необязательный параметр sessionId для многоходовых диалогов и теперь возвращают структурированный AskResponse (провайдер, ответ, модель, sessionId, использование) через outputSchema MCP вместе с текстом, читаемым человеком. Оркестратор (ask-llm-mcp) также предоставляет usage://current-session как ресурс MCP для JSON-снимков в реальном времени.

Примеры использования

ask gemini to review the changes in @src/auth.ts for security issues
ask codex to suggest a better algorithm for @src/sort.ts
ask ollama to explain @src/config.ts (runs locally, no data sent anywhere)
use gemini to summarize @. the current directory
use multi-llm to compare what gemini and codex think about this approach

Подкоманды CLI

Бинарный файл оркестратора (ask-llm-mcp) поддерживает два режима CLI наряду с сервером MCP по умолчанию:

# Interactive multi-provider REPL — switch providers, persist sessions, see usage live
npx ask-llm-mcp repl

# Diagnose your setup — Node version, PATH, provider CLI versions, env vars
npx ask-llm-mcp doctor          # human-readable
npx ask-llm-mcp doctor --json   # machine-readable, exit 1 on error

REPL поддерживает сессии для каждого провайдера (/provider gemini, /provider codex, /new, /sessions, /usage) и наследует всё поведение исполнителя (резервное копирование квот, вывод stream-json для Gemini, возобновление сессии).

Модели

Провайдер

По умолчанию

Резерв

Gemini

gemini-3.1-pro-preview

gemini-3-flash-preview (при исчерпании квоты)

Codex

gpt-5.4

gpt-5.4-mini (при исчерпании квоты)

Ollama

qwen2.5-coder:7b

qwen2.5-coder:1.5b (если не найдена)

Все провайдеры автоматически переключаются на более легкую модель при ошибках.

Документация

Участие в разработке

Вклад приветствуется! См. открытые задачи для работы.

Лицензия

Лицензия MIT. Подробности см. в LICENSE.

Отказ от ответственности: Это неофициальный сторонний инструмент, который не связан, не одобрен и не спонсируется Google или OpenAI.

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lykhoyda/ask-gemini-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server