ask-gemini-mcp
Ask LLM
Пакет | Тип | Версия | Загрузки |
MCP-сервер | |||
MCP-сервер | |||
MCP-сервер | |||
MCP-сервер | |||
Плагин Claude Code |
|
MCP-серверы + плагин Claude Code для взаимодействия ИИ с ИИ
MCP-серверы, которые связывают ваш ИИ-клиент с несколькими провайдерами LLM для взаимодействия ИИ с ИИ. Работает с Claude Code, Claude Desktop, Cursor, Warp, Copilot и более чем 40 другими MCP-клиентами. Используйте контекст Gemini (более 1 млн токенов), GPT-5.4 от Codex или локальные модели Ollama — всё через стандартный MCP.
Зачем?
Получить второе мнение — попросите другой ИИ проверить ваш подход к программированию перед коммитом
Обсудить планы — отправляйте архитектурные предложения для критики и альтернативных предложений
Проверить изменения — пусть несколько ИИ проанализируют diff-файлы, чтобы найти проблемы, которые мог пропустить ваш основной ИИ
Огромный контекст — Gemini читает целые кодовые базы (более 1 млн токенов), которые переполнили бы другие модели
Локально и конфиденциально — используйте Ollama для проверок, при которых данные не покидают ваш компьютер
Быстрый старт
Claude Code
# All-in-one — auto-detects installed providers
claude mcp add --scope user ask-llm -- npx -y ask-llm-mcpclaude mcp add --scope user gemini -- npx -y ask-gemini-mcp
claude mcp add --scope user codex -- npx -y ask-codex-mcp
claude mcp add --scope user ollama -- npx -y ask-ollama-mcpClaude Desktop
Добавьте в claude_desktop_config.json:
{
"mcpServers": {
"ask-llm": {
"command": "npx",
"args": ["-y", "ask-llm-mcp"]
}
}
}{
"mcpServers": {
"gemini": {
"command": "npx",
"args": ["-y", "ask-gemini-mcp"]
},
"codex": {
"command": "npx",
"args": ["-y", "ask-codex-mcp"]
},
"ollama": {
"command": "npx",
"args": ["-y", "ask-ollama-mcp"]
}
}
}Cursor (.cursor/mcp.json):
{
"mcpServers": {
"ask-llm": { "command": "npx", "args": ["-y", "ask-llm-mcp"] }
}
}Codex CLI (~/.codex/config.toml):
[mcp_servers.ask-llm]
command = "npx"
args = ["-y", "ask-llm-mcp"]Любой MCP-клиент (транспорт STDIO):
{ "command": "npx", "args": ["-y", "ask-llm-mcp"] }Замените ask-llm-mcp на ask-gemini-mcp, ask-codex-mcp или ask-ollama-mcp для одного провайдера.
Плагин Claude Code
Плагин Ask LLM добавляет проверку кода от нескольких провайдеров, мозговой штурм и автоматизированные хуки прямо в Claude Code:
/plugin marketplace add Lykhoyda/ask-llm
/plugin install ask-llm@ask-llm-pluginsЧто вы получаете
Функция | Описание |
| Параллельная проверка Gemini + Codex с 4-фазным конвейером валидации и выделением консенсуса |
| Проверка только через Gemini с фильтрацией достоверности |
| Проверка только через Codex с фильтрацией достоверности |
| Локальная проверка — данные не покидают ваш компьютер |
| Мозговой штурм с несколькими LLM: Claude Opus исследует тему на основе реальных файлов параллельно с внешними провайдерами (Gemini/Codex/Ollama), затем синтезирует все результаты, отдавая приоритет проверенным данным |
| Сравнение необработанных ответов от нескольких провайдеров бок о бок, без синтеза — для случаев, когда вы хотите увидеть, как каждый провайдер формулирует один и тот же ответ |
Pre-commit hook | Проверяет подготовленные изменения перед |
Агенты проверки используют 4-фазный конвейер, вдохновленный плагином проверки кода от Anthropic: сбор контекста, построение промпта с явным исключением ложноположительных результатов, синтез и проверка каждого найденного результата на уровне исходного кода.
Подробности см. в документации плагина.
Предварительные требования
Node.js v20.0.0 или выше (LTS)
Хотя бы один провайдер:
Gemini CLI —
npm install -g @google/gemini-cli && gemini loginCodex CLI — установлен и аутентифицирован
Ollama — запущен локально с загруженной моделью (
ollama pull qwen2.5-coder:7b)
Инструменты MCP
Инструмент | Пакет | Цель |
| ask-gemini-mcp | Отправка промптов в Gemini CLI с синтаксисом файлов |
| ask-gemini-mcp | Получение структурированных блоков редактирования кода OLD/NEW от Gemini |
| ask-gemini-mcp | Извлечение фрагментов из кэшированных больших ответов |
| ask-codex-mcp | Отправка промптов в Codex CLI. GPT-5.4 с резервным вариантом mini. Возобновление сессии через |
| ask-ollama-mcp | Отправка промптов в локальный Ollama. Полная конфиденциальность, нулевая стоимость. Повтор диалога на стороне сервера через |
| ask-llm-mcp | Единый оркестратор — выбор провайдера для каждого вызова. Распространение на всех установленных провайдеров |
| ask-llm-mcp | Отправка одного и того же промпта нескольким провайдерам параллельно; возвращает ответы каждого провайдера + использование за один вызов |
| все | Итоговые токены за сессию, количество переключений на резервные модели, разбивка по провайдеру/модели — всё в памяти, без сохранения |
| ask-llm-mcp | Самодиагностика: версия Node, разрешение PATH, наличие CLI провайдеров + версии. Только чтение |
| все | Тест соединения — проверка настройки MCP |
Все инструменты ask-* принимают необязательный параметр sessionId для многоходовых диалогов и теперь возвращают структурированный AskResponse (провайдер, ответ, модель, sessionId, использование) через outputSchema MCP вместе с текстом, читаемым человеком. Оркестратор (ask-llm-mcp) также предоставляет usage://current-session как ресурс MCP для JSON-снимков в реальном времени.
Примеры использования
ask gemini to review the changes in @src/auth.ts for security issues
ask codex to suggest a better algorithm for @src/sort.ts
ask ollama to explain @src/config.ts (runs locally, no data sent anywhere)
use gemini to summarize @. the current directory
use multi-llm to compare what gemini and codex think about this approachПодкоманды CLI
Бинарный файл оркестратора (ask-llm-mcp) поддерживает два режима CLI наряду с сервером MCP по умолчанию:
# Interactive multi-provider REPL — switch providers, persist sessions, see usage live
npx ask-llm-mcp repl
# Diagnose your setup — Node version, PATH, provider CLI versions, env vars
npx ask-llm-mcp doctor # human-readable
npx ask-llm-mcp doctor --json # machine-readable, exit 1 on errorREPL поддерживает сессии для каждого провайдера (/provider gemini, /provider codex, /new, /sessions, /usage) и наследует всё поведение исполнителя (резервное копирование квот, вывод stream-json для Gemini, возобновление сессии).
Модели
Провайдер | По умолчанию | Резерв |
Gemini |
|
|
Codex |
|
|
Ollama |
|
|
Все провайдеры автоматически переключаются на более легкую модель при ошибках.
Документация
Сайт документации: lykhoyda.github.io/ask-llm
Для ИИ: llms.txt | llms-full.txt
Участие в разработке
Вклад приветствуется! См. открытые задачи для работы.
Лицензия
Лицензия MIT. Подробности см. в LICENSE.
Отказ от ответственности: Это неофициальный сторонний инструмент, который не связан, не одобрен и не спонсируется Google или OpenAI.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lykhoyda/ask-gemini-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server