Skip to main content
Glama

MCP-сервер Consult7

Consult7 — это сервер протокола контекста модели (MCP), который позволяет ИИ-агентам обращаться к моделям с большим контекстным окном через OpenRouter для анализа обширных коллекций файлов — целых кодовых баз, репозиториев документов или смешанного контента, которые превышают лимиты контекста текущего агента.

Почему Consult7?

Consult7 позволяет любому MCP-совместимому агенту перекладывать анализ файлов на модели с большим контекстом (до 2 млн токенов). Это полезно, когда:

  • Текущий контекст агента переполнен

  • Задача требует специализированных возможностей модели

  • Нужно проанализировать большие кодовые базы в рамках одного запроса

  • Хочется сравнить результаты разных моделей

"Для пользователей Claude Code, Consult7 — это прорыв."

Как это работает

Consult7 собирает файлы из указанных вами путей (с поддержкой опциональных масок в именах файлов), объединяет их в единый контекст и отправляет в модель с большим контекстным окном вместе с вашим запросом. Результат возвращается непосредственно агенту, с которым вы работаете.

Примеры использования

Быстрая сводка по кодовой базе

  • Файлы: ["/Users/john/project/src/*.py", "/Users/john/project/lib/*.py"]

  • Запрос: "Обобщи архитектуру и основные компоненты этого Python-проекта"

  • Модель: "google/gemini-3-flash-preview"

  • Режим: "fast"

Глубокий анализ с рассуждением

  • Файлы: ["/Users/john/webapp/src/*.py", "/Users/john/webapp/auth/*.py", "/Users/john/webapp/api/*.js"]

  • Запрос: "Проанализируй поток аутентификации в этой кодовой базе. Подумай шаг за шагом о уязвимостях безопасности и предложи улучшения"

  • Модель: "anthropic/claude-opus-4.7"

  • Режим: "think"

Генерация отчета с сохранением в файл

  • Файлы: ["/Users/john/project/src/*.py", "/Users/john/project/tests/*.py"]

  • Запрос: "Сгенерируй комплексный отчет по проверке кода с анализом архитектуры, оценкой качества кода и рекомендациями по улучшению"

  • Модель: "google/gemini-2.5-pro"

  • Режим: "think"

  • Выходной файл: "/Users/john/reports/code_review.md"

  • Результат: Возвращает "Result has been saved to /Users/john/reports/code_review.md" вместо переполнения контекста агента

В центре внимания: Модели Gemini 3.1

Consult7 поддерживает семейство Google Gemini 3.1:

  • Gemini 3.1 Pro (google/gemini-3.1-pro-preview) — флагманская модель с рассуждением, контекст 1 млн

  • Gemini 3 Flash (google/gemini-3-flash-preview) — ультрабыстрая модель, контекст 1 млн

  • Gemini 3.1 Flash Lite (google/gemini-3.1-flash-lite-preview) — ультрабыстрая облегченная модель, контекст 1 млн

Быстрые мнемоники для опытных пользователей:

  • gemt = Gemini 3.1 Pro + think (флагманское рассуждение)

  • gemf = Gemini 3 Flash + fast (ультрабыстро)

  • gptt = GPT-5.5 + think (новейшая GPT)

  • grot = Grok 4.20 + think (автоматическое рассуждение)

  • oput = Claude Opus 4.7 + think (адаптивное мышление)

  • ULTRA = Запуск GEMT, GPTT, GROT и OPUT параллельно (4 передовые модели)

Эти мнемоники позволяют легко ссылаться на комбинации модели и режима в ваших запросах.

Установка

Claude Code

Просто выполните:

claude mcp add -s user consult7 uvx -- consult7 your-openrouter-api-key

Claude Desktop

Добавьте в файл конфигурации Claude Desktop:

{
  "mcpServers": {
    "consult7": {
      "type": "stdio",
      "command": "uvx",
      "args": ["consult7", "your-openrouter-api-key"]
    }
  }
}

Замените your-openrouter-api-key на ваш реальный API-ключ OpenRouter.

Установка не требуется — uvx автоматически скачивает и запускает consult7 в изолированной среде.

Параметры командной строки

uvx consult7 <api-key> [--test]
  • <api-key>: Обязательно. Ваш API-ключ OpenRouter

  • --test: Опционально. Проверка соединения с API

Модель и режим указываются при вызове инструмента, а не при запуске.

Поддерживаемые модели

Consult7 поддерживает все 500+ моделей, доступных на OpenRouter. Ниже приведены флагманские модели с оптимизированными динамическими лимитами размера файлов:

Модель

Контекст

Вариант использования

openai/gpt-5.5

1M

Новейшая GPT, сбалансированная производительность

google/gemini-3.1-pro-preview

1M

Флагманская модель с рассуждением

google/gemini-3-flash-preview

1M

Gemini 3 Flash, ультрабыстрая

google/gemini-3.1-flash-lite-preview

1M

Ультрабыстрая облегченная модель

anthropic/claude-opus-4.7

1M

Лучшее качество, адаптивное мышление

anthropic/claude-sonnet-4.6

1M

Отличное рассуждение, быстро

anthropic/claude-haiku-4.5

200k

Бюджетно, очень быстро

x-ai/grok-4.20

2M

Автоматическое рассуждение, огромный контекст

x-ai/grok-4.1-fast

2M

Самое большое контекстное окно

Быстрые мнемоники:

  • gptt = openai/gpt-5.5 + think (новейшая GPT, глубокое рассуждение)

  • gemt = google/gemini-3.1-pro-preview + think (Gemini 3.1 Pro, флагманское рассуждение)

  • grot = x-ai/grok-4.20 + think (Grok 4.20, автоматическое рассуждение)

  • oput = anthropic/claude-opus-4.7 + think (Claude Opus, адаптивное мышление)

  • opuf = anthropic/claude-opus-4.7 + fast (Claude Opus, без рассуждения)

  • gemf = google/gemini-3-flash-preview + fast (Gemini 3 Flash, ультрабыстро)

  • ULTRA = вызов GEMT, GPTT, GROT и OPUT ПАРАЛЛЕЛЬНО (4 передовые модели для максимального понимания)

Вы можете использовать любой ID модели OpenRouter (например, deepseek/deepseek-r1-0528). См. полный список моделей. Лимиты размера файлов рассчитываются автоматически на основе контекстного окна каждой модели.

Режимы производительности

  • fast: Без рассуждения — быстрые ответы, простые задачи

  • mid: Умеренное рассуждение — проверка кода, анализ ошибок

  • think: Максимальное рассуждение — аудит безопасности, сложный рефакторинг

Правила спецификации файлов

  • Только абсолютные пути: /Users/john/project/src/*.py

  • Маски только в именах файлов: /Users/john/project/*.py (не в путях к директориям)

  • Расширение обязательно при использовании масок: *.py, а не *

  • Смешивание файлов и шаблонов: ["/path/src/*.py", "/path/README.md", "/path/tests/*_test.py"]

Общие шаблоны:

  • Все Python-файлы: /path/to/dir/*.py

  • Тестовые файлы: /path/to/tests/*_test.py или /path/to/tests/test_*.py

  • Несколько расширений: ["/path/*.js", "/path/*.ts"]

Автоматически игнорируются: __pycache__, .env, secrets.py, .DS_Store, .git, node_modules

Лимиты размера: Динамические, основанные на контекстном окне модели (например, Grok 4.20: ~8 МБ, GPT-5.5: ~4 МБ)

Параметры инструмента

Инструмент консультации принимает следующие параметры:

  • files (обязательно): Список абсолютных путей к файлам или шаблонов с масками только в именах файлов

  • query (обязательно): Ваш вопрос или инструкция для LLM по обработке файлов

  • model (обязательно): Используемая модель LLM (см. "Поддерживаемые модели" выше)

  • mode (обязательно): Режим производительности — fast, mid или think

  • output_file (опционально): Абсолютный путь для сохранения ответа в файл вместо его возврата

    • Если файл существует, он будет сохранен с суффиксом _updated (например, report.mdreport_updated.md)

    • При указании возвращает только: "Result has been saved to /path/to/file"

    • Полезно для генерации отчетов, документации или анализов без переполнения контекста агента

  • zdr (опционально): Включение маршрутизации с нулевым удержанием данных (по умолчанию: false)

    • Если true, направляет запросы только на конечные точки с политикой ZDR (промпты не сохраняются провайдером)

    • ZDR доступно: Gemini 3.1 Pro/Flash, Claude Opus 4.7, GPT-5

    • Недоступно: GPT-5.5, Grok 4.20 (возвращает ошибку)

Примеры использования

Через MCP в Claude Code

Claude Code автоматически использует инструмент с правильными параметрами:

{
  "files": ["/Users/john/project/src/*.py"],
  "query": "Explain the main architecture",
  "model": "google/gemini-3-flash-preview",
  "mode": "fast"
}

Через Python API

from consult7.consultation import consultation_impl

result = await consultation_impl(
    files=["/path/to/file.py"],
    query="Explain this code",
    model="google/gemini-3-flash-preview",
    mode="fast",  # fast, mid, or think
    provider="openrouter",
    api_key="sk-or-v1-..."
)

Тестирование

# Test OpenRouter connection
uvx consult7 sk-or-v1-your-api-key --test

Удаление

Чтобы удалить consult7 из Claude Code:

claude mcp remove consult7 -s user

История версий

v3.6.0

  • Обновлены модели: GPT-5.5, Claude Opus 4.7, Grok 4.20

  • Claude Opus 4.7 (контекст 1 млн) использует адаптивное мышление — reasoning.enabled=true

  • Grok 4.20 (контекст 2 млн) использует автоматическое рассуждение — reasoning.enabled=true

  • Обновлены мнемоники: gptt → GPT-5.5, oput/opuf → Claude Opus 4.7, grot → Grok 4.20

  • Устаревшие ID моделей по-прежнему поддерживаются

v3.5.0

  • Обновлено GPT-5.2 → GPT-5.4 (контекст ~1 млн)

v3.4.0

  • Обновлены модели: Gemini 3.1 Pro, Claude Opus 4.6, Claude Sonnet 4.6, Grok 4.1 Fast

  • Добавлены новые модели: Claude Haiku 4.5, Gemini 3.1 Flash Lite

  • Обновлены мнемоники: gemt → Gemini 3.1 Pro, oput/opuf → Claude Opus 4.6

  • Устаревшие ID моделей по-прежнему поддерживаются

v3.3.0

  • Исправлена проблема усечения в режиме мышления GPT-5.2 (переключено на потоковую передачу)

  • Добавлена google/gemini-3-flash-preview (Gemini 3 Flash, ультрабыстрая)

  • Обновлена мнемоника gemf для использования Gemini 3 Flash

  • Добавлен параметр zdr для маршрутизации с нулевым удержанием данных

v3.2.0

  • Обновлено до GPT-5.2 с рассуждением на основе усилий

v3.1.0

  • Добавлена google/gemini-3-pro-preview (контекст 1 млн, флагманская модель с рассуждением)

  • Новые мнемоники: gemt (Gemini 3 Pro), grot (Grok 4), ULTRA (параллельное выполнение)

v3.0.0

  • Удалены прямые провайдеры Google и OpenAI — теперь только OpenRouter

  • Удален суффикс |thinking — вместо него используйте параметр mode (теперь обязателен)

  • Чистый API параметра mode: fast, mid, think

  • Упрощен CLI с consult7 <provider> <key> до consult7 <key>

  • Улучшена интеграция MCP с проверкой перечислений для режимов

  • Динамические лимиты размера файлов на основе контекстного окна модели

v2.1.0

  • Добавлен параметр output_file для сохранения ответов в файлы

v2.0.0

  • Новый интерфейс списка файлов с упрощенной проверкой

  • Уменьшены лимиты размера файлов до реалистичных значений

Лицензия

MIT

A
license - permissive license
-
quality - not tested
C
maintenance

Maintenance

Maintainers
Response time
Release cycle
1Releases (12mo)
Issues opened vs closed

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/szeider/consult7'

If you have feedback or need assistance with the MCP directory API, please join our Discord server