Consult7
MCP-сервер Consult7
Consult7 — это сервер протокола контекста модели (MCP), который позволяет ИИ-агентам обращаться к моделям с большим контекстным окном через OpenRouter для анализа обширных коллекций файлов — целых кодовых баз, репозиториев документов или смешанного контента, которые превышают лимиты контекста текущего агента.
Почему Consult7?
Consult7 позволяет любому MCP-совместимому агенту перекладывать анализ файлов на модели с большим контекстом (до 2 млн токенов). Это полезно, когда:
Текущий контекст агента переполнен
Задача требует специализированных возможностей модели
Нужно проанализировать большие кодовые базы в рамках одного запроса
Хочется сравнить результаты разных моделей
"Для пользователей Claude Code, Consult7 — это прорыв."
Как это работает
Consult7 собирает файлы из указанных вами путей (с поддержкой опциональных масок в именах файлов), объединяет их в единый контекст и отправляет в модель с большим контекстным окном вместе с вашим запросом. Результат возвращается непосредственно агенту, с которым вы работаете.
Примеры использования
Быстрая сводка по кодовой базе
Файлы:
["/Users/john/project/src/*.py", "/Users/john/project/lib/*.py"]Запрос: "Обобщи архитектуру и основные компоненты этого Python-проекта"
Модель:
"google/gemini-3-flash-preview"Режим:
"fast"
Глубокий анализ с рассуждением
Файлы:
["/Users/john/webapp/src/*.py", "/Users/john/webapp/auth/*.py", "/Users/john/webapp/api/*.js"]Запрос: "Проанализируй поток аутентификации в этой кодовой базе. Подумай шаг за шагом о уязвимостях безопасности и предложи улучшения"
Модель:
"anthropic/claude-opus-4.7"Режим:
"think"
Генерация отчета с сохранением в файл
Файлы:
["/Users/john/project/src/*.py", "/Users/john/project/tests/*.py"]Запрос: "Сгенерируй комплексный отчет по проверке кода с анализом архитектуры, оценкой качества кода и рекомендациями по улучшению"
Модель:
"google/gemini-2.5-pro"Режим:
"think"Выходной файл:
"/Users/john/reports/code_review.md"Результат: Возвращает
"Result has been saved to /Users/john/reports/code_review.md"вместо переполнения контекста агента
В центре внимания: Модели Gemini 3.1
Consult7 поддерживает семейство Google Gemini 3.1:
Gemini 3.1 Pro (
google/gemini-3.1-pro-preview) — флагманская модель с рассуждением, контекст 1 млнGemini 3 Flash (
google/gemini-3-flash-preview) — ультрабыстрая модель, контекст 1 млнGemini 3.1 Flash Lite (
google/gemini-3.1-flash-lite-preview) — ультрабыстрая облегченная модель, контекст 1 млн
Быстрые мнемоники для опытных пользователей:
gemt= Gemini 3.1 Pro + think (флагманское рассуждение)gemf= Gemini 3 Flash + fast (ультрабыстро)gptt= GPT-5.5 + think (новейшая GPT)grot= Grok 4.20 + think (автоматическое рассуждение)oput= Claude Opus 4.7 + think (адаптивное мышление)ULTRA= Запуск GEMT, GPTT, GROT и OPUT параллельно (4 передовые модели)
Эти мнемоники позволяют легко ссылаться на комбинации модели и режима в ваших запросах.
Установка
Claude Code
Просто выполните:
claude mcp add -s user consult7 uvx -- consult7 your-openrouter-api-keyClaude Desktop
Добавьте в файл конфигурации Claude Desktop:
{
"mcpServers": {
"consult7": {
"type": "stdio",
"command": "uvx",
"args": ["consult7", "your-openrouter-api-key"]
}
}
}Замените your-openrouter-api-key на ваш реальный API-ключ OpenRouter.
Установка не требуется — uvx автоматически скачивает и запускает consult7 в изолированной среде.
Параметры командной строки
uvx consult7 <api-key> [--test]<api-key>: Обязательно. Ваш API-ключ OpenRouter--test: Опционально. Проверка соединения с API
Модель и режим указываются при вызове инструмента, а не при запуске.
Поддерживаемые модели
Consult7 поддерживает все 500+ моделей, доступных на OpenRouter. Ниже приведены флагманские модели с оптимизированными динамическими лимитами размера файлов:
Модель | Контекст | Вариант использования |
| 1M | Новейшая GPT, сбалансированная производительность |
| 1M | Флагманская модель с рассуждением |
| 1M | Gemini 3 Flash, ультрабыстрая |
| 1M | Ультрабыстрая облегченная модель |
| 1M | Лучшее качество, адаптивное мышление |
| 1M | Отличное рассуждение, быстро |
| 200k | Бюджетно, очень быстро |
| 2M | Автоматическое рассуждение, огромный контекст |
| 2M | Самое большое контекстное окно |
Быстрые мнемоники:
gptt=openai/gpt-5.5+think(новейшая GPT, глубокое рассуждение)gemt=google/gemini-3.1-pro-preview+think(Gemini 3.1 Pro, флагманское рассуждение)grot=x-ai/grok-4.20+think(Grok 4.20, автоматическое рассуждение)oput=anthropic/claude-opus-4.7+think(Claude Opus, адаптивное мышление)opuf=anthropic/claude-opus-4.7+fast(Claude Opus, без рассуждения)gemf=google/gemini-3-flash-preview+fast(Gemini 3 Flash, ультрабыстро)ULTRA= вызов GEMT, GPTT, GROT и OPUT ПАРАЛЛЕЛЬНО (4 передовые модели для максимального понимания)
Вы можете использовать любой ID модели OpenRouter (например, deepseek/deepseek-r1-0528). См. полный список моделей. Лимиты размера файлов рассчитываются автоматически на основе контекстного окна каждой модели.
Режимы производительности
fast: Без рассуждения — быстрые ответы, простые задачиmid: Умеренное рассуждение — проверка кода, анализ ошибокthink: Максимальное рассуждение — аудит безопасности, сложный рефакторинг
Правила спецификации файлов
Только абсолютные пути:
/Users/john/project/src/*.pyМаски только в именах файлов:
/Users/john/project/*.py(не в путях к директориям)Расширение обязательно при использовании масок:
*.py, а не*Смешивание файлов и шаблонов:
["/path/src/*.py", "/path/README.md", "/path/tests/*_test.py"]
Общие шаблоны:
Все Python-файлы:
/path/to/dir/*.pyТестовые файлы:
/path/to/tests/*_test.pyили/path/to/tests/test_*.pyНесколько расширений:
["/path/*.js", "/path/*.ts"]
Автоматически игнорируются: __pycache__, .env, secrets.py, .DS_Store, .git, node_modules
Лимиты размера: Динамические, основанные на контекстном окне модели (например, Grok 4.20: ~8 МБ, GPT-5.5: ~4 МБ)
Параметры инструмента
Инструмент консультации принимает следующие параметры:
files (обязательно): Список абсолютных путей к файлам или шаблонов с масками только в именах файлов
query (обязательно): Ваш вопрос или инструкция для LLM по обработке файлов
model (обязательно): Используемая модель LLM (см. "Поддерживаемые модели" выше)
mode (обязательно): Режим производительности —
fast,midилиthinkoutput_file (опционально): Абсолютный путь для сохранения ответа в файл вместо его возврата
Если файл существует, он будет сохранен с суффиксом
_updated(например,report.md→report_updated.md)При указании возвращает только:
"Result has been saved to /path/to/file"Полезно для генерации отчетов, документации или анализов без переполнения контекста агента
zdr (опционально): Включение маршрутизации с нулевым удержанием данных (по умолчанию:
false)Если
true, направляет запросы только на конечные точки с политикой ZDR (промпты не сохраняются провайдером)ZDR доступно: Gemini 3.1 Pro/Flash, Claude Opus 4.7, GPT-5
Недоступно: GPT-5.5, Grok 4.20 (возвращает ошибку)
Примеры использования
Через MCP в Claude Code
Claude Code автоматически использует инструмент с правильными параметрами:
{
"files": ["/Users/john/project/src/*.py"],
"query": "Explain the main architecture",
"model": "google/gemini-3-flash-preview",
"mode": "fast"
}Через Python API
from consult7.consultation import consultation_impl
result = await consultation_impl(
files=["/path/to/file.py"],
query="Explain this code",
model="google/gemini-3-flash-preview",
mode="fast", # fast, mid, or think
provider="openrouter",
api_key="sk-or-v1-..."
)Тестирование
# Test OpenRouter connection
uvx consult7 sk-or-v1-your-api-key --testУдаление
Чтобы удалить consult7 из Claude Code:
claude mcp remove consult7 -s userИстория версий
v3.6.0
Обновлены модели: GPT-5.5, Claude Opus 4.7, Grok 4.20
Claude Opus 4.7 (контекст 1 млн) использует адаптивное мышление —
reasoning.enabled=trueGrok 4.20 (контекст 2 млн) использует автоматическое рассуждение —
reasoning.enabled=trueОбновлены мнемоники:
gptt→ GPT-5.5,oput/opuf→ Claude Opus 4.7,grot→ Grok 4.20Устаревшие ID моделей по-прежнему поддерживаются
v3.5.0
Обновлено GPT-5.2 → GPT-5.4 (контекст ~1 млн)
v3.4.0
Обновлены модели: Gemini 3.1 Pro, Claude Opus 4.6, Claude Sonnet 4.6, Grok 4.1 Fast
Добавлены новые модели: Claude Haiku 4.5, Gemini 3.1 Flash Lite
Обновлены мнемоники:
gemt→ Gemini 3.1 Pro,oput/opuf→ Claude Opus 4.6Устаревшие ID моделей по-прежнему поддерживаются
v3.3.0
Исправлена проблема усечения в режиме мышления GPT-5.2 (переключено на потоковую передачу)
Добавлена
google/gemini-3-flash-preview(Gemini 3 Flash, ультрабыстрая)Обновлена мнемоника
gemfдля использования Gemini 3 FlashДобавлен параметр
zdrдля маршрутизации с нулевым удержанием данных
v3.2.0
Обновлено до GPT-5.2 с рассуждением на основе усилий
v3.1.0
Добавлена
google/gemini-3-pro-preview(контекст 1 млн, флагманская модель с рассуждением)Новые мнемоники:
gemt(Gemini 3 Pro),grot(Grok 4),ULTRA(параллельное выполнение)
v3.0.0
Удалены прямые провайдеры Google и OpenAI — теперь только OpenRouter
Удален суффикс
|thinking— вместо него используйте параметрmode(теперь обязателен)Чистый API параметра
mode:fast,mid,thinkУпрощен CLI с
consult7 <provider> <key>доconsult7 <key>Улучшена интеграция MCP с проверкой перечислений для режимов
Динамические лимиты размера файлов на основе контекстного окна модели
v2.1.0
Добавлен параметр
output_fileдля сохранения ответов в файлы
v2.0.0
Новый интерфейс списка файлов с упрощенной проверкой
Уменьшены лимиты размера файлов до реалистичных значений
Лицензия
MIT
This server cannot be installed
Maintenance
Appeared in Searches
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/szeider/consult7'
If you have feedback or need assistance with the MCP directory API, please join our Discord server