Consult7
Consult7 MCP 서버
Consult7은 AI 에이전트가 OpenRouter를 통해 대규모 컨텍스트 윈도우 모델을 참조하여 방대한 파일 모음(전체 코드베이스, 문서 저장소 또는 현재 에이전트의 컨텍스트 제한을 초과하는 혼합 콘텐츠)을 분석할 수 있도록 하는 MCP(Model Context Protocol) 서버입니다.
왜 Consult7인가요?
Consult7을 사용하면 모든 MCP 호환 에이전트가 파일 분석 작업을 대규모 컨텍스트 모델(최대 2M 토큰)로 오프로드할 수 있습니다. 다음과 같은 경우에 유용합니다:
에이전트의 현재 컨텍스트가 가득 찼을 때
작업에 특수 모델 기능이 필요할 때
단일 쿼리로 대규모 코드베이스를 분석해야 할 때
서로 다른 모델의 결과를 비교하고 싶을 때
"Claude Code 사용자에게 Consult7은 판도를 바꾸는 도구입니다."
작동 방식
Consult7은 제공된 특정 경로에서 파일을 수집하고(파일명에 선택적 와일드카드 사용 가능), 이를 단일 컨텍스트로 조합하여 쿼리와 함께 대규모 컨텍스트 윈도우 모델로 전송합니다. 결과는 작업 중인 에이전트로 직접 피드백됩니다.
주요 사용 사례
빠른 코드베이스 요약
파일:
["/Users/john/project/src/*.py", "/Users/john/project/lib/*.py"]쿼리: "이 Python 프로젝트의 아키텍처와 주요 구성 요소를 요약해 줘"
모델:
"google/gemini-3-flash-preview"모드:
"fast"
추론을 통한 심층 분석
파일:
["/Users/john/webapp/src/*.py", "/Users/john/webapp/auth/*.py", "/Users/john/webapp/api/*.js"]쿼리: "이 코드베이스 전반의 인증 흐름을 분석해 줘. 보안 취약점에 대해 단계별로 생각하고 개선 사항을 제안해 줘"
모델:
"anthropic/claude-opus-4.7"모드:
"think"
파일로 저장되는 보고서 생성
파일:
["/Users/john/project/src/*.py", "/Users/john/project/tests/*.py"]쿼리: "아키텍처 분석, 코드 품질 평가 및 개선 권장 사항이 포함된 포괄적인 코드 리뷰 보고서를 생성해 줘"
모델:
"google/gemini-2.5-pro"모드:
"think"출력 파일:
"/Users/john/reports/code_review.md"결과: 에이전트의 컨텍스트를 넘치게 하는 대신
"Result has been saved to /Users/john/reports/code_review.md"를 반환합니다.
특징: Gemini 3.1 모델
Consult7은 Google의 Gemini 3.1 제품군을 지원합니다:
Gemini 3.1 Pro (
google/gemini-3.1-pro-preview) - 플래그십 추론 모델, 1M 컨텍스트Gemini 3 Flash (
google/gemini-3-flash-preview) - 초고속 모델, 1M 컨텍스트Gemini 3.1 Flash Lite (
google/gemini-3.1-flash-lite-preview) - 초고속 라이트 모델, 1M 컨텍스트
파워 유저를 위한 빠른 니모닉(Mnemonic):
gemt= Gemini 3.1 Pro + think (플래그십 추론)gemf= Gemini 3 Flash + fast (초고속)gptt= GPT-5.5 + think (최신 GPT)grot= Grok 4.20 + think (자동 추론)oput= Claude Opus 4.7 + think (적응형 사고)ULTRA= GEMT, GPTT, GROT 및 OPUT을 병렬로 실행 (4개의 최첨단 모델)
이 니모닉을 사용하면 쿼리에서 모델+모드 조합을 쉽게 참조할 수 있습니다.
설치
Claude Code
간단히 실행하세요:
claude mcp add -s user consult7 uvx -- consult7 your-openrouter-api-keyClaude Desktop
Claude Desktop 설정 파일에 추가하세요:
{
"mcpServers": {
"consult7": {
"type": "stdio",
"command": "uvx",
"args": ["consult7", "your-openrouter-api-key"]
}
}
}your-openrouter-api-key를 실제 OpenRouter API 키로 바꾸세요.
별도의 설치가 필요하지 않습니다. uvx가 자동으로 격리된 환경에서 consult7을 다운로드하고 실행합니다.
명령줄 옵션
uvx consult7 <api-key> [--test]<api-key>: 필수. OpenRouter API 키--test: 선택 사항. API 연결 테스트
모델과 모드는 시작 시점이 아니라 도구를 호출할 때 지정됩니다.
지원되는 모델
Consult7은 OpenRouter에서 제공하는 500개 이상의 모든 모델을 지원합니다. 아래는 최적화된 동적 파일 크기 제한이 적용된 주요 모델입니다:
모델 | 컨텍스트 | 사용 사례 |
| 1M | 최신 GPT, 균형 잡힌 성능 |
| 1M | 플래그십 추론 모델 |
| 1M | Gemini 3 Flash, 초고속 |
| 1M | 초고속 라이트 모델 |
| 1M | 최고의 품질, 적응형 사고 |
| 1M | 뛰어난 추론, 빠름 |
| 200k | 경제적, 매우 빠름 |
| 2M | 자동 추론, 거대한 컨텍스트 |
| 2M | 가장 큰 컨텍스트 윈도우 |
빠른 니모닉:
gptt=openai/gpt-5.5+think(최신 GPT, 심층 추론)gemt=google/gemini-3.1-pro-preview+think(Gemini 3.1 Pro, 플래그십 추론)grot=x-ai/grok-4.20+think(Grok 4.20, 자동 추론)oput=anthropic/claude-opus-4.7+think(Claude Opus, 적응형 사고)opuf=anthropic/claude-opus-4.7+fast(Claude Opus, 추론 없음)gemf=google/gemini-3-flash-preview+fast(Gemini 3 Flash, 초고속)ULTRA= GEMT, GPTT, GROT 및 OPUT을 병렬로 호출 (최대 통찰력을 위한 4개의 최첨단 모델)
모든 OpenRouter 모델 ID를 사용할 수 있습니다(예: deepseek/deepseek-r1-0528). 전체 모델 목록을 참조하세요. 파일 크기 제한은 각 모델의 컨텍스트 윈도우에 따라 자동으로 계산됩니다.
성능 모드
fast: 추론 없음 - 빠른 답변, 간단한 작업mid: 중간 수준 추론 - 코드 리뷰, 버그 분석think: 최대 추론 - 보안 감사, 복잡한 리팩토링
파일 지정 규칙
절대 경로만 사용:
/Users/john/project/src/*.py파일명에만 와일드카드 사용:
/Users/john/project/*.py(디렉토리 경로에는 불가)와일드카드 사용 시 확장자 필수:
*가 아닌*.py파일 및 패턴 혼합:
["/path/src/*.py", "/path/README.md", "/path/tests/*_test.py"]
일반적인 패턴:
모든 Python 파일:
/path/to/dir/*.py테스트 파일:
/path/to/tests/*_test.py또는/path/to/tests/test_*.py다중 확장자:
["/path/*.js", "/path/*.ts"]
자동 무시 항목: __pycache__, .env, secrets.py, .DS_Store, .git, node_modules
크기 제한: 모델 컨텍스트 윈도우에 따른 동적 제한 (예: Grok 4.20: ~8MB, GPT-5.5: ~4MB)
도구 매개변수
상담 도구는 다음 매개변수를 허용합니다:
files (필수): 절대 파일 경로 목록 또는 파일명에만 와일드카드가 포함된 패턴
query (필수): LLM이 파일을 처리하기 위한 질문 또는 지시 사항
model (필수): 사용할 LLM 모델 (위의 '지원되는 모델' 참조)
mode (필수): 성능 모드 -
fast,mid또는thinkoutput_file (선택 사항): 응답을 반환하는 대신 파일로 저장할 절대 경로
파일이 존재하면
_updated접미사가 붙어 저장됩니다 (예:report.md→report_updated.md)지정 시
"Result has been saved to /path/to/file"만 반환합니다.에이전트의 컨텍스트를 넘치게 하지 않고 보고서, 문서 또는 분석을 생성하는 데 유용합니다.
zdr (선택 사항): ZDR(Zero Data Retention) 라우팅 활성화 (기본값:
false)true일 경우 ZDR 정책이 있는 엔드포인트로만 라우팅합니다 (제공업체가 프롬프트를 보관하지 않음)ZDR 사용 가능: Gemini 3.1 Pro/Flash, Claude Opus 4.7, GPT-5
사용 불가: GPT-5.5, Grok 4.20 (오류 반환)
사용 예시
Claude Code에서 MCP를 통해
Claude Code는 적절한 매개변수와 함께 도구를 자동으로 사용합니다:
{
"files": ["/Users/john/project/src/*.py"],
"query": "Explain the main architecture",
"model": "google/gemini-3-flash-preview",
"mode": "fast"
}Python API를 통해
from consult7.consultation import consultation_impl
result = await consultation_impl(
files=["/path/to/file.py"],
query="Explain this code",
model="google/gemini-3-flash-preview",
mode="fast", # fast, mid, or think
provider="openrouter",
api_key="sk-or-v1-..."
)테스트
# Test OpenRouter connection
uvx consult7 sk-or-v1-your-api-key --test제거
Claude Code에서 consult7을 제거하려면:
claude mcp remove consult7 -s user버전 기록
v3.6.0
모델 업그레이드: GPT-5.5, Claude Opus 4.7, Grok 4.20
Claude Opus 4.7 (1M 컨텍스트)은 적응형 사고 사용 —
reasoning.enabled=trueGrok 4.20 (2M 컨텍스트)은 자동 추론 사용 —
reasoning.enabled=true니모닉 업데이트:
gptt→ GPT-5.5,oput/opuf→ Claude Opus 4.7,grot→ Grok 4.20레거시 모델 ID는 여전히 지원됨
v3.5.0
GPT-5.2 → GPT-5.4 업그레이드 (~1M 컨텍스트)
v3.4.0
모델 업그레이드: Gemini 3.1 Pro, Claude Opus 4.6, Claude Sonnet 4.6, Grok 4.1 Fast
새로운 모델 추가: Claude Haiku 4.5, Gemini 3.1 Flash Lite
니모닉 업데이트:
gemt→ Gemini 3.1 Pro,oput/opuf→ Claude Opus 4.6레거시 모델 ID는 여전히 지원됨
v3.3.0
GPT-5.2 사고 모드 잘림 문제 수정 (스트리밍으로 전환)
google/gemini-3-flash-preview추가 (Gemini 3 Flash, 초고속)gemf니모닉을 Gemini 3 Flash를 사용하도록 업데이트ZDR 라우팅을 위한
zdr매개변수 추가
v3.2.0
노력 기반 추론을 갖춘 GPT-5.2로 업데이트
v3.1.0
google/gemini-3-pro-preview추가 (1M 컨텍스트, 플래그십 추론 모델)새로운 니모닉:
gemt(Gemini 3 Pro),grot(Grok 4),ULTRA(병렬 실행)
v3.0.0
Google 및 OpenAI 직접 제공업체 제거 - 이제 OpenRouter 전용
|thinking접미사 제거 - 대신mode매개변수 사용 (이제 필수)깔끔한
mode매개변수 API:fast,mid,thinkCLI를
consult7 <provider> <key>에서consult7 <key>로 단순화모드에 대한 enum 유효성 검사를 통한 더 나은 MCP 통합
모델 컨텍스트 윈도우 기반의 동적 파일 크기 제한
v2.1.0
응답을 파일로 저장하기 위한
output_file매개변수 추가
v2.0.0
단순화된 유효성 검사가 포함된 새로운 파일 목록 인터페이스
파일 크기 제한을 현실적인 값으로 축소
라이선스
MIT
This server cannot be installed
Maintenance
Appeared in Searches
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/szeider/consult7'
If you have feedback or need assistance with the MCP directory API, please join our Discord server