Skip to main content
Glama

Consult7 MCP 서버

Consult7은 AI 에이전트가 OpenRouter를 통해 대규모 컨텍스트 윈도우 모델을 참조하여 방대한 파일 모음(전체 코드베이스, 문서 저장소 또는 현재 에이전트의 컨텍스트 제한을 초과하는 혼합 콘텐츠)을 분석할 수 있도록 하는 MCP(Model Context Protocol) 서버입니다.

왜 Consult7인가요?

Consult7을 사용하면 모든 MCP 호환 에이전트가 파일 분석 작업을 대규모 컨텍스트 모델(최대 2M 토큰)로 오프로드할 수 있습니다. 다음과 같은 경우에 유용합니다:

  • 에이전트의 현재 컨텍스트가 가득 찼을 때

  • 작업에 특수 모델 기능이 필요할 때

  • 단일 쿼리로 대규모 코드베이스를 분석해야 할 때

  • 서로 다른 모델의 결과를 비교하고 싶을 때

"Claude Code 사용자에게 Consult7은 판도를 바꾸는 도구입니다."

작동 방식

Consult7은 제공된 특정 경로에서 파일을 수집하고(파일명에 선택적 와일드카드 사용 가능), 이를 단일 컨텍스트로 조합하여 쿼리와 함께 대규모 컨텍스트 윈도우 모델로 전송합니다. 결과는 작업 중인 에이전트로 직접 피드백됩니다.

주요 사용 사례

빠른 코드베이스 요약

  • 파일: ["/Users/john/project/src/*.py", "/Users/john/project/lib/*.py"]

  • 쿼리: "이 Python 프로젝트의 아키텍처와 주요 구성 요소를 요약해 줘"

  • 모델: "google/gemini-3-flash-preview"

  • 모드: "fast"

추론을 통한 심층 분석

  • 파일: ["/Users/john/webapp/src/*.py", "/Users/john/webapp/auth/*.py", "/Users/john/webapp/api/*.js"]

  • 쿼리: "이 코드베이스 전반의 인증 흐름을 분석해 줘. 보안 취약점에 대해 단계별로 생각하고 개선 사항을 제안해 줘"

  • 모델: "anthropic/claude-opus-4.7"

  • 모드: "think"

파일로 저장되는 보고서 생성

  • 파일: ["/Users/john/project/src/*.py", "/Users/john/project/tests/*.py"]

  • 쿼리: "아키텍처 분석, 코드 품질 평가 및 개선 권장 사항이 포함된 포괄적인 코드 리뷰 보고서를 생성해 줘"

  • 모델: "google/gemini-2.5-pro"

  • 모드: "think"

  • 출력 파일: "/Users/john/reports/code_review.md"

  • 결과: 에이전트의 컨텍스트를 넘치게 하는 대신 "Result has been saved to /Users/john/reports/code_review.md"를 반환합니다.

특징: Gemini 3.1 모델

Consult7은 Google의 Gemini 3.1 제품군을 지원합니다:

  • Gemini 3.1 Pro (google/gemini-3.1-pro-preview) - 플래그십 추론 모델, 1M 컨텍스트

  • Gemini 3 Flash (google/gemini-3-flash-preview) - 초고속 모델, 1M 컨텍스트

  • Gemini 3.1 Flash Lite (google/gemini-3.1-flash-lite-preview) - 초고속 라이트 모델, 1M 컨텍스트

파워 유저를 위한 빠른 니모닉(Mnemonic):

  • gemt = Gemini 3.1 Pro + think (플래그십 추론)

  • gemf = Gemini 3 Flash + fast (초고속)

  • gptt = GPT-5.5 + think (최신 GPT)

  • grot = Grok 4.20 + think (자동 추론)

  • oput = Claude Opus 4.7 + think (적응형 사고)

  • ULTRA = GEMT, GPTT, GROT 및 OPUT을 병렬로 실행 (4개의 최첨단 모델)

이 니모닉을 사용하면 쿼리에서 모델+모드 조합을 쉽게 참조할 수 있습니다.

설치

Claude Code

간단히 실행하세요:

claude mcp add -s user consult7 uvx -- consult7 your-openrouter-api-key

Claude Desktop

Claude Desktop 설정 파일에 추가하세요:

{
  "mcpServers": {
    "consult7": {
      "type": "stdio",
      "command": "uvx",
      "args": ["consult7", "your-openrouter-api-key"]
    }
  }
}

your-openrouter-api-key를 실제 OpenRouter API 키로 바꾸세요.

별도의 설치가 필요하지 않습니다. uvx가 자동으로 격리된 환경에서 consult7을 다운로드하고 실행합니다.

명령줄 옵션

uvx consult7 <api-key> [--test]
  • <api-key>: 필수. OpenRouter API 키

  • --test: 선택 사항. API 연결 테스트

모델과 모드는 시작 시점이 아니라 도구를 호출할 때 지정됩니다.

지원되는 모델

Consult7은 OpenRouter에서 제공하는 500개 이상의 모든 모델을 지원합니다. 아래는 최적화된 동적 파일 크기 제한이 적용된 주요 모델입니다:

모델

컨텍스트

사용 사례

openai/gpt-5.5

1M

최신 GPT, 균형 잡힌 성능

google/gemini-3.1-pro-preview

1M

플래그십 추론 모델

google/gemini-3-flash-preview

1M

Gemini 3 Flash, 초고속

google/gemini-3.1-flash-lite-preview

1M

초고속 라이트 모델

anthropic/claude-opus-4.7

1M

최고의 품질, 적응형 사고

anthropic/claude-sonnet-4.6

1M

뛰어난 추론, 빠름

anthropic/claude-haiku-4.5

200k

경제적, 매우 빠름

x-ai/grok-4.20

2M

자동 추론, 거대한 컨텍스트

x-ai/grok-4.1-fast

2M

가장 큰 컨텍스트 윈도우

빠른 니모닉:

  • gptt = openai/gpt-5.5 + think (최신 GPT, 심층 추론)

  • gemt = google/gemini-3.1-pro-preview + think (Gemini 3.1 Pro, 플래그십 추론)

  • grot = x-ai/grok-4.20 + think (Grok 4.20, 자동 추론)

  • oput = anthropic/claude-opus-4.7 + think (Claude Opus, 적응형 사고)

  • opuf = anthropic/claude-opus-4.7 + fast (Claude Opus, 추론 없음)

  • gemf = google/gemini-3-flash-preview + fast (Gemini 3 Flash, 초고속)

  • ULTRA = GEMT, GPTT, GROT 및 OPUT을 병렬로 호출 (최대 통찰력을 위한 4개의 최첨단 모델)

모든 OpenRouter 모델 ID를 사용할 수 있습니다(예: deepseek/deepseek-r1-0528). 전체 모델 목록을 참조하세요. 파일 크기 제한은 각 모델의 컨텍스트 윈도우에 따라 자동으로 계산됩니다.

성능 모드

  • fast: 추론 없음 - 빠른 답변, 간단한 작업

  • mid: 중간 수준 추론 - 코드 리뷰, 버그 분석

  • think: 최대 추론 - 보안 감사, 복잡한 리팩토링

파일 지정 규칙

  • 절대 경로만 사용: /Users/john/project/src/*.py

  • 파일명에만 와일드카드 사용: /Users/john/project/*.py (디렉토리 경로에는 불가)

  • 와일드카드 사용 시 확장자 필수: *가 아닌 *.py

  • 파일 및 패턴 혼합: ["/path/src/*.py", "/path/README.md", "/path/tests/*_test.py"]

일반적인 패턴:

  • 모든 Python 파일: /path/to/dir/*.py

  • 테스트 파일: /path/to/tests/*_test.py 또는 /path/to/tests/test_*.py

  • 다중 확장자: ["/path/*.js", "/path/*.ts"]

자동 무시 항목: __pycache__, .env, secrets.py, .DS_Store, .git, node_modules

크기 제한: 모델 컨텍스트 윈도우에 따른 동적 제한 (예: Grok 4.20: ~8MB, GPT-5.5: ~4MB)

도구 매개변수

상담 도구는 다음 매개변수를 허용합니다:

  • files (필수): 절대 파일 경로 목록 또는 파일명에만 와일드카드가 포함된 패턴

  • query (필수): LLM이 파일을 처리하기 위한 질문 또는 지시 사항

  • model (필수): 사용할 LLM 모델 (위의 '지원되는 모델' 참조)

  • mode (필수): 성능 모드 - fast, mid 또는 think

  • output_file (선택 사항): 응답을 반환하는 대신 파일로 저장할 절대 경로

    • 파일이 존재하면 _updated 접미사가 붙어 저장됩니다 (예: report.mdreport_updated.md)

    • 지정 시 "Result has been saved to /path/to/file"만 반환합니다.

    • 에이전트의 컨텍스트를 넘치게 하지 않고 보고서, 문서 또는 분석을 생성하는 데 유용합니다.

  • zdr (선택 사항): ZDR(Zero Data Retention) 라우팅 활성화 (기본값: false)

    • true일 경우 ZDR 정책이 있는 엔드포인트로만 라우팅합니다 (제공업체가 프롬프트를 보관하지 않음)

    • ZDR 사용 가능: Gemini 3.1 Pro/Flash, Claude Opus 4.7, GPT-5

    • 사용 불가: GPT-5.5, Grok 4.20 (오류 반환)

사용 예시

Claude Code에서 MCP를 통해

Claude Code는 적절한 매개변수와 함께 도구를 자동으로 사용합니다:

{
  "files": ["/Users/john/project/src/*.py"],
  "query": "Explain the main architecture",
  "model": "google/gemini-3-flash-preview",
  "mode": "fast"
}

Python API를 통해

from consult7.consultation import consultation_impl

result = await consultation_impl(
    files=["/path/to/file.py"],
    query="Explain this code",
    model="google/gemini-3-flash-preview",
    mode="fast",  # fast, mid, or think
    provider="openrouter",
    api_key="sk-or-v1-..."
)

테스트

# Test OpenRouter connection
uvx consult7 sk-or-v1-your-api-key --test

제거

Claude Code에서 consult7을 제거하려면:

claude mcp remove consult7 -s user

버전 기록

v3.6.0

  • 모델 업그레이드: GPT-5.5, Claude Opus 4.7, Grok 4.20

  • Claude Opus 4.7 (1M 컨텍스트)은 적응형 사고 사용 — reasoning.enabled=true

  • Grok 4.20 (2M 컨텍스트)은 자동 추론 사용 — reasoning.enabled=true

  • 니모닉 업데이트: gptt → GPT-5.5, oput/opuf → Claude Opus 4.7, grot → Grok 4.20

  • 레거시 모델 ID는 여전히 지원됨

v3.5.0

  • GPT-5.2 → GPT-5.4 업그레이드 (~1M 컨텍스트)

v3.4.0

  • 모델 업그레이드: Gemini 3.1 Pro, Claude Opus 4.6, Claude Sonnet 4.6, Grok 4.1 Fast

  • 새로운 모델 추가: Claude Haiku 4.5, Gemini 3.1 Flash Lite

  • 니모닉 업데이트: gemt → Gemini 3.1 Pro, oput/opuf → Claude Opus 4.6

  • 레거시 모델 ID는 여전히 지원됨

v3.3.0

  • GPT-5.2 사고 모드 잘림 문제 수정 (스트리밍으로 전환)

  • google/gemini-3-flash-preview 추가 (Gemini 3 Flash, 초고속)

  • gemf 니모닉을 Gemini 3 Flash를 사용하도록 업데이트

  • ZDR 라우팅을 위한 zdr 매개변수 추가

v3.2.0

  • 노력 기반 추론을 갖춘 GPT-5.2로 업데이트

v3.1.0

  • google/gemini-3-pro-preview 추가 (1M 컨텍스트, 플래그십 추론 모델)

  • 새로운 니모닉: gemt (Gemini 3 Pro), grot (Grok 4), ULTRA (병렬 실행)

v3.0.0

  • Google 및 OpenAI 직접 제공업체 제거 - 이제 OpenRouter 전용

  • |thinking 접미사 제거 - 대신 mode 매개변수 사용 (이제 필수)

  • 깔끔한 mode 매개변수 API: fast, mid, think

  • CLI를 consult7 <provider> <key>에서 consult7 <key>로 단순화

  • 모드에 대한 enum 유효성 검사를 통한 더 나은 MCP 통합

  • 모델 컨텍스트 윈도우 기반의 동적 파일 크기 제한

v2.1.0

  • 응답을 파일로 저장하기 위한 output_file 매개변수 추가

v2.0.0

  • 단순화된 유효성 검사가 포함된 새로운 파일 목록 인터페이스

  • 파일 크기 제한을 현실적인 값으로 축소

라이선스

MIT

A
license - permissive license
-
quality - not tested
C
maintenance

Maintenance

Maintainers
Response time
Release cycle
1Releases (12mo)
Issues opened vs closed

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/szeider/consult7'

If you have feedback or need assistance with the MCP directory API, please join our Discord server