Skip to main content
Glama

Ask LLM

CI GitHub Release License: MIT

패키지

유형

버전

다운로드

ask-gemini-mcp

MCP 서버

npm

downloads

ask-codex-mcp

MCP 서버

npm

downloads

ask-ollama-mcp

MCP 서버

npm

downloads

ask-llm-mcp

MCP 서버

npm

downloads

@ask-llm/plugin

Claude Code 플러그인

GitHub

/plugin install

AI 간 협업을 위한 MCP 서버 + Claude Code 플러그인

AI 클라이언트와 여러 LLM 제공업체를 연결하여 AI 간 협업을 지원하는 MCP 서버입니다. Claude Code, Claude Desktop, Cursor, Warp, Copilot 및 40개 이상의 다른 MCP 클라이언트와 작동합니다. 표준 MCP를 통해 Gemini의 100만 개 이상의 토큰 컨텍스트, Codex의 GPT-5.4 또는 로컬 Ollama 모델을 활용하세요.

왜 사용하는가?

  • 제2의 의견 구하기 — 커밋하기 전에 다른 AI에게 코딩 접근 방식을 검토하도록 요청하세요.

  • 계획 토론 — 아키텍처 제안을 보내 비판과 대안을 제안받으세요.

  • 변경 사항 검토 — 여러 AI가 diff를 분석하게 하여 기본 AI가 놓칠 수 있는 문제를 포착하세요.

  • 방대한 컨텍스트 — Gemini는 다른 모델에서는 넘쳐날 전체 코드베이스(100만 개 이상의 토큰)를 읽을 수 있습니다.

  • 로컬 및 비공개 — 데이터가 기기를 떠나지 않는 검토를 위해 Ollama를 사용하세요.

빠른 시작

Claude Code

# All-in-one — auto-detects installed providers
claude mcp add --scope user ask-llm -- npx -y ask-llm-mcp
claude mcp add --scope user gemini -- npx -y ask-gemini-mcp
claude mcp add --scope user codex -- npx -y ask-codex-mcp
claude mcp add --scope user ollama -- npx -y ask-ollama-mcp

Claude Desktop

claude_desktop_config.json에 추가:

{
  "mcpServers": {
    "ask-llm": {
      "command": "npx",
      "args": ["-y", "ask-llm-mcp"]
    }
  }
}
{
  "mcpServers": {
    "gemini": {
      "command": "npx",
      "args": ["-y", "ask-gemini-mcp"]
    },
    "codex": {
      "command": "npx",
      "args": ["-y", "ask-codex-mcp"]
    },
    "ollama": {
      "command": "npx",
      "args": ["-y", "ask-ollama-mcp"]
    }
  }
}

Cursor (.cursor/mcp.json):

{
  "mcpServers": {
    "ask-llm": { "command": "npx", "args": ["-y", "ask-llm-mcp"] }
  }
}

Codex CLI (~/.codex/config.toml):

[mcp_servers.ask-llm]
command = "npx"
args = ["-y", "ask-llm-mcp"]

모든 MCP 클라이언트 (STDIO 전송):

{ "command": "npx", "args": ["-y", "ask-llm-mcp"] }

단일 제공업체의 경우 ask-llm-mcpask-gemini-mcp, ask-codex-mcp 또는 ask-ollama-mcp로 바꾸세요.

Claude Code 플러그인

Ask LLM 플러그인은 Claude Code에 다중 제공업체 코드 검토, 브레인스토밍 및 자동화된 후크를 직접 추가합니다:

/plugin marketplace add Lykhoyda/ask-llm
/plugin install ask-llm@ask-llm-plugins

제공 기능

기능

설명

/multi-review

4단계 검증 파이프라인과 합의 강조 기능이 포함된 Gemini + Codex 병렬 검토

/gemini-review

신뢰도 필터링이 포함된 Gemini 전용 검토

/codex-review

신뢰도 필터링이 포함된 Codex 전용 검토

/ollama-review

로컬 검토 — 데이터가 기기를 떠나지 않음

/brainstorm

다중 LLM 브레인스토밍: Claude Opus가 외부 제공업체(Gemini/Codex/Ollama)와 병렬로 실제 파일에 대해 주제를 조사한 다음, 검증된 결과를 더 높은 가중치로 종합

/compare

여러 제공업체의 원시 응답을 나란히 비교(종합 없음) — 각 제공업체가 동일한 답변을 어떻게 표현하는지 확인하고 싶을 때 사용

Pre-commit hook

git commit 전에 스테이징된 변경 사항을 검토하고 심각한 문제에 대해 경고

검토 에이전트는 Anthropic의 코드 검토 플러그인에서 영감을 받은 4단계 파이프라인(컨텍스트 수집, 명시적 오탐지 제외가 포함된 프롬프트 구성, 종합, 각 결과의 소스 수준 검증)을 사용합니다.

자세한 내용은 플러그인 문서를 참조하세요.

필수 조건

  • Node.js v20.0.0 이상 (LTS)

  • 최소 하나의 제공업체:

    • Gemini CLInpm install -g @google/gemini-cli && gemini login

    • Codex CLI — 설치 및 인증 완료

    • Ollama — 모델을 가져온 상태로 로컬에서 실행 중 (ollama pull qwen2.5-coder:7b)

MCP 도구

도구

패키지

목적

ask-gemini

ask-gemini-mcp

@ 파일 구문을 사용하여 Gemini CLI에 프롬프트 전송. 100만 개 이상의 토큰 컨텍스트. stream-json을 통한 실시간 점진적 출력

ask-gemini-edit

ask-gemini-mcp

Gemini로부터 구조화된 OLD/NEW 코드 편집 블록 가져오기

fetch-chunk

ask-gemini-mcp

캐시된 대규모 응답에서 청크 검색

ask-codex

ask-codex-mcp

Codex CLI에 프롬프트 전송. 미니 폴백이 포함된 GPT-5.4. sessionId를 통한 기본 세션 재개

ask-ollama

ask-ollama-mcp

로컬 Ollama에 프롬프트 전송. 완전 비공개, 비용 제로. sessionId를 통한 서버 측 대화 재생

ask-llm

ask-llm-mcp

통합 오케스트레이터 — 호출당 제공업체 선택. 설치된 모든 제공업체로 팬아웃

multi-llm

ask-llm-mcp

동일한 프롬프트를 여러 제공업체에 병렬로 전달; 한 번의 호출로 제공업체별 응답 + 사용량 반환

get-usage-stats

모두

세션별 토큰 합계, 폴백 횟수, 제공업체/모델별 분석 — 모두 메모리 내, 지속성 없음

diagnose

ask-llm-mcp

자가 진단: Node 버전, PATH 확인, 제공업체 CLI 존재 여부 + 버전. 읽기 전용

ping

모두

연결 테스트 — MCP 설정 확인

모든 ask-* 도구는 다중 턴 대화를 위한 선택적 sessionId 매개변수를 허용하며, 이제 사람이 읽을 수 있는 텍스트와 함께 MCP outputSchema를 통해 구조화된 AskResponse(제공업체, 응답, 모델, sessionId, 사용량)를 반환합니다. 오케스트레이터(ask-llm-mcp)는 실시간 JSON 스냅샷을 위해 usage://current-session을 MCP 리소스로 노출합니다.

사용 예시

ask gemini to review the changes in @src/auth.ts for security issues
ask codex to suggest a better algorithm for @src/sort.ts
ask ollama to explain @src/config.ts (runs locally, no data sent anywhere)
use gemini to summarize @. the current directory
use multi-llm to compare what gemini and codex think about this approach

CLI 하위 명령

오케스트레이터 바이너리(ask-llm-mcp)는 기본 MCP 서버와 함께 두 가지 CLI 모드를 지원합니다:

# Interactive multi-provider REPL — switch providers, persist sessions, see usage live
npx ask-llm-mcp repl

# Diagnose your setup — Node version, PATH, provider CLI versions, env vars
npx ask-llm-mcp doctor          # human-readable
npx ask-llm-mcp doctor --json   # machine-readable, exit 1 on error

REPL은 제공업체별 세션을 제공하며(/provider gemini, /provider codex, /new, /sessions, /usage), 모든 실행기 동작(할당량 폴백, Gemini용 stream-json 출력, 기본 세션 재개)을 상속합니다.

모델

제공업체

기본값

폴백

Gemini

gemini-3.1-pro-preview

gemini-3-flash-preview (할당량 초과 시)

Codex

gpt-5.4

gpt-5.4-mini (할당량 초과 시)

Ollama

qwen2.5-coder:7b

qwen2.5-coder:1.5b (찾을 수 없는 경우)

모든 제공업체는 오류 발생 시 자동으로 더 가벼운 모델로 폴백합니다.

문서

기여

기여를 환영합니다! 작업할 내용은 열린 이슈를 참조하세요.

라이선스

MIT 라이선스. 자세한 내용은 LICENSE를 참조하세요.

면책 조항: 이 도구는 비공식 타사 도구이며 Google 또는 OpenAI와 제휴, 보증 또는 후원되지 않습니다.

-
security - not tested
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lykhoyda/ask-gemini-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server