ask-gemini-mcp
Ask LLM
패키지 | 유형 | 버전 | 다운로드 |
MCP 서버 | |||
MCP 서버 | |||
MCP 서버 | |||
MCP 서버 | |||
Claude Code 플러그인 |
|
AI 간 협업을 위한 MCP 서버 + Claude Code 플러그인
AI 클라이언트와 여러 LLM 제공업체를 연결하여 AI 간 협업을 지원하는 MCP 서버입니다. Claude Code, Claude Desktop, Cursor, Warp, Copilot 및 40개 이상의 다른 MCP 클라이언트와 작동합니다. 표준 MCP를 통해 Gemini의 100만 개 이상의 토큰 컨텍스트, Codex의 GPT-5.4 또는 로컬 Ollama 모델을 활용하세요.
왜 사용하는가?
제2의 의견 구하기 — 커밋하기 전에 다른 AI에게 코딩 접근 방식을 검토하도록 요청하세요.
계획 토론 — 아키텍처 제안을 보내 비판과 대안을 제안받으세요.
변경 사항 검토 — 여러 AI가 diff를 분석하게 하여 기본 AI가 놓칠 수 있는 문제를 포착하세요.
방대한 컨텍스트 — Gemini는 다른 모델에서는 넘쳐날 전체 코드베이스(100만 개 이상의 토큰)를 읽을 수 있습니다.
로컬 및 비공개 — 데이터가 기기를 떠나지 않는 검토를 위해 Ollama를 사용하세요.
빠른 시작
Claude Code
# All-in-one — auto-detects installed providers
claude mcp add --scope user ask-llm -- npx -y ask-llm-mcpclaude mcp add --scope user gemini -- npx -y ask-gemini-mcp
claude mcp add --scope user codex -- npx -y ask-codex-mcp
claude mcp add --scope user ollama -- npx -y ask-ollama-mcpClaude Desktop
claude_desktop_config.json에 추가:
{
"mcpServers": {
"ask-llm": {
"command": "npx",
"args": ["-y", "ask-llm-mcp"]
}
}
}{
"mcpServers": {
"gemini": {
"command": "npx",
"args": ["-y", "ask-gemini-mcp"]
},
"codex": {
"command": "npx",
"args": ["-y", "ask-codex-mcp"]
},
"ollama": {
"command": "npx",
"args": ["-y", "ask-ollama-mcp"]
}
}
}Cursor (.cursor/mcp.json):
{
"mcpServers": {
"ask-llm": { "command": "npx", "args": ["-y", "ask-llm-mcp"] }
}
}Codex CLI (~/.codex/config.toml):
[mcp_servers.ask-llm]
command = "npx"
args = ["-y", "ask-llm-mcp"]모든 MCP 클라이언트 (STDIO 전송):
{ "command": "npx", "args": ["-y", "ask-llm-mcp"] }단일 제공업체의 경우 ask-llm-mcp를 ask-gemini-mcp, ask-codex-mcp 또는 ask-ollama-mcp로 바꾸세요.
Claude Code 플러그인
Ask LLM 플러그인은 Claude Code에 다중 제공업체 코드 검토, 브레인스토밍 및 자동화된 후크를 직접 추가합니다:
/plugin marketplace add Lykhoyda/ask-llm
/plugin install ask-llm@ask-llm-plugins제공 기능
기능 | 설명 |
| 4단계 검증 파이프라인과 합의 강조 기능이 포함된 Gemini + Codex 병렬 검토 |
| 신뢰도 필터링이 포함된 Gemini 전용 검토 |
| 신뢰도 필터링이 포함된 Codex 전용 검토 |
| 로컬 검토 — 데이터가 기기를 떠나지 않음 |
| 다중 LLM 브레인스토밍: Claude Opus가 외부 제공업체(Gemini/Codex/Ollama)와 병렬로 실제 파일에 대해 주제를 조사한 다음, 검증된 결과를 더 높은 가중치로 종합 |
| 여러 제공업체의 원시 응답을 나란히 비교(종합 없음) — 각 제공업체가 동일한 답변을 어떻게 표현하는지 확인하고 싶을 때 사용 |
Pre-commit hook |
|
검토 에이전트는 Anthropic의 코드 검토 플러그인에서 영감을 받은 4단계 파이프라인(컨텍스트 수집, 명시적 오탐지 제외가 포함된 프롬프트 구성, 종합, 각 결과의 소스 수준 검증)을 사용합니다.
자세한 내용은 플러그인 문서를 참조하세요.
필수 조건
Node.js v20.0.0 이상 (LTS)
최소 하나의 제공업체:
Gemini CLI —
npm install -g @google/gemini-cli && gemini loginCodex CLI — 설치 및 인증 완료
Ollama — 모델을 가져온 상태로 로컬에서 실행 중 (
ollama pull qwen2.5-coder:7b)
MCP 도구
도구 | 패키지 | 목적 |
| ask-gemini-mcp |
|
| ask-gemini-mcp | Gemini로부터 구조화된 OLD/NEW 코드 편집 블록 가져오기 |
| ask-gemini-mcp | 캐시된 대규모 응답에서 청크 검색 |
| ask-codex-mcp | Codex CLI에 프롬프트 전송. 미니 폴백이 포함된 GPT-5.4. |
| ask-ollama-mcp | 로컬 Ollama에 프롬프트 전송. 완전 비공개, 비용 제로. |
| ask-llm-mcp | 통합 오케스트레이터 — 호출당 제공업체 선택. 설치된 모든 제공업체로 팬아웃 |
| ask-llm-mcp | 동일한 프롬프트를 여러 제공업체에 병렬로 전달; 한 번의 호출로 제공업체별 응답 + 사용량 반환 |
| 모두 | 세션별 토큰 합계, 폴백 횟수, 제공업체/모델별 분석 — 모두 메모리 내, 지속성 없음 |
| ask-llm-mcp | 자가 진단: Node 버전, PATH 확인, 제공업체 CLI 존재 여부 + 버전. 읽기 전용 |
| 모두 | 연결 테스트 — MCP 설정 확인 |
모든 ask-* 도구는 다중 턴 대화를 위한 선택적 sessionId 매개변수를 허용하며, 이제 사람이 읽을 수 있는 텍스트와 함께 MCP outputSchema를 통해 구조화된 AskResponse(제공업체, 응답, 모델, sessionId, 사용량)를 반환합니다. 오케스트레이터(ask-llm-mcp)는 실시간 JSON 스냅샷을 위해 usage://current-session을 MCP 리소스로 노출합니다.
사용 예시
ask gemini to review the changes in @src/auth.ts for security issues
ask codex to suggest a better algorithm for @src/sort.ts
ask ollama to explain @src/config.ts (runs locally, no data sent anywhere)
use gemini to summarize @. the current directory
use multi-llm to compare what gemini and codex think about this approachCLI 하위 명령
오케스트레이터 바이너리(ask-llm-mcp)는 기본 MCP 서버와 함께 두 가지 CLI 모드를 지원합니다:
# Interactive multi-provider REPL — switch providers, persist sessions, see usage live
npx ask-llm-mcp repl
# Diagnose your setup — Node version, PATH, provider CLI versions, env vars
npx ask-llm-mcp doctor # human-readable
npx ask-llm-mcp doctor --json # machine-readable, exit 1 on errorREPL은 제공업체별 세션을 제공하며(/provider gemini, /provider codex, /new, /sessions, /usage), 모든 실행기 동작(할당량 폴백, Gemini용 stream-json 출력, 기본 세션 재개)을 상속합니다.
모델
제공업체 | 기본값 | 폴백 |
Gemini |
|
|
Codex |
|
|
Ollama |
|
|
모든 제공업체는 오류 발생 시 자동으로 더 가벼운 모델로 폴백합니다.
문서
문서 사이트: lykhoyda.github.io/ask-llm
AI 읽기 가능: llms.txt | llms-full.txt
기여
기여를 환영합니다! 작업할 내용은 열린 이슈를 참조하세요.
라이선스
MIT 라이선스. 자세한 내용은 LICENSE를 참조하세요.
면책 조항: 이 도구는 비공식 타사 도구이며 Google 또는 OpenAI와 제휴, 보증 또는 후원되지 않습니다.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/Lykhoyda/ask-gemini-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server