Expert MCP
🧠 Expert MCP
AI 모델에게 "언제든 물어볼 수 있는" 고급 전문가 컨설턴트를 붙여주세요.
하위 모델이 복잡한 문제에 직면했을 때, 이 MCP 도구를 통해 미리 구성된 고급 모델(예: GPT-5.5, Claude Opus 4.7 등)로 질문을 전달하여 심층 분석과 전문적인 조언을 얻고, 이를 자체 판단과 결합하여 최종 답변을 제공할 수 있습니다.
✨ 주요 기능
🔌 OpenAI 호환 — 모든 OpenAI 형식의 업스트림 엔드포인트(OpenAI / DeepSeek / Qwen / vLLM / Ollama 등)와 연동 가능
⚙️ 설정 파일 기반 — 모든 매개변수를
config.json에서 중앙 집중식으로 관리하며, 코드 수정 불필요📡 Streamable HTTP — 최신 MCP 표준을 준수하는 스트리밍 HTTP 전송, 엔드포인트
/mcp🛠️ 풍부한 도구 설명 — 하위 모델이 적절한 시점에 호출하도록 정교하게 설계된
description🧩 3단계 입력 매개변수 —
question(필수),context(배경),focus(중점 방향)📊 전체 로그 — 요청 로그 + 토큰 사용량 통계, 모니터링 및 문제 해결 용이
🏗️ 작동 원리
┌─────────────────────────────────────────────────────────┐
│ 用户 (User) │
└───────────────────────────┬─────────────────────────────┘
│ 提问
▼
┌─────────────────────────────────────────────────────────┐
│ 下游模型 (Claude / GPT / Qwen …) │
│ │
│ 遇到复杂问题?→ 调用 consult_advanced_model 工具 │
└───────────────────────────┬─────────────────────────────┘
│ MCP Streamable HTTP
▼
┌─────────────────────────────────────────────────────────┐
│ Expert MCP Server │
│ (本项目 server.py) │
└───────────────────────────┬─────────────────────────────┘
│ OpenAI API 请求
▼
┌─────────────────────────────────────────────────────────┐
│ 上游高级模型 (GPT-5.5、Claude Opus 4.7 …) │
│ 返回深度分析意见 │
└─────────────────────────────────────────────────────────┘📦 빠른 시작
1. 저장소 복제
git clone https://github.com/MineJPGcraft/Expert-mcp.git
cd Expert-mcp2. 의존성 설치
pip install -r requirements.txtPython 3.10+ 사용을 권장하며, 가상 환경에 설치하는 것이 좋습니다.
3. 설정 파일 편집
config.json을 복사하고 수정하세요:
{
"host": "0.0.0.0",
"port": 8765,
"upstream": {
"base_url": "https://api.openai.com/v1",
"api_key": "sk-xxxxxxxxxxxxxxxxxxxx",
"model": "gpt-5.5",
"temperature": 0.3,
"max_tokens": 4096,
"timeout": 120,
"system_prompt": "你是一位顶尖的资深专家顾问,请对问题进行深入、严谨、可执行的分析。"
}
}설정 항목에 대한 설명은 아래 ⚙️ 설정 참조를 확인하세요.
4. 서비스 시작
python server.py다음과 같은 로그가 보이면 성공적으로 시작된 것입니다:
2025-xx-xx | INFO | mcp-advisor | 上游模型: gpt-4o @ https://api.openai.com/v1
2025-xx-xx | INFO | mcp-advisor | MCP 监听: http://0.0.0.0:8765/mcpMCP 엔드포인트 주소:
http://127.0.0.1:8765/mcp🔧 클라이언트 연결
MCP Streamable HTTP를 지원하는 클라이언트(Cherry Studio, Cline, Claude Code 등)에 다음 설정을 추가하세요:
{
"mcpServers": {
"expert-advisor": {
"type": "streamableHttp",
"url": "http://127.0.0.1:8765/mcp"
}
}
}원격 배포인가요?
127.0.0.1을 서버의 실제 IP 또는 도메인으로 교체하고 방화벽에서 해당 포트가 열려 있는지 확인하세요.
⚙️ 설정 참조
필드 | 타입 | 기본값 | 설명 |
| string |
| 서비스 수신 주소 |
| integer |
| 서비스 수신 포트 |
| string | — | 업스트림 API의 base URL (OpenAI 호환 형식) |
| string | — | 업스트림 API Key |
| string | — | 업스트림 모델 이름 (예: |
| float |
| 생성 온도, 분석 작업 시 낮은 값을 유지하는 것을 권장 |
| integer |
| 1회 응답당 최대 토큰 수 |
| float |
| 요청 타임아웃(초) |
| string | 내장 기본값 | 고급 모델의 시스템 프롬프트, 완전히 사용자 정의 가능 |
환경 변수를 사용하여 설정 파일 전환
MCP_CONFIG=config.prod.json python server.py🛠️ 도구 설명
하위 모델이 호출할 수 있는 도구:
consult_advanced_model
매개변수 | 타입 | 필수 | 설명 |
| string | ✅ | 상담할 핵심 질문, 최대한 완전하고 명확하게 작성 |
| string | ❌ | 배경 정보 (예: 코드 조각, 사용자 요구사항, 시도한 해결책 등) |
| string | ❌ | 고급 모델이 중점적으로 답변해주길 바라는 방향 |
권장 호출 시나리오:
스스로 판단하기에 확신이 80% 미만인 문제
사용자가 명확하게 심층 사고 / 엄격한 분석 / 최적의 솔루션을 요구하는 경우
복잡한 트레이드오프가 포함된 다중 제약 조건 문제
단계별 추론이 필요한 수학, 알고리즘, 시스템 설계, 난해한 버그
자신의 결론을 재검증해야 하는 경우
비권장 호출 시나리오:
단순 인사나 순수한 정보 조회
답이 명백한 기초적인 문제
고빈도로 반복되는 단순 작업
🌐 업스트림 서비스 연동
config.json의 upstream 부분만 수정하면 다양한 서비스 제공업체와 연동할 수 있습니다.
📋 의존성
mcp>=1.2.0
openai>=1.40.0📄 라이선스
MIT License © 2026 MCJPG
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/MineJPGcraft/Expert-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server