Expert MCP
🧠 Expert MCP
Statte dein KI-Modell mit einem „jederzeit abrufbaren“ Expertenberater aus.
Wenn das nachgelagerte Modell auf komplexe Probleme stößt, kann es diese über dieses MCP-Tool an ein vorkonfiguriertes fortgeschrittenes Modell (wie GPT-5.5, Claude Opus 4.7 usw.) weiterleiten, um tiefgreifende Analysen und professionelle Ratschläge zu erhalten und diese dann mit der eigenen Einschätzung zu einer endgültigen Antwort zu kombinieren.
✨ Funktionen
🔌 OpenAI-kompatibel — Verbindet sich mit jedem Upstream-Endpunkt im OpenAI-Format (OpenAI / DeepSeek / Qwen / vLLM / Ollama usw.)
⚙️ Konfigurationsgesteuert — Alle Parameter werden zentral in
config.jsonverwaltet, keine Codeänderungen erforderlich📡 Streamable HTTP — Streamfähige HTTP-Übertragung gemäß dem neuesten MCP-Standard, Endpunkt
/mcp🛠️ Umfangreiche Tool-Beschreibungen — Sorgfältig gestaltete
description, die das nachgelagerte Modell anleitet, zum richtigen Zeitpunkt aufzurufen🧩 Dreiteilige Eingabeparameter —
question(erforderlich),context(Hintergrund),focus(Schwerpunkt)📊 Vollständiges Logging — Anforderungsprotokolle + Token-Nutzungsstatistik zur einfachen Überwachung und Fehlerbehebung
🏗️ Funktionsweise
┌─────────────────────────────────────────────────────────┐
│ 用户 (User) │
└───────────────────────────┬─────────────────────────────┘
│ 提问
▼
┌─────────────────────────────────────────────────────────┐
│ 下游模型 (Claude / GPT / Qwen …) │
│ │
│ 遇到复杂问题?→ 调用 consult_advanced_model 工具 │
└───────────────────────────┬─────────────────────────────┘
│ MCP Streamable HTTP
▼
┌─────────────────────────────────────────────────────────┐
│ Expert MCP Server │
│ (本项目 server.py) │
└───────────────────────────┬─────────────────────────────┘
│ OpenAI API 请求
▼
┌─────────────────────────────────────────────────────────┐
│ 上游高级模型 (GPT-5.5、Claude Opus 4.7 …) │
│ 返回深度分析意见 │
└─────────────────────────────────────────────────────────┘📦 Schnellstart
1. Repository klonen
git clone https://github.com/MineJPGcraft/Expert-mcp.git
cd Expert-mcp2. Abhängigkeiten installieren
pip install -r requirements.txtPython 3.10+ wird empfohlen; die Installation in einer virtuellen Umgebung ist ratsam.
3. Konfigurationsdatei bearbeiten
Kopiere und bearbeite config.json:
{
"host": "0.0.0.0",
"port": 8765,
"upstream": {
"base_url": "https://api.openai.com/v1",
"api_key": "sk-xxxxxxxxxxxxxxxxxxxx",
"model": "gpt-5.5",
"temperature": 0.3,
"max_tokens": 4096,
"timeout": 120,
"system_prompt": "你是一位顶尖的资深专家顾问,请对问题进行深入、严谨、可执行的分析。"
}
}Die Erläuterungen zu den Konfigurationsoptionen findest du unten unter ⚙️ Konfigurationsreferenz.
4. Dienst starten
python server.pyWenn du die folgenden Protokolle siehst, war der Start erfolgreich:
2025-xx-xx | INFO | mcp-advisor | 上游模型: gpt-4o @ https://api.openai.com/v1
2025-xx-xx | INFO | mcp-advisor | MCP 监听: http://0.0.0.0:8765/mcpMCP-Endpunkt-Adresse:
http://127.0.0.1:8765/mcp🔧 Client-Anbindung
Füge in Clients, die MCP Streamable HTTP unterstützen (Cherry Studio, Cline, Claude Code usw.), die folgende Konfiguration hinzu:
{
"mcpServers": {
"expert-advisor": {
"type": "streamableHttp",
"url": "http://127.0.0.1:8765/mcp"
}
}
}Remote-Bereitstellung? Ersetze
127.0.0.1durch die tatsächliche IP oder Domain des Servers und stelle sicher, dass die Firewall den entsprechenden Port freigibt.
⚙️ Konfigurationsreferenz
Feld | Typ | Standardwert | Beschreibung |
| string |
| Dienst-Listen-Adresse |
| integer |
| Dienst-Listen-Port |
| string | — | Basis-URL der Upstream-API (OpenAI-kompatibles Format) |
| string | — | Upstream-API-Key |
| string | — | Upstream-Modellname, z. B. |
| float |
| Generierungstemperatur; für Analyseaufgaben wird ein niedrigerer Wert empfohlen |
| integer |
| Maximale Token-Anzahl pro Antwort |
| float |
| Timeout für Anfragen in Sekunden |
| string | Eingebauter Standardwert | System-Prompt für das fortgeschrittene Modell, vollständig anpassbar |
Konfigurationsdatei über Umgebungsvariablen wechseln
MCP_CONFIG=config.prod.json python server.py🛠️ Tool-Beschreibung
Tools, die vom nachgelagerten Modell aufgerufen werden können:
consult_advanced_model
Parameter | Typ | Erforderlich | Beschreibung |
| string | ✅ | Die zu beratende Kernfrage, so vollständig und klar wie möglich |
| string | ❌ | Hintergrundinformationen, wie Code-Snippets, Benutzeranforderungen, bereits versuchte Lösungen usw. |
| string | ❌ | Der Schwerpunkt, auf den das fortgeschrittene Modell besonders eingehen soll |
Empfohlene Szenarien für den Aufruf:
Fragen, bei denen die eigene Sicherheit < 80 % liegt
Der Benutzer fordert explizit tiefes Nachdenken / strenge Analyse / die beste Lösung
Probleme mit komplexen Abwägungen und mehreren Einschränkungen
Mathematik, Algorithmen, Systemdesign, schwierige Bugs, die schrittweises Schlussfolgern erfordern
Fälle, in denen die eigenen Schlussfolgerungen zweifach validiert werden müssen
Nicht empfohlene Szenarien für den Aufruf:
Einfache Begrüßungen oder reine Informationsabfragen
Grundlegende Fragen, deren Antwort offensichtlich ist
Häufig wiederkehrende einfache Aufgaben
🌐 Anbindung an Upstream-Dienste
Ändere einfach den upstream-Teil in config.json, um eine Verbindung zu verschiedenen Dienstanbietern herzustellen.
📋 Abhängigkeiten
mcp>=1.2.0
openai>=1.40.0📄 Lizenz
MIT License © 2026 MCJPG
This server cannot be installed
Resources
Unclaimed servers have limited discoverability.
Looking for Admin?
If you are the server author, to access and configure the admin panel.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/MineJPGcraft/Expert-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server