Skip to main content
Glama

🧠 Expert MCP

Statte dein KI-Modell mit einem „jederzeit abrufbaren“ Expertenberater aus.

Wenn das nachgelagerte Modell auf komplexe Probleme stößt, kann es diese über dieses MCP-Tool an ein vorkonfiguriertes fortgeschrittenes Modell (wie GPT-5.5, Claude Opus 4.7 usw.) weiterleiten, um tiefgreifende Analysen und professionelle Ratschläge zu erhalten und diese dann mit der eigenen Einschätzung zu einer endgültigen Antwort zu kombinieren.

Python MCP License GitHub


✨ Funktionen

  • 🔌 OpenAI-kompatibel — Verbindet sich mit jedem Upstream-Endpunkt im OpenAI-Format (OpenAI / DeepSeek / Qwen / vLLM / Ollama usw.)

  • ⚙️ Konfigurationsgesteuert — Alle Parameter werden zentral in config.json verwaltet, keine Codeänderungen erforderlich

  • 📡 Streamable HTTP — Streamfähige HTTP-Übertragung gemäß dem neuesten MCP-Standard, Endpunkt /mcp

  • 🛠️ Umfangreiche Tool-Beschreibungen — Sorgfältig gestaltete description, die das nachgelagerte Modell anleitet, zum richtigen Zeitpunkt aufzurufen

  • 🧩 Dreiteilige Eingabeparameterquestion (erforderlich), context (Hintergrund), focus (Schwerpunkt)

  • 📊 Vollständiges Logging — Anforderungsprotokolle + Token-Nutzungsstatistik zur einfachen Überwachung und Fehlerbehebung


🏗️ Funktionsweise

┌─────────────────────────────────────────────────────────┐
│                      用户 (User)                         │
└───────────────────────────┬─────────────────────────────┘
                            │ 提问
                            ▼
┌─────────────────────────────────────────────────────────┐
│              下游模型 (Claude / GPT / Qwen …)            │
│                                                         │
│   遇到复杂问题?→ 调用 consult_advanced_model 工具       │
└───────────────────────────┬─────────────────────────────┘
                            │ MCP Streamable HTTP
                            ▼
┌─────────────────────────────────────────────────────────┐
│                   Expert MCP Server                     │
│               (本项目 server.py)                        │
└───────────────────────────┬─────────────────────────────┘
                            │ OpenAI API 请求
                            ▼
┌─────────────────────────────────────────────────────────┐
│         上游高级模型 (GPT-5.5、Claude Opus 4.7 …)      │
│                   返回深度分析意见                       │
└─────────────────────────────────────────────────────────┘

📦 Schnellstart

1. Repository klonen

git clone https://github.com/MineJPGcraft/Expert-mcp.git
cd Expert-mcp

2. Abhängigkeiten installieren

pip install -r requirements.txt

Python 3.10+ wird empfohlen; die Installation in einer virtuellen Umgebung ist ratsam.

3. Konfigurationsdatei bearbeiten

Kopiere und bearbeite config.json:

{
  "host": "0.0.0.0",
  "port": 8765,
  "upstream": {
    "base_url": "https://api.openai.com/v1",
    "api_key": "sk-xxxxxxxxxxxxxxxxxxxx",
    "model": "gpt-5.5",
    "temperature": 0.3,
    "max_tokens": 4096,
    "timeout": 120,
    "system_prompt": "你是一位顶尖的资深专家顾问,请对问题进行深入、严谨、可执行的分析。"
  }
}

Die Erläuterungen zu den Konfigurationsoptionen findest du unten unter ⚙️ Konfigurationsreferenz.

4. Dienst starten

python server.py

Wenn du die folgenden Protokolle siehst, war der Start erfolgreich:

2025-xx-xx | INFO    | mcp-advisor | 上游模型: gpt-4o @ https://api.openai.com/v1
2025-xx-xx | INFO    | mcp-advisor | MCP 监听: http://0.0.0.0:8765/mcp

MCP-Endpunkt-Adresse:

http://127.0.0.1:8765/mcp

🔧 Client-Anbindung

Füge in Clients, die MCP Streamable HTTP unterstützen (Cherry Studio, Cline, Claude Code usw.), die folgende Konfiguration hinzu:

{
  "mcpServers": {
    "expert-advisor": {
      "type": "streamableHttp",
      "url": "http://127.0.0.1:8765/mcp"
    }
  }
}

Remote-Bereitstellung? Ersetze 127.0.0.1 durch die tatsächliche IP oder Domain des Servers und stelle sicher, dass die Firewall den entsprechenden Port freigibt.


⚙️ Konfigurationsreferenz

Feld

Typ

Standardwert

Beschreibung

host

string

"0.0.0.0"

Dienst-Listen-Adresse

port

integer

8765

Dienst-Listen-Port

upstream.base_url

string

Basis-URL der Upstream-API (OpenAI-kompatibles Format)

upstream.api_key

string

Upstream-API-Key

upstream.model

string

Upstream-Modellname, z. B. gpt-5.5, claude-opus-4-7

upstream.temperature

float

0.3

Generierungstemperatur; für Analyseaufgaben wird ein niedrigerer Wert empfohlen

upstream.max_tokens

integer

4096

Maximale Token-Anzahl pro Antwort

upstream.timeout

float

120

Timeout für Anfragen in Sekunden

upstream.system_prompt

string

Eingebauter Standardwert

System-Prompt für das fortgeschrittene Modell, vollständig anpassbar

Konfigurationsdatei über Umgebungsvariablen wechseln

MCP_CONFIG=config.prod.json python server.py

🛠️ Tool-Beschreibung

Tools, die vom nachgelagerten Modell aufgerufen werden können:

consult_advanced_model

Parameter

Typ

Erforderlich

Beschreibung

question

string

Die zu beratende Kernfrage, so vollständig und klar wie möglich

context

string

Hintergrundinformationen, wie Code-Snippets, Benutzeranforderungen, bereits versuchte Lösungen usw.

focus

string

Der Schwerpunkt, auf den das fortgeschrittene Modell besonders eingehen soll

Empfohlene Szenarien für den Aufruf:

  • Fragen, bei denen die eigene Sicherheit < 80 % liegt

  • Der Benutzer fordert explizit tiefes Nachdenken / strenge Analyse / die beste Lösung

  • Probleme mit komplexen Abwägungen und mehreren Einschränkungen

  • Mathematik, Algorithmen, Systemdesign, schwierige Bugs, die schrittweises Schlussfolgern erfordern

  • Fälle, in denen die eigenen Schlussfolgerungen zweifach validiert werden müssen

Nicht empfohlene Szenarien für den Aufruf:

  • Einfache Begrüßungen oder reine Informationsabfragen

  • Grundlegende Fragen, deren Antwort offensichtlich ist

  • Häufig wiederkehrende einfache Aufgaben


🌐 Anbindung an Upstream-Dienste

Ändere einfach den upstream-Teil in config.json, um eine Verbindung zu verschiedenen Dienstanbietern herzustellen.

📋 Abhängigkeiten

mcp>=1.2.0
openai>=1.40.0

📄 Lizenz

MIT License © 2026 MCJPG

A
license - permissive license
-
quality - not tested
C
maintenance

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/MineJPGcraft/Expert-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server