Skip to main content
Glama

🔗 Inhaltsverzeichnis

  1. ✨ Highlights

  2. ⚡️ Schnellstart

  3. 🛠️ Tool-Flow

  4. 🤝 Codex-Integration

  5. ⚙️ Konfiguration

  6. 🏗️ Architektur

  7. 🧪 Entwicklungs-Workflow

  8. 🧩 Troubleshooting

  9. 📜 Lizenz


✨ Highlights

  • 🧠 Mehrstufige Advisor-Pipeline: 3 kostenlose OpenRouter-Codingmodelle + automatische Premium-Fallbacks bei Rate-Limits.

  • 🤖 Codex-native Instruktionen: MCP Instructions erklären dem Agent genau, wann das Tool sinnvoll ist.

  • 📉 Kosten- & Latenz-Telemetrie: Jede Antwort liefert Token-Usage + Antwortzeit direkt an Codex zurück.

  • npx npx @meinzeug/mcp-ai-bug-helper reicht – kein Clonen erforderlich.

  • 🔐 Secretsafe: .env + dotenv für API Keys, keine versehentlichen Commits.


⚡️ Schnellstart

Option A – Zero Install via npx

export OPENROUTER_API_KEY=sk-or-v1-... # einmalig setzen npx @meinzeug/mcp-ai-bug-helper

Option B – Lokal entwickeln

git clone https://github.com/meinzeug/mcp-ai-bug-helper.git cd mcp-ai-bug-helper npm install cp .env.example .env && $EDITOR .env # Key eintragen npm run dev

💡 npm run dev startet den MCP-Server via ts-node und streamt Logs – perfekt zum Debuggen.

📦 Veröffentlichtes Paket: @meinzeug/mcp-ai-bug-helper – überprüfbar mit npm view @meinzeug/mcp-ai-bug-helper.


🛠️ Tool-Flow

Phase

Beschreibung

🔍 Analyse

ask-coding-advisors

nimmt

question

+ optional

context

entgegen (Stacktraces, Diffs, Logs).

🧑‍💻 Advisor-Fächer

qwen/qwen3-coder:free

,

qwen/qwen-2.5-coder-32b-instruct:free

,

agentica-org/deepcoder-14b-preview:free

.

🚨 Fallback-Trigger

Erstes HTTP 429 schaltet auf Premium-Rotation:

anthropic/claude-3.7-sonnet

,

mistralai/codestral-2508

.

📊 Response-Payload

Drei unabhängige Antworten + Latency + Token-Stats + Hinweis, ob Fallback aktiv war.

Adaptive Modellwahl

  • 🔎 Jeder Prompt wird analysiert (Keywords für React/Go/infra/LLM etc.), daraus entstehen ScenarioTags (z. B. frontend, node, go).

  • 🤖 Für jeden Tag gibt es passende Modelle mit hinterlegten Stärken und Zuverlässigkeitsskalen (platinum/gold/silver).

  • ✅ Vor jedem Call prüft der Server über GET /api/v1/models, ob das Modell beim Account verfügbar ist. Modelle mit 404/500 werden für einige Minuten automatisch gesperrt.

  • 💳 Wenn kein gesundes Free-Modell verfügbar ist oder ein 429 zurückkommt, wird automatisch auf Premium-Fallbacks (Claude, Codestral, GPT-5.1 Codex) gewechselt.

sequenceDiagram participant Codex participant MCP as MCP Server participant OR as OpenRouter Codex->>MCP: call ask-coding-advisors(question, context) loop 3 advisors MCP->>OR: chat(model=free[i]) alt HTTP 429 MCP->>OR: chat(model=paid[j]) end OR-->>MCP: text + usage + latency MCP-->>Codex: stream advisor result end

🤝 Codex-Integration

  1. Server in Codex registrieren

    codex mcp add coding-advisors \ --env "OPENROUTER_API_KEY=sk-or-v1-..." \ npx @meinzeug/mcp-ai-bug-helper # Syntax entspricht auch anderen MCP-Beispielen wie # codex mcp add chrome-devtools -- npx chrome-devtools-mcp@latest
  2. Verifizieren

    codex mcp list | grep coding-advisors
  3. Im Prompt nutzen

    • /toolsask-coding-advisors

    • oder direkt mit @ask-coding-advisors im Prompt.

📎 Wenn du lieber aus dem Repo startest: --cmd "node" --args "dist/server.js" verwenden.

Andere MCP-Clients

  • Claude Code: Anthropic beschreibt in den Claude-Code-MCP-Docs exakt den gleichen stdio-/HTTP-Mechanismus. Du kannst denselben Befehl wie oben benutzen (oder einen claude.json-Eintrag), und die Tools erscheinen dort unter /mcp bzw. @ask-coding-advisors.

  • Sonstige IDEs: Jede Umgebung, die MCP spricht (z. B. VS Code-Extensions, Cursor, Eigene Agenten), kann denselben Server starten. Wichtig ist nur, dass OPENROUTER_API_KEY gesetzt ist und der Prozess via stdio oder TCP erreichbar ist.

Schnellbefehle für gängige Clients

  • Amp CLIamp mcp add coding-advisors -- npx @meinzeug/mcp-ai-bug-helper

  • Claude Code CLIclaude mcp add coding-advisors npx @meinzeug/mcp-ai-bug-helper

  • Codex CLIcodex mcp add coding-advisors --env "OPENROUTER_API_KEY=sk-or-v1-..." npx @meinzeug/mcp-ai-bug-helper

  • Copilot CLI/mcp add → Name coding-advisors, Command npx @meinzeug/mcp-ai-bug-helper

  • VS Code / Copilotcode --add-mcp '{"name":"coding-advisors","command":"npx","args":["@meinzeug/mcp-ai-bug-helper"]}'

  • Cursor / Amp / Cline / Kiro / Qoder / Warp / Windsurf / JetBrains AI / Gemini / Droid (Factory CLI) – überall einfach denselben Command + Name übernehmen; falls der Client eine Konfigurationsdatei verlangt, setzt du command = "npx", args = ["@meinzeug/mcp-ai-bug-helper"] und ergänzt OPENROUTER_API_KEY in der jeweiligen env-Sektion. Mobile Beispiele findest du in deren MCP-Handbüchern (Links: Amp, Cline, Gemini CLI, JetBrains AI Assistant).

  • Windows 11 & Codex – falls npx Chrome oder Node aus Program Files laden muss, ergänze in ~/.codex/config.toml:

    [mcp_servers.coding-advisors] command = "cmd" args = ["/c", "npx", "@meinzeug/mcp-ai-bug-helper"] env = { SystemRoot="C:\\Windows", PROGRAMFILES="C:\\Program Files", OPENROUTER_API_KEY="sk-or-v1-..." } startup_timeout_ms = 20_000

⚙️ Konfiguration

Variable

Pflicht

Beschreibung

OPENROUTER_API_KEY

Persönlicher OpenRouter Key (liegt in

.env

).

OPENROUTER_APP_NAME

⛔ optional

Eigener Analytics-Tag (Default:

MCP AI Bug Helper

).

OPENROUTER_REFERRER

⛔ optional

Referrer-URL für OpenRouter-Dashboard.

.env.example liefert ein Template. Für Mehrfach-Workspaces einfach mehrere .env Dateien pflegen und vor dem Start sourcen.


🏗️ Architektur

  • Transport: @modelcontextprotocol/sdk + StdioServerTransport

  • Domainlogik: CodingAdvisorCoordinator orchestriert freie + paid Modelle.

  • HTTP-Layer: OpenRouterClient (native fetch, Retry auf Rate-Limits, Usage-Mapping).

  • Config: config.ts liest .env, assertConfig() schützt vor fehlendem Key.

  • Packaging: Scoped npm Modul, bindist/server.js, prepare/postbuild erzeugen ausführbares Artefakt.

src/ ├─ server.ts # MCP Bootstrap + Tool Definition ├─ codingAdvisors.ts # Sequencer + Fallback-Rotation ├─ openrouterClient.ts # REST Wrapper + Error Handling ├─ modelCatalog.ts # Liste freier & paid Modelle ├─ config.ts # dotenv + Validation └─ errors.ts / types.ts # Hilfsklassen & DTOs

🧪 Entwicklungs-Workflow

Script

Zweck

npm run dev

MCP Server mit

ts-node

(Logs in Echtzeit).

npm run build

TypeScript Build +

.d.ts

+ Sourcemaps +

postbuild chmod

.

npm run typecheck

Schneller TS-Check ohne Emit.

npm start

Führt das gebaute CLI (

dist/server.js

).

npm run scenarios

Führt reale OpenRouter-Tests auf mehreren Debug-Szenarien aus (filterbar via

SCENARIO=react

).

Bei Veröffentlichung sorgt npm publish automatisch für frische Builds (via prepare).


🧩 Troubleshooting

  • Missing OPENROUTER_API_KEY.env nicht geladen? Terminal neu starten oder source .env.

  • 429 Too Many Requests – Die App schwenkt automatisch auf die Premiumliste. Wenn alles blockiert ist, hilft nur Warten oder eigener OpenRouter-Plan.

  • codex mcp add ... – Prüfe, ob codex Zugriff auf npx hat (Pfad) oder wechsle auf direkten node dist/server.js Befehl.

  • Keine Antworten im Codex-UInpm run dev separat starten und schauen, ob Requests ankommen (stdout).


📜 Lizenz

MIT © meinzeug – Mit Liebe für MCP + Codex gebaut. Contributions willkommen! 🎉

Deploy Server
A
security – no known vulnerabilities
F
license - not found
A
quality - confirmed to work

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/meinzeug/mcp-ai-bug-helper'

If you have feedback or need assistance with the MCP directory API, please join our Discord server