Skip to main content
Glama

intercept-mcp

Gib deiner KI die Fähigkeit, das Web zu lesen. Ein Befehl, keine API-Schlüssel erforderlich.

Ohne dieses Tool erhält deine KI beim Aufruf einer URL oft einen 403-Fehler, eine Blockade oder eine Wand aus rohem HTML. Mit intercept erhält sie fast immer den Inhalt — sauberes Markdown, sofort einsatzbereit.

Unterstützt Tweets, YouTube-Videos (mit Transkripten, falls verfügbar), arXiv-Paper, PDFs, Wikipedia-Artikel und GitHub-Repos. Wenn die erste Strategie fehlschlägt, versucht es bis zu 10 weitere, bevor es aufgibt.

Funktioniert mit jedem MCP-Client: Claude Code, Claude Desktop, Codex, Cursor, Windsurf, Cline und mehr.

Installation

Claude Code

claude mcp add intercept -s user -- npx -y intercept-mcp

Codex

codex mcp add intercept -- npx -y intercept-mcp

Cursor

Einstellungen → MCP → Server hinzufügen:

{
  "mcpServers": {
    "intercept": {
      "command": "npx",
      "args": ["-y", "intercept-mcp"]
    }
  }
}

Windsurf

Einstellungen → MCP → Server hinzufügen → gleiche JSON-Konfiguration wie oben.

Claude Desktop

Füge dies zu deiner claude_desktop_config.json hinzu:

{
  "mcpServers": {
    "intercept": {
      "command": "npx",
      "args": ["-y", "intercept-mcp"]
    }
  }
}

Andere MCP-Clients

Jeder Client, der stdio-MCP-Server unterstützt, kann npx -y intercept-mcp ausführen.

Für das fetch-Tool sind keine API-Schlüssel erforderlich.

Funktionsweise

URLs werden in drei Stufen verarbeitet:

1. Seitenspezifische Handler

Bekannte URL-Muster werden vor der Fallback-Pipeline an dedizierte Handler weitergeleitet:

Muster

Handler

Ergebnis

twitter.com/*/status/*, x.com/*/status/*

Twitter/X

Tweet-Text, Autor, Medien, Engagement-Statistiken (über Drittanbieter-APIs)

youtube.com/watch?v=*, youtu.be/*

YouTube

Titel, Kanal, Dauer, Aufrufe, Beschreibung, Transkript (wenn Untertitel verfügbar)

arxiv.org/abs/*, arxiv.org/pdf/*

arXiv

Paper-Metadaten, Autoren, Abstract, Kategorien

*.pdf

PDF

Extrahierter Text (nur bei PDFs mit Textebene)

*.wikipedia.org/wiki/*

Wikipedia

Sauberer Artikelinhalt über die Wikimedia REST API

github.com/{owner}/{repo}

GitHub

Roher README.md-Inhalt

2. Fallback-Pipeline

Wenn kein Handler übereinstimmt (oder der Handler nichts zurückgibt), durchläuft die URL die mehrstufige Pipeline:

Stufe

Fetcher

Strategie

1

Cloudflare Browser Rendering

JS-Rendering + Markdown-Extraktion (optional, benötigt API-Token)

1

Jina Reader

Dienst zur Extraktion von sauberem Markdown

2

Wayback + Codetabs

Archivierte Version + CORS-Proxy (parallel ausgeführt)

3

Raw fetch

Direkter GET mit Browser-Headern + Turndown Markdown-Konvertierung

3

Stealth fetch

Browser-TLS-Fingerabdruck-Imitation via got-scraping (opt-in, siehe unten)

4

RSS, CrossRef, Semantic Scholar, HN, Reddit

Metadaten / Diskussions-Fallbacks

5

OG Meta

Open Graph Tags (garantierter Fallback)

Stufe-2-Fetcher laufen parallel. Wenn beide erfolgreich sind, gewinnt das qualitativ hochwertigere Ergebnis. Alle anderen Stufen laufen sequenziell.

Alle Fetcher geben korrektes Markdown (Überschriften, Links, Fettgedrucktes, Tabellen, Codeblöcke) via Turndown zurück — keinen reinen Text.

3. Caching

Ergebnisse werden im Arbeitsspeicher mit TTL zwischengespeichert (30 Min. für Erfolge, 5 Min. für Fehler). Maximal 100 Einträge mit LRU-Verdrängung. Fehlgeschlagene URLs werden zwischengespeichert, um erneute Versuche bei bekannten toten URLs zu vermeiden.

Tools

fetch

Ruft eine URL ab und gibt deren Inhalt als sauberes Markdown zurück.

  • url (string, erforderlich) — Abzurufende URL

  • maxTier (number, optional, 1-5) — Stoppt bei dieser Stufe für geschwindigkeitskritische Fälle

Durchsucht das Web und gibt Ergebnisse zurück.

  • query (string, erforderlich) — Suchanfrage

  • count (number, optional, 1-20, Standard 5) — Anzahl der Ergebnisse

Verwendet die Brave Search API, falls BRAVE_API_KEY gesetzt ist, dann SearXNG, falls SEARXNG_URL gesetzt ist, und schließlich DuckDuckGo als unzuverlässigen letzten Ausweg.

Prompts

research-topic

Sucht nach einem Thema und ruft die Top-Ergebnisse für eine Zusammenfassung aus mehreren Quellen ab.

  • topic (string) — Das zu recherchierende Thema

  • depth (string, Standard "3") — Anzahl der abzurufenden Top-Ergebnisse

extract-article

Ruft eine URL ab und extrahiert die Kernpunkte aus dem Inhalt.

  • url (string) — Die abzurufende und zusammenzufassende URL

Umgebungsvariablen

Variable

Erforderlich

Beschreibung

BRAVE_API_KEY

Nein

Brave Search API Schlüssel für die Suche

SEARXNG_URL

Nein

URL einer selbst gehosteten SearXNG-Instanz (empfohlen)

CF_API_TOKEN

Nein

Cloudflare API-Token mit "Browser Rendering - Edit"-Berechtigung

CF_ACCOUNT_ID

Nein

Cloudflare Account-ID (erforderlich, wenn CF_API_TOKEN gesetzt ist)

USE_STEALTH_FETCH

Nein

Auf true setzen, um den Stealth-Fetcher zu aktivieren (siehe Warnung unten)

Suche: Verfügt über einen DuckDuckGo-Fallback, dieser ist jedoch ratenbegrenzt und unzuverlässig. Für den produktiven Einsatz hoste SearXNG selbst und setze SEARXNG_URL (siehe unten) oder besorge dir einen Brave Search API-Schlüssel.

Fetch: Funktioniert ohne Schlüssel. Setze CF_API_TOKEN + CF_ACCOUNT_ID, um Cloudflare Browser Rendering für JavaScript-lastige Seiten (SPAs, React-Seiten) zu aktivieren.

Stealth fetch (USE_STEALTH_FETCH)

Nutzung auf eigene Gefahr. Wenn aktiviert, fügt dies einen Fetcher hinzu, der echte Browser-TLS-Fingerabdrücke (Chrome/Firefox Cipher Suites, HTTP/2-Einstellungen, Header-Reihenfolge) mittels got-scraping imitiert. Dies kann Bot-Erkennung und CAPTCHA-Auslöser auf Seiten umgehen, die automatisierte Anfragen sonst blockieren würden.

Dieser Fetcher läuft in Stufe 3 nach dem regulären Raw-Fetch. Wenn der Raw-Fetch blockiert wird (CAPTCHA, Cloudflare-Challenge, 403), versucht es der Stealth-Fetcher mit Browser-Imitation erneut.

Dies kann gegen die Nutzungsbedingungen einiger Websites verstoßen. Die Autoren von intercept-mcp übernehmen keine Verantwortung für die Verwendung dieser Funktion. Sie ist standardmäßig deaktiviert und muss explizit aktiviert werden.

Selbsthosting von SearXNG

Für eine zuverlässige Suche hoste SearXNG selbst mit Docker. Eine Konfiguration ist im Repo enthalten:

git clone https://github.com/bighippoman/intercept-mcp.git
cd intercept-mcp/searxng && docker compose up -d

Setze dann SEARXNG_URL=http://localhost:8888. Keine Ratenbegrenzungen, keine CAPTCHAs, aggregiert Google + Bing + DuckDuckGo + Wikipedia + Brave.

Oder verwende eine beliebige existierende SearXNG-Instanz — setze einfach SEARXNG_URL auf deren URL.

URL-Normalisierung

Eingehende URLs werden automatisch bereinigt:

  • Entfernt über 60 Tracking-Parameter (UTM, Click-IDs, Analytics, A/B-Tests usw.)

  • Entfernt Hash-Fragmente

  • Upgrade auf HTTPS

  • Bereinigt AMP-Artefakte

  • Behält funktionale Parameter bei (ref, format, page, offset, limit)

Erkennung der Inhaltsqualität

Jedes Fetcher-Ergebnis wird auf Qualität bewertet. Automatischer Abbruch bei:

  • CAPTCHA / Cloudflare-Challenges

  • Login-Wänden

  • HTTP-Fehlerseiten im Body

  • Inhalten unter 200 Zeichen

Anforderungen

  • Node.js >= 18

  • Keine API-Schlüssel für die grundlegende Nutzung erforderlich

Install Server
A
security – no known vulnerabilities
A
license - permissive license
-
quality - not tested

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/bighippoman/intercept-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server