intercept-mcp
intercept-mcp
Gib deiner KI die Fähigkeit, das Web zu lesen. Ein Befehl, keine API-Schlüssel erforderlich.
Ohne dieses Tool erhält deine KI beim Aufruf einer URL oft einen 403-Fehler, eine Blockade oder eine Wand aus rohem HTML. Mit intercept erhält sie fast immer den Inhalt — sauberes Markdown, sofort einsatzbereit.
Unterstützt Tweets, YouTube-Videos (mit Transkripten, falls verfügbar), arXiv-Paper, PDFs, Wikipedia-Artikel und GitHub-Repos. Wenn die erste Strategie fehlschlägt, versucht es bis zu 10 weitere, bevor es aufgibt.
Funktioniert mit jedem MCP-Client: Claude Code, Claude Desktop, Codex, Cursor, Windsurf, Cline und mehr.
Installation
Claude Code
claude mcp add intercept -s user -- npx -y intercept-mcpCodex
codex mcp add intercept -- npx -y intercept-mcpCursor
Einstellungen → MCP → Server hinzufügen:
{
"mcpServers": {
"intercept": {
"command": "npx",
"args": ["-y", "intercept-mcp"]
}
}
}Windsurf
Einstellungen → MCP → Server hinzufügen → gleiche JSON-Konfiguration wie oben.
Claude Desktop
Füge dies zu deiner claude_desktop_config.json hinzu:
{
"mcpServers": {
"intercept": {
"command": "npx",
"args": ["-y", "intercept-mcp"]
}
}
}Andere MCP-Clients
Jeder Client, der stdio-MCP-Server unterstützt, kann npx -y intercept-mcp ausführen.
Für das fetch-Tool sind keine API-Schlüssel erforderlich.
Funktionsweise
URLs werden in drei Stufen verarbeitet:
1. Seitenspezifische Handler
Bekannte URL-Muster werden vor der Fallback-Pipeline an dedizierte Handler weitergeleitet:
Muster | Handler | Ergebnis |
| Twitter/X | Tweet-Text, Autor, Medien, Engagement-Statistiken (über Drittanbieter-APIs) |
| YouTube | Titel, Kanal, Dauer, Aufrufe, Beschreibung, Transkript (wenn Untertitel verfügbar) |
| arXiv | Paper-Metadaten, Autoren, Abstract, Kategorien |
| Extrahierter Text (nur bei PDFs mit Textebene) | |
| Wikipedia | Sauberer Artikelinhalt über die Wikimedia REST API |
| GitHub | Roher README.md-Inhalt |
2. Fallback-Pipeline
Wenn kein Handler übereinstimmt (oder der Handler nichts zurückgibt), durchläuft die URL die mehrstufige Pipeline:
Stufe | Fetcher | Strategie |
1 | Cloudflare Browser Rendering | JS-Rendering + Markdown-Extraktion (optional, benötigt API-Token) |
1 | Jina Reader | Dienst zur Extraktion von sauberem Markdown |
2 | Wayback + Codetabs | Archivierte Version + CORS-Proxy (parallel ausgeführt) |
3 | Raw fetch | Direkter GET mit Browser-Headern + Turndown Markdown-Konvertierung |
3 | Stealth fetch | Browser-TLS-Fingerabdruck-Imitation via got-scraping (opt-in, siehe unten) |
4 | RSS, CrossRef, Semantic Scholar, HN, Reddit | Metadaten / Diskussions-Fallbacks |
5 | OG Meta | Open Graph Tags (garantierter Fallback) |
Stufe-2-Fetcher laufen parallel. Wenn beide erfolgreich sind, gewinnt das qualitativ hochwertigere Ergebnis. Alle anderen Stufen laufen sequenziell.
Alle Fetcher geben korrektes Markdown (Überschriften, Links, Fettgedrucktes, Tabellen, Codeblöcke) via Turndown zurück — keinen reinen Text.
3. Caching
Ergebnisse werden im Arbeitsspeicher mit TTL zwischengespeichert (30 Min. für Erfolge, 5 Min. für Fehler). Maximal 100 Einträge mit LRU-Verdrängung. Fehlgeschlagene URLs werden zwischengespeichert, um erneute Versuche bei bekannten toten URLs zu vermeiden.
Tools
fetch
Ruft eine URL ab und gibt deren Inhalt als sauberes Markdown zurück.
url(string, erforderlich) — Abzurufende URLmaxTier(number, optional, 1-5) — Stoppt bei dieser Stufe für geschwindigkeitskritische Fälle
search
Durchsucht das Web und gibt Ergebnisse zurück.
query(string, erforderlich) — Suchanfragecount(number, optional, 1-20, Standard 5) — Anzahl der Ergebnisse
Verwendet die Brave Search API, falls BRAVE_API_KEY gesetzt ist, dann SearXNG, falls SEARXNG_URL gesetzt ist, und schließlich DuckDuckGo als unzuverlässigen letzten Ausweg.
Prompts
research-topic
Sucht nach einem Thema und ruft die Top-Ergebnisse für eine Zusammenfassung aus mehreren Quellen ab.
topic(string) — Das zu recherchierende Themadepth(string, Standard "3") — Anzahl der abzurufenden Top-Ergebnisse
extract-article
Ruft eine URL ab und extrahiert die Kernpunkte aus dem Inhalt.
url(string) — Die abzurufende und zusammenzufassende URL
Umgebungsvariablen
Variable | Erforderlich | Beschreibung |
| Nein | Brave Search API Schlüssel für die Suche |
| Nein | URL einer selbst gehosteten SearXNG-Instanz (empfohlen) |
| Nein | Cloudflare API-Token mit "Browser Rendering - Edit"-Berechtigung |
| Nein | Cloudflare Account-ID (erforderlich, wenn |
| Nein | Auf |
Suche: Verfügt über einen DuckDuckGo-Fallback, dieser ist jedoch ratenbegrenzt und unzuverlässig. Für den produktiven Einsatz hoste SearXNG selbst und setze SEARXNG_URL (siehe unten) oder besorge dir einen Brave Search API-Schlüssel.
Fetch: Funktioniert ohne Schlüssel. Setze CF_API_TOKEN + CF_ACCOUNT_ID, um Cloudflare Browser Rendering für JavaScript-lastige Seiten (SPAs, React-Seiten) zu aktivieren.
Stealth fetch (USE_STEALTH_FETCH)
Nutzung auf eigene Gefahr. Wenn aktiviert, fügt dies einen Fetcher hinzu, der echte Browser-TLS-Fingerabdrücke (Chrome/Firefox Cipher Suites, HTTP/2-Einstellungen, Header-Reihenfolge) mittels got-scraping imitiert. Dies kann Bot-Erkennung und CAPTCHA-Auslöser auf Seiten umgehen, die automatisierte Anfragen sonst blockieren würden.
Dieser Fetcher läuft in Stufe 3 nach dem regulären Raw-Fetch. Wenn der Raw-Fetch blockiert wird (CAPTCHA, Cloudflare-Challenge, 403), versucht es der Stealth-Fetcher mit Browser-Imitation erneut.
Dies kann gegen die Nutzungsbedingungen einiger Websites verstoßen. Die Autoren von intercept-mcp übernehmen keine Verantwortung für die Verwendung dieser Funktion. Sie ist standardmäßig deaktiviert und muss explizit aktiviert werden.
Selbsthosting von SearXNG
Für eine zuverlässige Suche hoste SearXNG selbst mit Docker. Eine Konfiguration ist im Repo enthalten:
git clone https://github.com/bighippoman/intercept-mcp.git
cd intercept-mcp/searxng && docker compose up -dSetze dann SEARXNG_URL=http://localhost:8888. Keine Ratenbegrenzungen, keine CAPTCHAs, aggregiert Google + Bing + DuckDuckGo + Wikipedia + Brave.
Oder verwende eine beliebige existierende SearXNG-Instanz — setze einfach SEARXNG_URL auf deren URL.
URL-Normalisierung
Eingehende URLs werden automatisch bereinigt:
Entfernt über 60 Tracking-Parameter (UTM, Click-IDs, Analytics, A/B-Tests usw.)
Entfernt Hash-Fragmente
Upgrade auf HTTPS
Bereinigt AMP-Artefakte
Behält funktionale Parameter bei (
ref,format,page,offset,limit)
Erkennung der Inhaltsqualität
Jedes Fetcher-Ergebnis wird auf Qualität bewertet. Automatischer Abbruch bei:
CAPTCHA / Cloudflare-Challenges
Login-Wänden
HTTP-Fehlerseiten im Body
Inhalten unter 200 Zeichen
Anforderungen
Node.js >= 18
Keine API-Schlüssel für die grundlegende Nutzung erforderlich
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/bighippoman/intercept-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server