Skip to main content
Glama
robot-resources

Robot Resources Scraper

npm version License: MIT

@robot-resources/scraper-mcp

⚠️ VERALTET — integriert in @robot-resources/scraper. Dieser MCP-Server wird jetzt als integrierte scraper-mcp-Binärdatei innerhalb des Haupt-Scraper-Pakets ausgeliefert. Installieren Sie ein Paket und erhalten Sie das MCP. Automatische Konfiguration über npx robot-resources --for=cursor oder npx robot-resources --for=claude-code. Die Tools (scraper_compress_url, scraper_crawl_url) und die unten aufgeführten Parameter sind unverändert.

MCP-Server für Scraper — Kontextkompression für KI-Agenten.

Was ist Robot Resources?

Human Resources, aber für Ihre KI-Agenten.

Robot Resources verleiht KI-Agenten zwei Superkräfte:

  • Router — Leitet jeden LLM-Aufruf an das günstigste fähige Modell weiter. 60-90 % Kosteneinsparungen bei OpenAI, Anthropic und Google.

  • Scraper — Komprimiert Webseiten zu sauberem Markdown. 70-80 % weniger Token pro Seite.

Beides läuft lokal. Ihre API-Schlüssel verlassen niemals Ihren Rechner. Kostenlos, unbegrenzt, keine Stufen.

Installieren Sie die komplette Suite

npx robot-resources

Ein Befehl richtet alles ein. Erfahren Sie mehr unter robotresources.ai


Über diesen MCP-Server

Dieses Paket stellt KI-Agenten zwei Tools zur Verfügung, um Webinhalte über das Model Context Protocol in token-effizientes Markdown zu komprimieren: Einzelseiten-Kompression und mehrseitiges BFS-Crawling.

Installation

npx @robot-resources/scraper-mcp

Oder global installieren:

npm install -g @robot-resources/scraper-mcp

Claude Desktop-Konfiguration

Fügen Sie dies zu Ihrer claude_desktop_config.json hinzu:

{
  "mcpServers": {
    "scraper": {
      "command": "npx",
      "args": ["-y", "@robot-resources/scraper-mcp"]
    }
  }
}

Tools

scraper_compress_url

Komprimieren Sie eine einzelne Webseite in Markdown mit 70-90 % weniger Token.

Parameter:

Parameter

Typ

Erforderlich

Standard

Beschreibung

url

string

ja

Zu komprimierende URL

mode

string

nein

'auto'

'fast', 'stealth', 'render' oder 'auto'

timeout

number

nein

10000

Abruf-Timeout in Millisekunden

maxRetries

number

nein

3

Maximale Wiederholungsversuche (0-10)

Beispiel-Prompt: "Komprimiere https://docs.example.com/getting-started"

scraper_crawl_url

Crawlen Sie mehrere Seiten von einer Start-URL aus unter Verwendung der BFS-Link-Erkennung.

Parameter:

Parameter

Typ

Erforderlich

Standard

Beschreibung

url

string

ja

Start-URL zum Crawlen

maxPages

number

nein

10

Maximale Anzahl der zu crawlendenden Seiten (1-100)

maxDepth

number

nein

2

Maximale Link-Tiefe (0-5)

mode

string

nein

'auto'

'fast', 'stealth', 'render' oder 'auto'

include

string[]

nein

Einzuschließende URL-Muster (Glob)

exclude

string[]

nein

Auszuschließende URL-Muster (Glob)

timeout

number

nein

10000

Timeout pro Seite in Millisekunden

Beispiel-Prompt: "Crawle die Dokumentation unter https://docs.example.com mit maximal 20 Seiten"

Abrufmodi

Modus

Wie

Verwendung bei

'fast'

Einfaches HTTP

Standard-Websites, APIs, Dokumentationen

'stealth'

TLS-Fingerabdruck-Impersonation

Anti-Bot-geschützte Websites

'render'

Headless-Browser (Playwright)

JS-gerenderte SPAs

'auto'

Schnell → Stealth-Fallback bei 403/Challenge

Unbekannte Websites (Standard)

Stealth erfordert impit und Render erfordert playwright als Peer-Abhängigkeiten von @robot-resources/scraper.

Anforderungen

  • Node.js 18+

Verwandtes

Lizenz

MIT

Install Server
A
license - permissive license
B
quality
F
maintenance

Resources

Unclaimed servers have limited discoverability.

Looking for Admin?

If you are the server author, to access and configure the admin panel.

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/robot-resources/scraper-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server