Skip to main content
Glama

screaming-frog-mcp

MCP-Server, mit dem Claude Screaming Frog SEO Spider Headless-Crawls ausführen, Daten exportieren und Crawl-Speicher verwalten kann – ohne dass jemand die GUI öffnen muss.

Geben Sie eine URL in Claude ein. Screaming Frog läuft im Hintergrund. Sie erhalten die Daten zurück. Das ist alles.

Geforkt von bzsasson/screaming-frog-mcp v0.1.0 mit Fehlerbehebungen. Das Original hatte Probleme, die es in der Praxis unbrauchbar machten – Pipe-Deadlocks, die Crawls zum Absturz brachten, falsche GUI-Erkennung, die alles nach dem ersten Durchlauf blockierte, ein Löschbefehl, der die gesamte Crawl-Datenbank löschen konnte. Alles behoben.


Was wurde behoben

Fehler

Behebung

Pipe-Deadlock

stdout/stderr werden in Protokolldateien statt in PIPE umgeleitet. Crawls hängen nicht mehr, wenn SF große Ausgaben erzeugt.

GUI-Erkennung

Verwendet psutil anstelle von ps aux. Funktioniert auf Mac und Windows. Headless-CLI-Prozesse werden nicht mehr mit der GUI verwechselt.

Bereinigung veralteter Crawls

SF hinterlässt eine temporäre crawl.seospider-Datei im eigenen App-Bundle, wenn ein Crawl unterbrochen wird. Jeder nachfolgende Crawl schlägt fehl. Wird jetzt vor jedem Lauf automatisch bereinigt.

Löschsicherheit

delete_crawl(".") löste früher das Stamm-Datenverzeichnis auf und löschte alles. Behoben.

Export-Verzeichnis-Leck

Fehlgeschlagene Exporte hinterließen temporäre Verzeichnisse auf der Festplatte. Werden jetzt bereinigt.

Eingabevalidierung

Strengere Zeichen-Allowlists für CLI-Argumente und db_id.


Anforderungen

  • Screaming Frog SEO Spider mit einer kostenpflichtigen Lizenz – Headless-Crawls erfordern eine Lizenz

  • Python 3.10+

  • uv (empfohlen) oder pip


Installation

Mac

uvx --from git+https://github.com/marykovziridze/screaming-frog-mcp screaming-frog-mcp

Fügen Sie dies zu ~/Library/Application Support/Claude/claude_desktop_config.json hinzu:

{
  "mcpServers": {
    "screaming-frog": {
      "command": "uvx",
      "args": ["--from", "git+https://github.com/marykovziridze/screaming-frog-mcp", "screaming-frog-mcp"]
    }
  }
}

Windows

Installieren Sie zuerst uv:

powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

Fügen Sie dies zu C:\Users\[name]\AppData\Roaming\Claude\claude_desktop_config.json hinzu:

{
  "mcpServers": {
    "screaming-frog": {
      "command": "uvx",
      "args": ["--from", "git+https://github.com/marykovziridze/screaming-frog-mcp", "screaming-frog-mcp"],
      "env": {
        "SF_CLI_PATH": "C:\\Program Files (x86)\\Screaming Frog SEO Spider\\ScreamingFrogSEOSpiderCli.exe"
      }
    }
  }
}

Starten Sie Claude Desktop nach dem Bearbeiten der Konfiguration neu.


Tools

Tool

Was es tut

sf_check

Überprüft, ob SF installiert und lizenziert ist

crawl_site

Startet einen Headless-Crawl

crawl_status

Überprüft den Crawl-Fortschritt

list_crawls

Listet gespeicherte Crawls in der SF-Datenbank auf

export_crawl

Exportiert Crawl-Daten als CSV

read_crawl_data

Liest und filtert exportierte CSV-Daten

delete_crawl

Löscht einen gespeicherten Crawl

storage_summary

Zeigt die Festplattennutzung des Crawl-Speichers an


Konfiguration

Variable

Standard

Hinweise

SF_CLI_PATH

Mac: automatisch erkannt

Manuell unter Windows oder bei benutzerdefinierten Installationen festlegen


Bekannte Einschränkungen

  • Windows veralteter Crawl-Pfad – automatische Bereinigung funktioniert auf dem Mac. Wenn Crawls unter Windows nach einer Unterbrechung fehlschlagen, suchen Sie nach einer crawl.seospider-Datei in Ihrem SF-Installationsverzeichnis und löschen Sie diese manuell.

  • Kein Crawl-Fortschritt in Prozent – die Headless-CLI von SF meldet keinen Fortschritt während des Crawls. Sie wissen, wann er beginnt und wann er endet.

  • Große Websites – getestet auf Websites mit bis zu ca. 160 Seiten. Nicht auf Websites mit mehr als 10.000 Seiten unter Stress getestet.


Lizenz

MIT – siehe LICENSE


Credits

Ursprünglicher MCP-Server von Boaz Sasson.

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - A tier

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/marykovziridze/screaming-frog-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server