screaming-frog-mcp
screaming-frog-mcp
MCP-Server, mit dem Claude Screaming Frog SEO Spider Headless-Crawls ausführen, Daten exportieren und Crawl-Speicher verwalten kann – ohne dass jemand die GUI öffnen muss.
Geben Sie eine URL in Claude ein. Screaming Frog läuft im Hintergrund. Sie erhalten die Daten zurück. Das ist alles.
Geforkt von bzsasson/screaming-frog-mcp v0.1.0 mit Fehlerbehebungen. Das Original hatte Probleme, die es in der Praxis unbrauchbar machten – Pipe-Deadlocks, die Crawls zum Absturz brachten, falsche GUI-Erkennung, die alles nach dem ersten Durchlauf blockierte, ein Löschbefehl, der die gesamte Crawl-Datenbank löschen konnte. Alles behoben.
Was wurde behoben
Fehler | Behebung |
Pipe-Deadlock | stdout/stderr werden in Protokolldateien statt in PIPE umgeleitet. Crawls hängen nicht mehr, wenn SF große Ausgaben erzeugt. |
GUI-Erkennung | Verwendet |
Bereinigung veralteter Crawls | SF hinterlässt eine temporäre |
Löschsicherheit |
|
Export-Verzeichnis-Leck | Fehlgeschlagene Exporte hinterließen temporäre Verzeichnisse auf der Festplatte. Werden jetzt bereinigt. |
Eingabevalidierung | Strengere Zeichen-Allowlists für CLI-Argumente und db_id. |
Anforderungen
Screaming Frog SEO Spider mit einer kostenpflichtigen Lizenz – Headless-Crawls erfordern eine Lizenz
Python 3.10+
uv (empfohlen) oder pip
Installation
Mac
uvx --from git+https://github.com/marykovziridze/screaming-frog-mcp screaming-frog-mcpFügen Sie dies zu ~/Library/Application Support/Claude/claude_desktop_config.json hinzu:
{
"mcpServers": {
"screaming-frog": {
"command": "uvx",
"args": ["--from", "git+https://github.com/marykovziridze/screaming-frog-mcp", "screaming-frog-mcp"]
}
}
}Windows
Installieren Sie zuerst uv:
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"Fügen Sie dies zu C:\Users\[name]\AppData\Roaming\Claude\claude_desktop_config.json hinzu:
{
"mcpServers": {
"screaming-frog": {
"command": "uvx",
"args": ["--from", "git+https://github.com/marykovziridze/screaming-frog-mcp", "screaming-frog-mcp"],
"env": {
"SF_CLI_PATH": "C:\\Program Files (x86)\\Screaming Frog SEO Spider\\ScreamingFrogSEOSpiderCli.exe"
}
}
}
}Starten Sie Claude Desktop nach dem Bearbeiten der Konfiguration neu.
Tools
Tool | Was es tut |
| Überprüft, ob SF installiert und lizenziert ist |
| Startet einen Headless-Crawl |
| Überprüft den Crawl-Fortschritt |
| Listet gespeicherte Crawls in der SF-Datenbank auf |
| Exportiert Crawl-Daten als CSV |
| Liest und filtert exportierte CSV-Daten |
| Löscht einen gespeicherten Crawl |
| Zeigt die Festplattennutzung des Crawl-Speichers an |
Konfiguration
Variable | Standard | Hinweise |
| Mac: automatisch erkannt | Manuell unter Windows oder bei benutzerdefinierten Installationen festlegen |
Bekannte Einschränkungen
Windows veralteter Crawl-Pfad – automatische Bereinigung funktioniert auf dem Mac. Wenn Crawls unter Windows nach einer Unterbrechung fehlschlagen, suchen Sie nach einer
crawl.seospider-Datei in Ihrem SF-Installationsverzeichnis und löschen Sie diese manuell.Kein Crawl-Fortschritt in Prozent – die Headless-CLI von SF meldet keinen Fortschritt während des Crawls. Sie wissen, wann er beginnt und wann er endet.
Große Websites – getestet auf Websites mit bis zu ca. 160 Seiten. Nicht auf Websites mit mehr als 10.000 Seiten unter Stress getestet.
Lizenz
MIT – siehe LICENSE
Credits
Ursprünglicher MCP-Server von Boaz Sasson.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/marykovziridze/screaming-frog-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server