screaming-frog-mcp
screaming-frog-mcp
MCP 服务器,允许 Claude 运行 Screaming Frog SEO Spider 无头爬取、导出数据并管理爬取存储——无需打开 GUI。
在 Claude 中输入 URL。Screaming Frog 将在后台运行。你将获得返回的数据。就是这样。
基于 bzsasson/screaming-frog-mcp v0.1.0 分支并进行了错误修复。原版存在导致实际无法使用的问题——导致爬取挂起的管道死锁、将后续运行误判为 GUI 从而阻止运行的错误 GUI 检测、可能擦除整个爬取数据库的删除命令。现已全部修复。
已修复内容
错误 | 修复 |
管道死锁 | stdout/stderr 重定向到日志文件而非 PIPE。当 SF 产生大量输出时,爬取不再挂起。 |
GUI 检测 | 使用 |
陈旧爬取清理 | 当爬取中断时,SF 会在其应用包内留下一个临时的 |
删除安全性 |
|
导出目录泄漏 | 失败的导出会在磁盘上留下临时目录。现在已清理。 |
输入验证 | 为 CLI 参数和 db_id 增加了更严格的字符允许列表。 |
要求
带有付费许可证的 Screaming Frog SEO Spider —— 无头爬取需要许可证
Python 3.10+
uv (推荐) 或 pip
安装
Mac
uvx --from git+https://github.com/marykovziridze/screaming-frog-mcp screaming-frog-mcp添加到 ~/Library/Application Support/Claude/claude_desktop_config.json:
{
"mcpServers": {
"screaming-frog": {
"command": "uvx",
"args": ["--from", "git+https://github.com/marykovziridze/screaming-frog-mcp", "screaming-frog-mcp"]
}
}
}Windows
首先安装 uv:
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"添加到 C:\Users\[name]\AppData\Roaming\Claude\claude_desktop_config.json:
{
"mcpServers": {
"screaming-frog": {
"command": "uvx",
"args": ["--from", "git+https://github.com/marykovziridze/screaming-frog-mcp", "screaming-frog-mcp"],
"env": {
"SF_CLI_PATH": "C:\\Program Files (x86)\\Screaming Frog SEO Spider\\ScreamingFrogSEOSpiderCli.exe"
}
}
}
}编辑配置后重启 Claude Desktop。
工具
工具 | 功能 |
| 验证 SF 是否已安装并获得许可 |
| 开始无头爬取 |
| 检查爬取进度 |
| 列出 SF 数据库中保存的爬取记录 |
| 将爬取数据导出为 CSV |
| 读取并过滤导出的 CSV 数据 |
| 删除保存的爬取记录 |
| 显示爬取存储的磁盘使用情况 |
配置
变量 | 默认值 | 备注 |
| Mac: 自动检测 | 在 Windows 或自定义安装上需手动设置 |
已知限制
Windows 陈旧爬取路径 — 自动清理功能在 Mac 上有效。在 Windows 上,如果中断后爬取失败,请检查 SF 安装目录中的
crawl.seospider文件并手动删除它。无爬取进度百分比 — SF 的无头 CLI 不会报告爬取过程中的进度。你只能知道它何时开始和何时结束。
大型网站 — 已在约 160 页的网站上测试。未在 1 万页以上的网站上进行压力测试。
许可证
MIT — 参见 LICENSE
致谢
原始 MCP 服务器由 Boaz Sasson 开发。
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/marykovziridze/screaming-frog-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server