screaming-frog-mcp
screaming-frog-mcp
MCP-сервер, позволяющий Claude запускать Screaming Frog SEO Spider в headless-режиме (без графического интерфейса), экспортировать данные и управлять хранилищем сканирований.
Введите URL в Claude. Screaming Frog запустится в фоновом режиме. Вы получите данные обратно. Вот и всё.
Форк bzsasson/screaming-frog-mcp v0.1.0 с исправлениями ошибок. Оригинал имел проблемы, делавшие его практически непригодным для использования: взаимные блокировки каналов (pipe deadlocks), из-за которых сканирования зависали, ложное обнаружение графического интерфейса, блокировавшее всё после первого запуска, и команда удаления, которая могла стереть всю базу данных сканирований. Всё исправлено.
Что исправлено
Ошибка | Исправление |
Взаимная блокировка каналов | stdout/stderr перенаправлены в лог-файлы вместо PIPE. Сканирования больше не зависают при большом объеме вывода SF. |
Обнаружение GUI | Используется |
Очистка зависших сканирований | SF оставляет временный файл |
Безопасность удаления |
|
Утечка директорий экспорта | Неудачные экспорты оставляли временные директории на диске. Теперь они очищаются. |
Валидация ввода | Более строгие списки разрешенных символов для аргументов CLI и db_id. |
Требования
Screaming Frog SEO Spider с платной лицензией — для headless-сканирований требуется лицензия.
Python 3.10+
uv (рекомендуется) или pip
Установка
Mac
uvx --from git+https://github.com/marykovziridze/screaming-frog-mcp screaming-frog-mcpДобавьте в ~/Library/Application Support/Claude/claude_desktop_config.json:
{
"mcpServers": {
"screaming-frog": {
"command": "uvx",
"args": ["--from", "git+https://github.com/marykovziridze/screaming-frog-mcp", "screaming-frog-mcp"]
}
}
}Windows
Сначала установите uv:
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"Добавьте в C:\Users\[имя]\AppData\Roaming\Claude\claude_desktop_config.json:
{
"mcpServers": {
"screaming-frog": {
"command": "uvx",
"args": ["--from", "git+https://github.com/marykovziridze/screaming-frog-mcp", "screaming-frog-mcp"],
"env": {
"SF_CLI_PATH": "C:\\Program Files (x86)\\Screaming Frog SEO Spider\\ScreamingFrogSEOSpiderCli.exe"
}
}
}
}После редактирования конфигурации перезапустите Claude Desktop.
Инструменты
Инструмент | Что делает |
| Проверяет установку и лицензию SF |
| Запускает headless-сканирование |
| Проверяет прогресс сканирования |
| Выводит список сохраненных сканирований в базе данных SF |
| Экспортирует данные сканирования в CSV |
| Читает и фильтрует экспортированные CSV-данные |
| Удаляет сохраненное сканирование |
| Показывает использование дискового пространства хранилищем сканирований |
Конфигурация
Переменная | По умолчанию | Примечания |
| Mac: автоопределение | Установите вручную на Windows или при нестандартной установке |
Известные ограничения
Путь к зависшим сканированиям на Windows — автоочистка работает на Mac. На Windows, если сканирования завершаются ошибкой после прерывания, проверьте наличие файла
crawl.seospiderв директории установки SF и удалите его вручную.Нет процента прогресса сканирования — headless CLI SF не сообщает прогресс во время сканирования. Вы знаете только, когда оно началось и когда закончилось.
Большие сайты — протестировано на сайтах до ~160 страниц. Стресс-тестирование на сайтах с 10 000+ страниц не проводилось.
Лицензия
MIT — см. LICENSE
Авторы
Оригинальный MCP-сервер от Boaz Sasson.
Latest Blog Posts
MCP directory API
We provide all the information about MCP servers via our MCP API.
curl -X GET 'https://glama.ai/api/mcp/v1/servers/marykovziridze/screaming-frog-mcp'
If you have feedback or need assistance with the MCP directory API, please join our Discord server