Skip to main content
Glama

screaming-frog-mcp

MCP-сервер, позволяющий Claude запускать Screaming Frog SEO Spider в headless-режиме (без графического интерфейса), экспортировать данные и управлять хранилищем сканирований.

Введите URL в Claude. Screaming Frog запустится в фоновом режиме. Вы получите данные обратно. Вот и всё.

Форк bzsasson/screaming-frog-mcp v0.1.0 с исправлениями ошибок. Оригинал имел проблемы, делавшие его практически непригодным для использования: взаимные блокировки каналов (pipe deadlocks), из-за которых сканирования зависали, ложное обнаружение графического интерфейса, блокировавшее всё после первого запуска, и команда удаления, которая могла стереть всю базу данных сканирований. Всё исправлено.


Что исправлено

Ошибка

Исправление

Взаимная блокировка каналов

stdout/stderr перенаправлены в лог-файлы вместо PIPE. Сканирования больше не зависают при большом объеме вывода SF.

Обнаружение GUI

Используется psutil вместо ps aux. Работает на Mac и Windows. Headless CLI-процессы больше не принимаются за GUI.

Очистка зависших сканирований

SF оставляет временный файл crawl.seospider внутри своего пакета приложения при прерывании сканирования. Каждое последующее сканирование завершалось ошибкой. Теперь файл автоматически удаляется перед каждым запуском.

Безопасность удаления

delete_crawl(".") раньше приводила к удалению корневой директории данных. Исправлено.

Утечка директорий экспорта

Неудачные экспорты оставляли временные директории на диске. Теперь они очищаются.

Валидация ввода

Более строгие списки разрешенных символов для аргументов CLI и db_id.


Требования

  • Screaming Frog SEO Spider с платной лицензией — для headless-сканирований требуется лицензия.

  • Python 3.10+

  • uv (рекомендуется) или pip


Установка

Mac

uvx --from git+https://github.com/marykovziridze/screaming-frog-mcp screaming-frog-mcp

Добавьте в ~/Library/Application Support/Claude/claude_desktop_config.json:

{
  "mcpServers": {
    "screaming-frog": {
      "command": "uvx",
      "args": ["--from", "git+https://github.com/marykovziridze/screaming-frog-mcp", "screaming-frog-mcp"]
    }
  }
}

Windows

Сначала установите uv:

powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

Добавьте в C:\Users\[имя]\AppData\Roaming\Claude\claude_desktop_config.json:

{
  "mcpServers": {
    "screaming-frog": {
      "command": "uvx",
      "args": ["--from", "git+https://github.com/marykovziridze/screaming-frog-mcp", "screaming-frog-mcp"],
      "env": {
        "SF_CLI_PATH": "C:\\Program Files (x86)\\Screaming Frog SEO Spider\\ScreamingFrogSEOSpiderCli.exe"
      }
    }
  }
}

После редактирования конфигурации перезапустите Claude Desktop.


Инструменты

Инструмент

Что делает

sf_check

Проверяет установку и лицензию SF

crawl_site

Запускает headless-сканирование

crawl_status

Проверяет прогресс сканирования

list_crawls

Выводит список сохраненных сканирований в базе данных SF

export_crawl

Экспортирует данные сканирования в CSV

read_crawl_data

Читает и фильтрует экспортированные CSV-данные

delete_crawl

Удаляет сохраненное сканирование

storage_summary

Показывает использование дискового пространства хранилищем сканирований


Конфигурация

Переменная

По умолчанию

Примечания

SF_CLI_PATH

Mac: автоопределение

Установите вручную на Windows или при нестандартной установке


Известные ограничения

  • Путь к зависшим сканированиям на Windows — автоочистка работает на Mac. На Windows, если сканирования завершаются ошибкой после прерывания, проверьте наличие файла crawl.seospider в директории установки SF и удалите его вручную.

  • Нет процента прогресса сканирования — headless CLI SF не сообщает прогресс во время сканирования. Вы знаете только, когда оно началось и когда закончилось.

  • Большие сайты — протестировано на сайтах до ~160 страниц. Стресс-тестирование на сайтах с 10 000+ страниц не проводилось.


Лицензия

MIT — см. LICENSE


Авторы

Оригинальный MCP-сервер от Boaz Sasson.

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - A tier

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/marykovziridze/screaming-frog-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server