Skip to main content
Glama

screaming-frog-mcp

ClaudeからScreaming Frog SEO Spiderのヘッドレスクロールを実行し、データのエクスポートやクロールストレージの管理をGUIを開かずに可能にするMCPサーバーです。

ClaudeにURLを入力するだけで、Screaming Frogがバックグラウンドで実行され、データが返されます。

bzsasson/screaming-frog-mcp v0.1.0をフォークし、バグ修正を行ったものです。オリジナル版には、クロールがハングアップするパイプのデッドロック、初回実行後にすべてをブロックしてしまう誤ったGUI検出、クロールデータベース全体を削除してしまう可能性のある削除コマンドなど、実用上の問題がありました。これらはすべて修正済みです。


修正内容

バグ

修正内容

パイプのデッドロック

stdout/stderrをPIPEではなくログファイルにリダイレクト。SFが大量の出力を生成してもクロールがハングアップしなくなりました。

GUI検出

ps auxの代わりにpsutilを使用。MacとWindowsで動作します。ヘッドレスCLIプロセスがGUIと誤認されなくなりました。

古いクロールのクリーンアップ

クロールが中断された際、SFがアプリバンドル内に一時的なcrawl.seospiderファイルを残す問題があり、それ以降のクロールがすべて失敗していました。実行前に自動クリーンアップされるようにしました。

削除の安全性

delete_crawl(".")がルートデータディレクトリを解決してすべてを削除してしまう問題を修正しました。

エクスポートディレクトリのリーク

エクスポート失敗時に一時ディレクトリがディスクに残る問題を修正しました。

入力バリデーション

CLI引数とdb_idに対して、より厳格な文字許可リストを適用しました。


要件

  • Screaming Frog SEO Spider(有料ライセンスが必要。ヘッドレスクロールにはライセンスが必須です)

  • Python 3.10以上

  • uv(推奨)またはpip


インストール

Mac

uvx --from git+https://github.com/marykovziridze/screaming-frog-mcp screaming-frog-mcp

~/Library/Application Support/Claude/claude_desktop_config.json に追加してください:

{
  "mcpServers": {
    "screaming-frog": {
      "command": "uvx",
      "args": ["--from", "git+https://github.com/marykovziridze/screaming-frog-mcp", "screaming-frog-mcp"]
    }
  }
}

Windows

まずuvをインストールしてください:

powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

C:\Users\[name]\AppData\Roaming\Claude\claude_desktop_config.json に追加してください:

{
  "mcpServers": {
    "screaming-frog": {
      "command": "uvx",
      "args": ["--from", "git+https://github.com/marykovziridze/screaming-frog-mcp", "screaming-frog-mcp"],
      "env": {
        "SF_CLI_PATH": "C:\\Program Files (x86)\\Screaming Frog SEO Spider\\ScreamingFrogSEOSpiderCli.exe"
      }
    }
  }
}

設定を編集した後、Claude Desktopを再起動してください。


ツール

ツール

機能

sf_check

SFのインストールとライセンス状況を確認

crawl_site

ヘッドレスクロールを開始

crawl_status

クロールの進捗を確認

list_crawls

SFデータベース内の保存済みクロールを一覧表示

export_crawl

クロールデータをCSVとしてエクスポート

read_crawl_data

エクスポートされたCSVデータを読み込み、フィルタリング

delete_crawl

保存されたクロールを削除

storage_summary

クロールストレージのディスク使用量を表示


設定

変数

デフォルト

備考

SF_CLI_PATH

Mac: 自動検出

Windowsやカスタムインストール環境では手動で設定


既知の制限事項

  • Windowsでの古いクロールパス — 自動クリーンアップはMacで動作します。Windowsで中断後にクロールが失敗する場合は、SFインストールディレクトリ内のcrawl.seospiderファイルを確認し、手動で削除してください。

  • クロール進捗率の非表示 — SFのヘッドレスCLIはクロール中の進捗を報告しません。開始と終了のみがわかります。

  • 大規模サイト — 約160ページまでのサイトでテスト済みです。1万ページを超えるサイトでの負荷テストは行っていません。


ライセンス

MIT — LICENSEを参照してください。


クレジット

オリジナルのMCPサーバーはBoaz Sassonによるものです。

Install Server
A
security – no known vulnerabilities
A
license - permissive license
A
quality - A tier

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/marykovziridze/screaming-frog-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server