hybrid server
The server is able to function both locally and remotely, depending on the configuration or use case.
Integrations
Firecrawl MCP サーバー
Web スクレイピング機能のためにFirecrawlと統合する Model Context Protocol (MCP) サーバー実装。
最初の実装にご協力いただいた@vrknetha 、 @cawstudiosに深く感謝いたします。
特徴
- スクレイピング、クロール、検索、抽出、詳細な調査、バッチスクレイピングのサポート
- JSレンダリングによるWebスクレイピング
- URLの検出とクロール
- コンテンツ抽出によるウェブ検索
- 指数バックオフによる自動再試行
- レート制限を組み込んだ効率的なバッチ処理
- クラウドAPIのクレジット使用状況監視
- 包括的なログシステム
- クラウドおよびセルフホスト型 FireCrawl インスタンスのサポート
- モバイル/デスクトップビューポートのサポート
- タグの包含/除外によるスマートなコンテンツフィルタリング
インストール
npxで実行
手動インストール
カーソル上で実行
カーソルの設定 🖥️ 注: カーソルバージョン 0.45.6 以上が必要です
Cursor で FireCrawl MCP を構成するには:
- カーソル設定を開く
- 機能 > MCPサーバーへ移動
- 「+新しいMCPサーバーを追加」をクリックします
- 以下を入力してください:
- 名前: 「firecrawl-mcp」(またはお好みの名前)
- タイプ:「コマンド」
- コマンド:
env FIRECRAWL_API_KEY=your-api-key npx -y firecrawl-mcp
Windows を使用していて問題が発生している場合は、
cmd /c "set FIRECRAWL_API_KEY=your-api-key && npx -y firecrawl-mcp"
を試してください。
your-api-key
FireCrawl API キーに置き換えます。
追加後、MCPサーバーリストを更新して新しいツールを確認してください。Composer Agentは適切な場合にFireCrawl MCPを自動的に使用しますが、Webスクレイピングのニーズを明示的に指定することで、その使用をリクエストすることもできます。Command+L(Mac)でComposerにアクセスし、送信ボタンの横にある「Agent」を選択して、クエリを入力してください。
ウィンドサーフィンで走る
これを./codeium/windsurf/model_config.json
に追加します:
Smithery (レガシー) 経由でのインストール
Smithery経由で Claude Desktop 用の FireCrawl を自動的にインストールするには:
構成
環境変数
クラウドAPIに必須
FIRECRAWL_API_KEY
: FireCrawl APIキー- クラウド API を使用する場合に必須 (デフォルト)
FIRECRAWL_API_URL
でセルフホストインスタンスを使用する場合はオプション
FIRECRAWL_API_URL
(オプション): セルフホストインスタンスのカスタム API エンドポイント- 例:
https://firecrawl.your-domain.com
- 指定しない場合はクラウド API が使用されます (API キーが必要です)
- 例:
オプション構成
再試行構成
FIRECRAWL_RETRY_MAX_ATTEMPTS
: 再試行の最大回数(デフォルト: 3)FIRECRAWL_RETRY_INITIAL_DELAY
: 最初の再試行までの初期遅延(ミリ秒)(デフォルト: 1000)FIRECRAWL_RETRY_MAX_DELAY
: 再試行間の最大遅延時間(ミリ秒)(デフォルト: 10000)FIRECRAWL_RETRY_BACKOFF_FACTOR
: 指数バックオフ乗数(デフォルト: 2)
クレジット使用状況の監視
FIRECRAWL_CREDIT_WARNING_THRESHOLD
: クレジット使用量の警告しきい値(デフォルト: 1000)FIRECRAWL_CREDIT_CRITICAL_THRESHOLD
: クレジット使用量のクリティカルしきい値(デフォルト: 100)
設定例
カスタム再試行とクレジット監視を使用したクラウド API の使用の場合:
セルフホストインスタンスの場合:
Claude Desktopでの使用
これをclaude_desktop_config.json
に追加します:
システム構成
サーバーには、環境変数で設定可能なパラメータがいくつか含まれています。設定されていない場合のデフォルト値は以下のとおりです。
これらの構成は以下を制御します。
- 再試行動作
- レート制限により失敗したリクエストを自動的に再試行します
- API の過負荷を回避するために指数バックオフを使用します
- 例: デフォルト設定では、次の場合に再試行が試行されます。
- 1回目の再試行: 1秒の遅延
- 2回目の再試行: 2秒遅延
- 3 回目の再試行: 4 秒の遅延 (maxDelay で上限)
- クレジット使用状況の監視
- クラウド API の使用における API クレジットの消費を追跡します
- 指定されたしきい値で警告を発する
- 予期せぬサービス中断を防ぐのに役立ちます
- 例: デフォルト設定の場合:
- 残り1000クレジットの警告
- 残り100クレジットで重大な警告
レート制限とバッチ処理
サーバーは、FireCrawl に組み込まれたレート制限およびバッチ処理機能を活用します。
- 指数バックオフによる自動レート制限処理
- バッチ操作のための効率的な並列処理
- スマートなリクエストキューイングとスロットリング
- 一時的なエラーの自動再試行
利用可能なツール
1. スクレイプツール( firecrawl_scrape
)
高度なオプションを使用して、単一の URL からコンテンツをスクレイピングします。
2. バッチスクレイプツール( firecrawl_batch_scrape
)
組み込みのレート制限と並列処理により、複数の URL を効率的にスクレイピングします。
応答にはステータス チェックの操作 ID が含まれます。
3. バッチステータスを確認する( firecrawl_check_batch_status
)
バッチ操作のステータスを確認します。
4. 検索ツール( firecrawl_search
)
Web を検索し、オプションで検索結果からコンテンツを抽出します。
5. クロールツール( firecrawl_crawl
)
高度なオプションを使用して非同期クロールを開始します。
6. 抽出ツール( firecrawl_extract
)
LLM機能を使用してWebページから構造化情報を抽出します。クラウドAIとセルフホスト型LLM抽出の両方をサポートします。
応答例:
抽出ツールのオプション:
urls
: 情報を抽出するURLの配列prompt
: LLM抽出のカスタムプロンプトsystemPrompt
: LLMをガイドするシステムプロンプトschema
: 構造化データ抽出用のJSONスキーマallowExternalLinks
: 外部リンクからの抽出を許可するenableWebSearch
: 追加のコンテキストのWeb検索を有効にするincludeSubdomains
: 抽出にサブドメインを含める
セルフホストインスタンスを使用する場合、抽出には設定されたLLMが使用されます。クラウドAPIの場合は、FireCrawlのマネージドLLMサービスが使用されます。
ログシステム
サーバーには包括的なログ機能が含まれています:
- 運用状況と進捗
- パフォーマンス指標
- クレジット使用状況の監視
- レート制限の追跡
- エラー条件
ログメッセージの例:
エラー処理
サーバーは堅牢なエラー処理を提供します。
- 一時的なエラーの自動再試行
- バックオフによるレート制限の処理
- 詳細なエラーメッセージ
- クレジット使用に関する警告
- ネットワークの回復力
エラー応答の例:
発達
貢献
- リポジトリをフォークする
- 機能ブランチを作成する
- テストを実行:
npm test
- プルリクエストを送信する
ライセンス
MITライセンス - 詳細はLICENSEファイルを参照
This server cannot be installed
AI アシスタントが Firecrawl API を通じて高度な Web スクレイピング、クロール、検索、データ抽出を実行できるようにするモデル コンテキスト プロトコル サーバー。