Firecrawl MCP サーバー
Firecrawl API を使用して Web スクレイピング、コンテンツ検索、サイト クロール、およびデータ抽出を行うための Model Context Protocol (MCP) サーバー。
特徴
Webスクレイピング: カスタマイズ可能なオプションを使用して、任意のWebページからコンテンツを抽出します
モバイルデバイスのエミュレーション
広告とポップアップのブロック
コンテンツフィルタリング
構造化データ抽出
複数の出力形式
コンテンツ検索:インテリジェントな検索機能
多言語サポート
位置情報に基づく結果
カスタマイズ可能な結果制限
構造化された出力形式
サイトクロール:高度なウェブクロール機能
深度制御
パスフィルタリング
レート制限
進捗状況の追跡
サイトマップの統合
サイトマッピング: サイト構造マップを生成する
サブドメインのサポート
検索フィルタリング
リンク分析
視覚的な階層
データ抽出: 複数の URL から構造化データを抽出します
スキーマ検証
バッチ処理
ウェブ検索の強化
カスタム抽出プロンプト
Related MCP server: MCP Firecrawl Server
インストール
# Global installation
npm install -g @modelcontextprotocol/mcp-server-firecrawl
# Local project installation
npm install @modelcontextprotocol/mcp-server-firecrawlクイックスタート
開発者ポータルからFirecrawl APIキーを取得します
API キーを設定します:
Unix/Linux/macOS (bash/zsh):
export FIRECRAWL_API_KEY=your-api-keyWindows (コマンドプロンプト):
set FIRECRAWL_API_KEY=your-api-keyWindows (PowerShell):
$env:FIRECRAWL_API_KEY = "your-api-key"代替案: .env ファイルの使用 (開発に推奨):
# Install dotenv npm install dotenv # Create .env file echo "FIRECRAWL_API_KEY=your-api-key" > .env次にコード内で次の操作を行います。
import dotenv from 'dotenv'; dotenv.config();サーバーを実行します。
mcp-server-firecrawl
統合
クロードデスクトップアプリ
MCP 設定に追加:
{
"firecrawl": {
"command": "mcp-server-firecrawl",
"env": {
"FIRECRAWL_API_KEY": "your-api-key"
}
}
}クロード VSCode 拡張機能
MCP 構成に追加:
{
"mcpServers": {
"firecrawl": {
"command": "mcp-server-firecrawl",
"env": {
"FIRECRAWL_API_KEY": "your-api-key"
}
}
}
}使用例
ウェブスクレイピング
// Basic scraping
{
name: "scrape_url",
arguments: {
url: "https://example.com",
formats: ["markdown"],
onlyMainContent: true
}
}
// Advanced extraction
{
name: "scrape_url",
arguments: {
url: "https://example.com/blog",
jsonOptions: {
prompt: "Extract article content",
schema: {
title: "string",
content: "string"
}
},
mobile: true,
blockAds: true
}
}サイトクロール
// Basic crawling
{
name: "crawl",
arguments: {
url: "https://example.com",
maxDepth: 2,
limit: 100
}
}
// Advanced crawling
{
name: "crawl",
arguments: {
url: "https://example.com",
maxDepth: 3,
includePaths: ["/blog", "/products"],
excludePaths: ["/admin"],
ignoreQueryParameters: true
}
}サイトマッピング
// Generate site map
{
name: "map",
arguments: {
url: "https://example.com",
includeSubdomains: true,
limit: 1000
}
}データ抽出
// Extract structured data
{
name: "extract",
arguments: {
urls: ["https://example.com/product1", "https://example.com/product2"],
prompt: "Extract product details",
schema: {
name: "string",
price: "number",
description: "string"
}
}
}構成
詳細なセットアップ オプションについては、構成ガイドを参照してください。
APIドキュメント
エンドポイントの詳細な仕様については、 API ドキュメントを参照してください。
発達
# Install dependencies
npm install
# Build
npm run build
# Run tests
npm test
# Start in development mode
npm run dev例
さらなる使用例については、例のディレクトリを確認してください。
基本的なスクレイピング: scrape.ts
クロールとマッピング: crawl-and-map.ts
エラー処理
サーバーは堅牢なエラー処理を実装しています。
指数バックオフによるレート制限
自動再試行
詳細なエラーメッセージ
デバッグログ
安全
APIキーの保護
リクエストの検証
ドメイン許可リスト
レート制限
安全なエラーメッセージ
貢献
貢献ガイドラインについてはCONTRIBUTING.md を参照してください。
ライセンス
MIT ライセンス - 詳細についてはライセンスを参照してください。