Integrations
Firecrawl MCP-Server
Eine Model Context Protocol (MCP)-Serverimplementierung, die sich für Web-Scraping-Funktionen in Firecrawl integrieren lässt.
Vielen Dank an @vrknetha und @knacklabs für die erste Implementierung!
Merkmale
- Web Scraping, Crawling und Discovery
- Suche und Inhaltsextraktion
- Tiefgehende Recherche und Batch-Scraping
- Automatische Wiederholungsversuche und Ratenbegrenzung
- Cloud- und selbstgehosteter Support
- SSE-Unterstützung
Spielen Sie mit unserem MCP-Server auf dem Spielplatz von MCP.so oder auf Klavis AI herum.
Installation
Ausführen mit npx
Manuelle Installation
Läuft auf Cursor
Cursor konfigurieren 🖥️ Hinweis: Erfordert Cursor-Version 0.45.6+. Die aktuellsten Konfigurationsanweisungen finden Sie in der offiziellen Cursor-Dokumentation zur Konfiguration von MCP-Servern: Cursor MCP Server Configuration Guide
So konfigurieren Sie Firecrawl MCP in Cursor v0.48.6
- Cursoreinstellungen öffnen
- Gehen Sie zu Funktionen > MCP-Server
- Klicken Sie auf „+ Neuen globalen MCP-Server hinzufügen“.
- Geben Sie den folgenden Code ein:Copy
So konfigurieren Sie Firecrawl MCP in Cursor v0.45.6
- Cursoreinstellungen öffnen
- Gehen Sie zu Funktionen > MCP-Server
- Klicken Sie auf „+ Neuen MCP-Server hinzufügen“
- Geben Sie Folgendes ein:
- Name: „firecrawl-mcp“ (oder Ihr bevorzugter Name)
- Typ: „Befehl“
- Befehl:
env FIRECRAWL_API_KEY=your-api-key npx -y firecrawl-mcp
Wenn Sie Windows verwenden und auf Probleme stoßen, versuchen Sie
cmd /c "set FIRECRAWL_API_KEY=your-api-key && npx -y firecrawl-mcp"
Ersetzen Sie your-api-key
durch Ihren Firecrawl-API-Schlüssel. Falls Sie noch keinen haben, können Sie ein Konto erstellen und ihn unter https://www.firecrawl.dev/app/api-keys abrufen.
Aktualisieren Sie nach dem Hinzufügen die MCP-Serverliste, um die neuen Tools anzuzeigen. Der Composer Agent verwendet bei Bedarf automatisch Firecrawl MCP. Sie können es jedoch explizit anfordern, indem Sie Ihre Web-Scraping-Anforderungen beschreiben. Rufen Sie den Composer über Befehl+L (Mac) auf, wählen Sie „Agent“ neben der Schaltfläche „Senden“ und geben Sie Ihre Anfrage ein.
Laufen auf dem Windsurfbrett
Fügen Sie dies zu Ihrer ./codeium/windsurf/model_config.json
hinzu:
Ausführen im lokalen SSE-Modus
So führen Sie den Server lokal mit Server-Sent Events (SSE) anstelle des standardmäßigen stdio-Transports aus:
Verwenden Sie die URL: http://localhost:3000/sse
Installation über Smithery (Legacy)
So installieren Sie Firecrawl für Claude Desktop automatisch über Smithery :
Ausführung auf VS Code
Klicken Sie für die Ein-Klick-Installation auf eine der folgenden Installationsschaltflächen ...
Für die manuelle Installation fügen Sie den folgenden JSON-Block zu Ihrer Benutzereinstellungsdatei (JSON) in VS Code hinzu. Drücken Sie dazu Ctrl + Shift + P
und geben Sie Preferences: Open User Settings (JSON)
ein.
Optional können Sie die Konfiguration einer Datei namens .vscode/mcp.json
in Ihrem Arbeitsbereich hinzufügen. Dadurch können Sie die Konfiguration mit anderen teilen:
Konfiguration
Umgebungsvariablen
Erforderlich für Cloud-API
FIRECRAWL_API_KEY
: Ihr Firecrawl-API-Schlüssel- Erforderlich bei Verwendung der Cloud-API (Standard)
- Optional bei Verwendung einer selbstgehosteten Instanz mit
FIRECRAWL_API_URL
FIRECRAWL_API_URL
(Optional): Benutzerdefinierter API-Endpunkt für selbstgehostete Instanzen- Beispiel:
https://firecrawl.your-domain.com
- Wenn nicht angegeben, wird die Cloud-API verwendet (erfordert API-Schlüssel)
- Beispiel:
Optionale Konfiguration
Konfiguration wiederholen
FIRECRAWL_RETRY_MAX_ATTEMPTS
: Maximale Anzahl an Wiederholungsversuchen (Standard: 3)FIRECRAWL_RETRY_INITIAL_DELAY
: Anfängliche Verzögerung in Millisekunden vor dem ersten Wiederholungsversuch (Standard: 1000)FIRECRAWL_RETRY_MAX_DELAY
: Maximale Verzögerung in Millisekunden zwischen Wiederholungsversuchen (Standard: 10000)FIRECRAWL_RETRY_BACKOFF_FACTOR
: Exponentieller Backoff-Multiplikator (Standard: 2)
Überwachung der Kreditnutzung
FIRECRAWL_CREDIT_WARNING_THRESHOLD
: Warnschwelle für die Kreditnutzung (Standard: 1000)FIRECRAWL_CREDIT_CRITICAL_THRESHOLD
: Kritischer Schwellenwert für die Kreditnutzung (Standard: 100)
Konfigurationsbeispiele
Für die Verwendung der Cloud-API mit benutzerdefinierter Wiederholungs- und Kreditüberwachung:
Für selbst gehostete Instanzen:
Verwendung mit Claude Desktop
Fügen Sie dies zu Ihrer claude_desktop_config.json
hinzu:
Systemkonfiguration
Der Server verfügt über mehrere konfigurierbare Parameter, die über Umgebungsvariablen festgelegt werden können. Hier sind die Standardwerte, falls nicht konfiguriert:
Diese Konfigurationen steuern:
- Wiederholungsverhalten
- Automatische Wiederholung fehlgeschlagener Anfragen aufgrund von Ratenbegrenzungen
- Verwendet exponentielles Backoff, um eine Überlastung der API zu vermeiden
- Beispiel: Mit den Standardeinstellungen werden Wiederholungsversuche unternommen bei:
- Wiederholungsversuch: 1 Sekunde Verzögerung
- Wiederholungsversuch: 2 Sekunden Verzögerung
- Wiederholungsversuch: 4 Sekunden Verzögerung (begrenzt auf maxDelay)
- Überwachung der Kreditnutzung
- Verfolgt den API-Guthabenverbrauch für die Cloud-API-Nutzung
- Gibt Warnungen bei festgelegten Schwellenwerten aus
- Hilft, unerwartete Dienstunterbrechungen zu vermeiden
- Beispiel: Mit Standardeinstellungen:
- Warnung bei 1000 verbleibenden Credits
- Kritischer Alarm bei 100 verbleibenden Credits
Ratenbegrenzung und Stapelverarbeitung
Der Server nutzt die integrierten Ratenbegrenzungs- und Stapelverarbeitungsfunktionen von Firecrawl:
- Automatische Ratenbegrenzungsbehandlung mit exponentiellem Backoff
- Effiziente Parallelverarbeitung für Batch-Operationen
- Intelligente Anforderungswarteschlange und Drosselung
- Automatische Wiederholungsversuche bei vorübergehenden Fehlern
Verfügbare Tools
1. Scrape-Tool ( firecrawl_scrape
)
Scrapen Sie Inhalte von einer einzelnen URL mit erweiterten Optionen.
2. Batch-Scrape-Tool ( firecrawl_batch_scrape
)
Scrapen Sie mehrere URLs effizient mit integrierter Ratenbegrenzung und paralleler Verarbeitung.
Die Antwort enthält die Vorgangs-ID zur Statusprüfung:
3. Überprüfen Sie den Batch-Status ( firecrawl_check_batch_status
)
Überprüfen Sie den Status eines Batchvorgangs.
4. Suchwerkzeug ( firecrawl_search
)
Durchsuchen Sie das Web und extrahieren Sie optional Inhalte aus Suchergebnissen.
5. Crawl-Tool ( firecrawl_crawl
)
Starten Sie einen asynchronen Crawl mit erweiterten Optionen.
6. Extraktionstool ( firecrawl_extract
)
Extrahieren Sie strukturierte Informationen aus Webseiten mithilfe von LLM-Funktionen. Unterstützt sowohl Cloud-KI als auch selbst gehostete LLM-Extraktion.
Beispielantwort:
Optionen des Extraktionstools:
urls
: Array von URLs, aus denen Informationen extrahiert werden sollenprompt
: Benutzerdefinierte Eingabeaufforderung für die LLM-ExtraktionsystemPrompt
: Systemaufforderung zur Anleitung des LLMschema
: JSON-Schema für die strukturierte DatenextraktionallowExternalLinks
: Erlaubt die Extraktion aus externen LinksenableWebSearch
: Aktivieren Sie die Websuche für zusätzlichen KontextincludeSubdomains
: Subdomains in die Extraktion einschließen
Bei Verwendung einer selbstgehosteten Instanz erfolgt die Extraktion über Ihr konfiguriertes LLM. Für die Cloud-API wird der verwaltete LLM-Dienst von Firecrawl verwendet.
7. Tool für tiefgehende Recherche (firecrawl_deep_research)
Führen Sie mithilfe intelligenter Crawling-, Such- und LLM-Analysen eine Deep-Web-Recherche zu einer Abfrage durch.
Argumente:
- Abfrage (Zeichenfolge, erforderlich): Die zu untersuchende Forschungsfrage oder das zu untersuchende Thema.
- maxDepth (Zahl, optional): Maximale rekursive Tiefe für Crawling/Suche (Standard: 3).
- timeLimit (Zahl, optional): Zeitlimit in Sekunden für die Recherchesitzung (Standard: 120).
- maxUrls (Zahl, optional): Maximale Anzahl der zu analysierenden URLs (Standard: 50).
Widerrufsfolgen:
- Von einem LLM auf Grundlage von Forschung erstellte Endanalyse. (data.finalAnalysis)
- Kann auch strukturierte Aktivitäten und Quellen umfassen, die im Forschungsprozess verwendet wurden.
8. Tool zum Generieren von LLMs.txt (firecrawl_generate_llmstxt)
Generieren Sie eine standardisierte llms.txt-Datei (und optional llms-full.txt) für eine bestimmte Domäne. Diese Datei definiert, wie große Sprachmodelle mit der Site interagieren sollen.
Argumente:
- url (Zeichenfolge, erforderlich): Die Basis-URL der zu analysierenden Website.
- maxUrls (Zahl, optional): Maximale Anzahl einzuschließender URLs (Standard: 10).
- showFullText (boolesch, optional): Ob der Inhalt von llms-full.txt in die Antwort aufgenommen werden soll.
Widerrufsfolgen:
- Generierter Inhalt der Datei llms.txt und optional der Datei llms-full.txt (data.llmstxt und/oder data.llmsfulltxt)
Protokollierungssystem
Der Server beinhaltet eine umfassende Protokollierung:
- Betriebsstatus und -fortschritt
- Leistungsmetriken
- Überwachung der Kreditnutzung
- Ratenbegrenzungsverfolgung
- Fehlerbedingungen
Beispiele für Protokollmeldungen:
Fehlerbehandlung
Der Server bietet eine robuste Fehlerbehandlung:
- Automatische Wiederholungsversuche bei vorübergehenden Fehlern
- Ratenbegrenzungsbehandlung mit Backoff
- Detaillierte Fehlermeldungen
- Warnungen zur Kreditnutzung
- Netzwerkstabilität
Beispiel für eine Fehlerantwort:
Entwicklung
Beitragen
- Forken Sie das Repository
- Erstellen Sie Ihren Feature-Zweig
- Tests ausführen:
npm test
- Senden einer Pull-Anfrage
Dank an die Mitwirkenden
Danke an @vrknetha , @cawstudios für die erste Implementierung!
Danke an MCP.so und Klavis AI für das Hosting und @gstarwd , @xiangkaiz und @zihaolin96 für die Integration unseres Servers.
Lizenz
MIT-Lizenz – Einzelheiten finden Sie in der Datei „LICENSE“
You must be authenticated.
local-only server
The server can only run on the client's local machine because it depends on local resources.
Tools
Eine Model Context Protocol (MCP)-Serverimplementierung, die sich in FireCrawl für erweiterte Web-Scraping-Funktionen integrieren lässt.
- Merkmale
- Installation
- Konfiguration
- Verfügbare Tools
- Scrape-Tool ( firecrawl_scrape )
- Batch-Scrape-Tool ( firecrawl_batch_scrape )
- Überprüfen Sie den Batch-Status ( firecrawl_check_batch_status )
- Suchwerkzeug ( firecrawl_search )
- Crawl-Tool ( firecrawl_crawl )
- Extraktionstool ( firecrawl_extract )
- Tool für tiefgehende Recherche (firecrawl\_deep\_research)
- Tool zum Generieren von LLMs.txt (firecrawl\_generate\_llmstxt)
- Protokollierungssystem
- Fehlerbehandlung
- Entwicklung
- Lizenz
Related Resources
Related MCP Servers
- AsecurityAlicenseAqualityMCP Server enabling integration with Scrapezy to retrieve structured data from websites.Last updated -1121JavaScriptMIT License
- AsecurityFlicenseAqualityBuilt as a Model Context Protocol (MCP) server that provides advanced web search, content extraction, web crawling, and scraping capabilities using the Firecrawl API.Last updated -41Python
- -securityAlicense-qualityA Model Context Protocol server that allows LLMs to interact with web content through standardized tools, currently supporting web scraping functionality.Last updated -PythonMIT License
- AsecurityFlicenseAqualityA server that provides tools to scrape websites and extract structured data from them using Firecrawl's APIs, supporting both basic website scraping in multiple formats and custom schema-based data extraction.Last updated -2JavaScript
Appeared in Searches
- Information about 雪球 (Xueqiu or Snowball)
- A tool or method for viewing the unrendered HTML/JavaScript of a webpage
- Adding web browsing and page reading capabilities to an agent
- Resources or Information on Industry Research
- A resource for finding up-to-date Australian legal sources such as journal articles, case law, and essays