Firecrawl MCP-Server
Eine Model Context Protocol (MCP)-Serverimplementierung, die sich für Web-Scraping-Funktionen in Firecrawl integrieren lässt.
Vielen Dank an @vrknetha und @knacklabs für die erste Implementierung!
Merkmale
Web Scraping, Crawling und Discovery
Suche und Inhaltsextraktion
Tiefgehende Recherche und Batch-Scraping
Automatische Wiederholungsversuche und Ratenbegrenzung
Cloud- und selbstgehosteter Support
SSE-Unterstützung
Spielen Sie mit unserem MCP-Server auf dem Spielplatz von MCP.so oder auf Klavis AI herum.
Installation
Ausführen mit npx
Manuelle Installation
Läuft auf Cursor
Cursor konfigurieren 🖥️ Hinweis: Erfordert Cursor-Version 0.45.6+. Die aktuellsten Konfigurationsanweisungen finden Sie in der offiziellen Cursor-Dokumentation zur Konfiguration von MCP-Servern: Cursor MCP Server Configuration Guide
So konfigurieren Sie Firecrawl MCP in Cursor v0.48.6
Cursoreinstellungen öffnen
Gehen Sie zu Funktionen > MCP-Server
Klicken Sie auf „+ Neuen globalen MCP-Server hinzufügen“.
Geben Sie den folgenden Code ein:
{ "mcpServers": { "firecrawl-mcp": { "command": "npx", "args": ["-y", "firecrawl-mcp"], "env": { "FIRECRAWL_API_KEY": "YOUR-API-KEY" } } } }
So konfigurieren Sie Firecrawl MCP in Cursor v0.45.6
Cursoreinstellungen öffnen
Gehen Sie zu Funktionen > MCP-Server
Klicken Sie auf „+ Neuen MCP-Server hinzufügen“
Geben Sie Folgendes ein:
Name: „firecrawl-mcp“ (oder Ihr bevorzugter Name)
Typ: „Befehl“
Befehl:
env FIRECRAWL_API_KEY=your-api-key npx -y firecrawl-mcp
Wenn Sie Windows verwenden und auf Probleme stoßen, versuchen Sie
cmd /c "set FIRECRAWL_API_KEY=your-api-key && npx -y firecrawl-mcp"
Ersetzen Sie your-api-key durch Ihren Firecrawl-API-Schlüssel. Falls Sie noch keinen haben, können Sie ein Konto erstellen und ihn unter https://www.firecrawl.dev/app/api-keys abrufen.
Aktualisieren Sie nach dem Hinzufügen die MCP-Serverliste, um die neuen Tools anzuzeigen. Der Composer Agent verwendet bei Bedarf automatisch Firecrawl MCP. Sie können es jedoch explizit anfordern, indem Sie Ihre Web-Scraping-Anforderungen beschreiben. Rufen Sie den Composer über Befehl+L (Mac) auf, wählen Sie „Agent“ neben der Schaltfläche „Senden“ und geben Sie Ihre Anfrage ein.
Laufen auf dem Windsurfbrett
Fügen Sie dies zu Ihrer ./codeium/windsurf/model_config.json hinzu:
Ausführen im lokalen SSE-Modus
So führen Sie den Server lokal mit Server-Sent Events (SSE) anstelle des standardmäßigen stdio-Transports aus:
Verwenden Sie die URL: http://localhost:3000/sse
Installation über Smithery (Legacy)
So installieren Sie Firecrawl für Claude Desktop automatisch über Smithery :
Ausführung auf VS Code
Klicken Sie für die Ein-Klick-Installation auf eine der folgenden Installationsschaltflächen ...
Für die manuelle Installation fügen Sie den folgenden JSON-Block zu Ihrer Benutzereinstellungsdatei (JSON) in VS Code hinzu. Drücken Sie dazu Ctrl + Shift + P und geben Sie Preferences: Open User Settings (JSON) ein.
Optional können Sie die Konfiguration einer Datei namens .vscode/mcp.json in Ihrem Arbeitsbereich hinzufügen. Dadurch können Sie die Konfiguration mit anderen teilen:
Konfiguration
Umgebungsvariablen
Erforderlich für Cloud-API
FIRECRAWL_API_KEY: Ihr Firecrawl-API-SchlüsselErforderlich bei Verwendung der Cloud-API (Standard)
Optional bei Verwendung einer selbstgehosteten Instanz mit
FIRECRAWL_API_URL
FIRECRAWL_API_URL(Optional): Benutzerdefinierter API-Endpunkt für selbstgehostete InstanzenBeispiel:
https://firecrawl.your-domain.comWenn nicht angegeben, wird die Cloud-API verwendet (erfordert API-Schlüssel)
Optionale Konfiguration
Konfiguration wiederholen
FIRECRAWL_RETRY_MAX_ATTEMPTS: Maximale Anzahl an Wiederholungsversuchen (Standard: 3)FIRECRAWL_RETRY_INITIAL_DELAY: Anfängliche Verzögerung in Millisekunden vor dem ersten Wiederholungsversuch (Standard: 1000)FIRECRAWL_RETRY_MAX_DELAY: Maximale Verzögerung in Millisekunden zwischen Wiederholungsversuchen (Standard: 10000)FIRECRAWL_RETRY_BACKOFF_FACTOR: Exponentieller Backoff-Multiplikator (Standard: 2)
Überwachung der Kreditnutzung
FIRECRAWL_CREDIT_WARNING_THRESHOLD: Warnschwelle für die Kreditnutzung (Standard: 1000)FIRECRAWL_CREDIT_CRITICAL_THRESHOLD: Kritischer Schwellenwert für die Kreditnutzung (Standard: 100)
Konfigurationsbeispiele
Für die Verwendung der Cloud-API mit benutzerdefinierter Wiederholungs- und Kreditüberwachung:
Für selbst gehostete Instanzen:
Verwendung mit Claude Desktop
Fügen Sie dies zu Ihrer claude_desktop_config.json hinzu:
Systemkonfiguration
Der Server verfügt über mehrere konfigurierbare Parameter, die über Umgebungsvariablen festgelegt werden können. Hier sind die Standardwerte, falls nicht konfiguriert:
Diese Konfigurationen steuern:
Wiederholungsverhalten
Automatische Wiederholung fehlgeschlagener Anfragen aufgrund von Ratenbegrenzungen
Verwendet exponentielles Backoff, um eine Überlastung der API zu vermeiden
Beispiel: Mit den Standardeinstellungen werden Wiederholungsversuche unternommen bei:
Wiederholungsversuch: 1 Sekunde Verzögerung
Wiederholungsversuch: 2 Sekunden Verzögerung
Wiederholungsversuch: 4 Sekunden Verzögerung (begrenzt auf maxDelay)
Überwachung der Kreditnutzung
Verfolgt den API-Guthabenverbrauch für die Cloud-API-Nutzung
Gibt Warnungen bei festgelegten Schwellenwerten aus
Hilft, unerwartete Dienstunterbrechungen zu vermeiden
Beispiel: Mit Standardeinstellungen:
Warnung bei 1000 verbleibenden Credits
Kritischer Alarm bei 100 verbleibenden Credits
Ratenbegrenzung und Stapelverarbeitung
Der Server nutzt die integrierten Ratenbegrenzungs- und Stapelverarbeitungsfunktionen von Firecrawl:
Automatische Ratenbegrenzungsbehandlung mit exponentiellem Backoff
Effiziente Parallelverarbeitung für Batch-Operationen
Intelligente Anforderungswarteschlange und Drosselung
Automatische Wiederholungsversuche bei vorübergehenden Fehlern
Verfügbare Tools
1. Scrape-Tool ( firecrawl_scrape )
Scrapen Sie Inhalte von einer einzelnen URL mit erweiterten Optionen.
2. Batch-Scrape-Tool ( firecrawl_batch_scrape )
Scrapen Sie mehrere URLs effizient mit integrierter Ratenbegrenzung und paralleler Verarbeitung.
Die Antwort enthält die Vorgangs-ID zur Statusprüfung:
3. Überprüfen Sie den Batch-Status ( firecrawl_check_batch_status )
Überprüfen Sie den Status eines Batchvorgangs.
4. Suchwerkzeug ( firecrawl_search )
Durchsuchen Sie das Web und extrahieren Sie optional Inhalte aus Suchergebnissen.
5. Crawl-Tool ( firecrawl_crawl )
Starten Sie einen asynchronen Crawl mit erweiterten Optionen.
6. Extraktionstool ( firecrawl_extract )
Extrahieren Sie strukturierte Informationen aus Webseiten mithilfe von LLM-Funktionen. Unterstützt sowohl Cloud-KI als auch selbst gehostete LLM-Extraktion.
Beispielantwort:
Optionen des Extraktionstools:
urls: Array von URLs, aus denen Informationen extrahiert werden sollenprompt: Benutzerdefinierte Eingabeaufforderung für die LLM-ExtraktionsystemPrompt: Systemaufforderung zur Anleitung des LLMschema: JSON-Schema für die strukturierte DatenextraktionallowExternalLinks: Erlaubt die Extraktion aus externen LinksenableWebSearch: Aktivieren Sie die Websuche für zusätzlichen KontextincludeSubdomains: Subdomains in die Extraktion einschließen
Bei Verwendung einer selbstgehosteten Instanz erfolgt die Extraktion über Ihr konfiguriertes LLM. Für die Cloud-API wird der verwaltete LLM-Dienst von Firecrawl verwendet.
7. Tool für tiefgehende Recherche (firecrawl_deep_research)
Führen Sie mithilfe intelligenter Crawling-, Such- und LLM-Analysen eine Deep-Web-Recherche zu einer Abfrage durch.
Argumente:
Abfrage (Zeichenfolge, erforderlich): Die zu untersuchende Forschungsfrage oder das zu untersuchende Thema.
maxDepth (Zahl, optional): Maximale rekursive Tiefe für Crawling/Suche (Standard: 3).
timeLimit (Zahl, optional): Zeitlimit in Sekunden für die Recherchesitzung (Standard: 120).
maxUrls (Zahl, optional): Maximale Anzahl der zu analysierenden URLs (Standard: 50).
Widerrufsfolgen:
Von einem LLM auf Grundlage von Forschung erstellte Endanalyse. (data.finalAnalysis)
Kann auch strukturierte Aktivitäten und Quellen umfassen, die im Forschungsprozess verwendet wurden.
8. Tool zum Generieren von LLMs.txt (firecrawl_generate_llmstxt)
Generieren Sie eine standardisierte llms.txt-Datei (und optional llms-full.txt) für eine bestimmte Domäne. Diese Datei definiert, wie große Sprachmodelle mit der Site interagieren sollen.
Argumente:
url (Zeichenfolge, erforderlich): Die Basis-URL der zu analysierenden Website.
maxUrls (Zahl, optional): Maximale Anzahl einzuschließender URLs (Standard: 10).
showFullText (boolesch, optional): Ob der Inhalt von llms-full.txt in die Antwort aufgenommen werden soll.
Widerrufsfolgen:
Generierter Inhalt der Datei llms.txt und optional der Datei llms-full.txt (data.llmstxt und/oder data.llmsfulltxt)
Protokollierungssystem
Der Server beinhaltet eine umfassende Protokollierung:
Betriebsstatus und -fortschritt
Leistungsmetriken
Überwachung der Kreditnutzung
Ratenbegrenzungsverfolgung
Fehlerbedingungen
Beispiele für Protokollmeldungen:
Fehlerbehandlung
Der Server bietet eine robuste Fehlerbehandlung:
Automatische Wiederholungsversuche bei vorübergehenden Fehlern
Ratenbegrenzungsbehandlung mit Backoff
Detaillierte Fehlermeldungen
Warnungen zur Kreditnutzung
Netzwerkstabilität
Beispiel für eine Fehlerantwort:
Entwicklung
Beitragen
Forken Sie das Repository
Erstellen Sie Ihren Feature-Zweig
Tests ausführen:
npm testSenden einer Pull-Anfrage
Dank an die Mitwirkenden
Danke an @vrknetha , @cawstudios für die erste Implementierung!
Danke an MCP.so und Klavis AI für das Hosting und @gstarwd , @xiangkaiz und @zihaolin96 für die Integration unseres Servers.
Lizenz
MIT-Lizenz – Einzelheiten finden Sie in der Datei „LICENSE“
local-only server
The server can only run on the client's local machine because it depends on local resources.
Eine Model Context Protocol (MCP)-Serverimplementierung, die sich in FireCrawl für erweiterte Web-Scraping-Funktionen integrieren lässt.
- Merkmale
- Installation
- Konfiguration
- Verfügbare Tools
- 1. Scrape-Tool ( firecrawl_scrape )
- 2. Batch-Scrape-Tool ( firecrawl_batch_scrape )
- 3. Überprüfen Sie den Batch-Status ( firecrawl_check_batch_status )
- 4. Suchwerkzeug ( firecrawl_search )
- 5. Crawl-Tool ( firecrawl_crawl )
- 6. Extraktionstool ( firecrawl_extract )
- 7. Tool für tiefgehende Recherche (firecrawl_deep_research)
- 8. Tool zum Generieren von LLMs.txt (firecrawl_generate_llmstxt)
- Protokollierungssystem
- Fehlerbehandlung
- Entwicklung
- Lizenz
Related Resources
Related MCP Servers
- AsecurityAlicenseAqualityA Model Context Protocol (MCP) server that provides search and crawl functionality using Search1API.Last updated -91157MIT License
- AsecurityFlicenseAqualityBuilt as a Model Context Protocol (MCP) server that provides advanced web search, content extraction, web crawling, and scraping capabilities using the Firecrawl API.Last updated -1
- AsecurityAlicenseAqualityA Model Context Protocol server that enables web search, scraping, crawling, and content extraction through multiple engines including SearXNG, Firecrawl, and Tavily.Last updated -42857MIT License
- -securityAlicense-qualityA Model Context Protocol server that enables AI assistants to perform advanced web scraping, crawling, searching, and data extraction through the Firecrawl API.Last updated -39,239MIT License