Skip to main content
Glama
de.json6.45 kB
{ "Extract structured data from websites using AI with natural language prompts": "Extrahieren Sie strukturierte Daten von Webseiten mit Hilfe von KI mit natürlichen Sprachabfragen", "\nFollow these steps to obtain your Firecrawl API Key:\n\n1. Visit [Firecrawl](https://firecrawl.dev) and create an account.\n2. Log in and navigate to your dashboard.\n3. Locate and copy your API key from the API settings section.\n": "\nFolge diesen Schritten, um deinen Firecrawl API-Schlüssel zu erhalten:\n\n1. Besuche [Firecrawl](https://firecrawl.dev) und erstelle ein Konto.\n2. Melden Sie sich an und navigieren Sie zu Ihrem Dashboard.\n3. Suchen und kopieren Sie Ihren API-Schlüssel aus dem Abschnitt API-Einstellungen.\n", "Scrape Website": "Scrape Webseite", "Extract Structured Data": "Strukturierte Daten extrahieren", "Crawl": "Crawl", "Crawl Results": "Crawl-Ergebnisse", "Map Websites": "Karten-Websites", "Custom API Call": "Eigener API-Aufruf", "Scrape a website by performing a series of actions like clicking, typing, taking screenshots, and extracting data.": "Scrape eine Website, indem du eine Reihe von Aktionen durchführst, wie zum Beispiel Klicken, tippen, Screenshots machen und Daten extrahieren.", "Extract structured data from multiple URLs using AI.": "Extrahieren Sie strukturierte Daten aus mehreren URLs mit Hilfe von KI.", "Crawl multiple pages from a website based on specified rules and patterns.": "Wechseln Sie mehrere Seiten einer Website basierend auf bestimmten Regeln und Mustern.", "Get the results of a crawl job.": "Holen Sie sich die Ergebnisse eines Crawl-Jobs.", "Input a website and get all the urls on the website.": "Geben Sie eine Webseite ein und holen Sie sich alle Urls auf der Website.", "Make a custom API call to a specific endpoint": "Einen benutzerdefinierten API-Aufruf an einen bestimmten Endpunkt machen", "Website URL": "Website-URL", "Timeout (ms)": "Timeout (ms)", "Perform Actions Before Scraping": "Aktionen vor dem Schrotten ausführen", "Action Properties": "Aktionseigenschaften", "Output Format": "Ausgabeformat", "Extraction Prompt": "Prompt für Extraktion", "Schema Mode": "Schema-Modus", "Data Definition": "Datendefinition", "URLs": "URLs", "Enable Web Search": "Websuche aktivieren", "Timeout (seconds)": "Timeout (Sekunden)", "Data Schema Type": "Datentyp", "URL": "URL", "Prompt": "Prompt", "Limit": "Limit", "Only Main Content": "Nur Hauptinhalte", "Deliver Results to Webhook": "Ergebnisse an Webhook übermitteln", "Webhook Properties": "Webhook Eigenschaften", "Crawl ID": "Crawl-ID", "Main Website URL": "Haupt-Website-URL", "Include subdomain": "Subdomain einbeziehen", "Method": "Methode", "Headers": "Kopfzeilen", "Query Parameters": "Abfrageparameter", "Body": "Körper", "Response is Binary ?": "Antwort ist binär?", "No Error on Failure": "Kein Fehler bei Fehler", "Timeout (in seconds)": "Timeout (in Sekunden)", "The webpage URL to scrape.": "Die URL der Webseite.", "Maximum time to wait for the page to load (in milliseconds).": "Maximale Wartezeit, bis die Seite geladen wird (in Millisekunden).", "Enable to perform a sequence of actions on the page before scraping (like clicking buttons, filling forms, etc.). See [Firecrawl Actions Documentation](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions) for details on available actions and their parameters.": "Aktivieren, um eine Reihe von Aktionen auf der Seite vor dem Scraping auszuführen (z.B. Klicken Sie auf Schaltflächen, Füllformulare etc.). Siehe [Firecrawl Actions Documentation](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions) für Details über verfügbare Aktionen und deren Parameter.", "Properties for actions that will be performed on the page.": "Eigenschaften für Aktionen, die auf der Seite ausgeführt werden.", "Choose what format you want your output in.": "Wählen Sie in welchem Format Sie Ihre Ausgabe möchten.", "Prompt for extracting data.": "Prompt zum Extrahieren von Daten.", "Data schema type.": "Datentyp.", "Add one or more URLs to extract data from.": "Fügen Sie eine oder mehrere URLs hinzu, aus denen Daten extrahiert werden können.", "Describe what information you want to extract.": "Beschreiben Sie, welche Informationen Sie extrahieren möchten.", "Enable web search to find additional context.": "Websuche aktivieren, um zusätzlichen Kontext zu finden.", "Timeout in seconds after which the task will be cancelled": "Timeout in Sekunden, nach der die Aufgabe abgebrochen wird", "For complex schema, you can use advanced mode.": "Für ein komplexes Schema können Sie den erweiterten Modus verwenden.", "The base URL to start crawling from.": "Die Basis-URL, von der aus Crawlen gestartet werden soll.", "Maximum number of pages to crawl. Default limit is 10.": "Maximale Anzahl der zu crawlenden Seiten. Standardwert ist 10.", "Only return the main content of the page, excluding headers, navs, footers, etc.": "Gibt nur den Hauptinhalt der Seite zurück, ohne Kopf- und Navigationszeilen, Fußzeilen, etc.", "Enable to send crawl results to a webhook URL.": "Aktivieren, um Crawl-Ergebnisse an eine Webhook-URL zu senden.", "Properties for webhook configuration.": "Eigenschaften für Webhook Konfiguration.", "The ID of the crawl job to check.": "Die ID des zu überprüfenden Crawl-Jobs.", "The webpage URL to start scraping from.": "Die URL der Webseite, von der das Verschrotten gestartet wird.", "Include and crawl pages from subdomains of the target website (e.g., blog.example.com, shop.example.com) in addition to the main domain.": "Fügen Sie neben der Haupt-Domain auch Seiten aus Subdomains der Ziel-Website (z.B. blog.example.com, shop.example.com) hinzu und crawl Seiten aus Subdomains der Ziel-Website (z.B. blog.example.com, shop.example.com).", "Maximum number of links to return (max: 100,000)": "Maximale Anzahl der zurückzugebenden Links (max: 100.000)", "Authorization headers are injected automatically from your connection.": "Autorisierungs-Header werden automatisch von Ihrer Verbindung injiziert.", "Enable for files like PDFs, images, etc..": "Aktivieren für Dateien wie PDFs, Bilder, etc..", "Simple": "Einfach", "Advanced": "Erweitert", "GET": "ERHALTEN", "POST": "POST", "PATCH": "PATCH", "PUT": "PUT", "DELETE": "LÖSCHEN", "HEAD": "HEAD" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server