Skip to main content
Glama

mcp-google-sheets

de.json7.51 kB
{ "Extract structured data from websites using AI with natural language prompts": "Extrahieren Sie strukturierte Daten von Webseiten mit Hilfe von KI mit natürlichen Sprachabfragen", "\nFollow these steps to obtain your Firecrawl API Key:\n\n1. Visit [Firecrawl](https://firecrawl.dev) and create an account.\n2. Log in and navigate to your dashboard.\n3. Locate and copy your API key from the API settings section.\n": "\nFolge diesen Schritten, um deinen Firecrawl API-Schlüssel zu erhalten:\n\n1. Besuche [Firecrawl](https://firecrawl.dev) und erstelle ein Konto.\n2. Melden Sie sich an und navigieren Sie zu Ihrem Dashboard.\n3. Suchen und kopieren Sie Ihren API-Schlüssel aus dem Abschnitt API-Einstellungen.\n", "Scrape Website": "Scrape Webseite", "Start Crawl": "Crawl starten", "Crawl Results": "Crawl-Ergebnisse", "Custom API Call": "Eigener API-Aufruf", "Scrape a website by performing a series of actions like clicking, typing, taking screenshots, and extracting data.": "Scrape eine Website, indem du eine Reihe von Aktionen durchführst, wie zum Beispiel Klicken, tippen, Screenshots machen und Daten extrahieren.", "Start crawling multiple pages from a website based on specified rules and patterns.": "Beginnen Sie mit dem Crawlen mehrerer Seiten einer Website, basierend auf bestimmten Regeln und Mustern.", "Get the results of a crawl job.": "Holen Sie sich die Ergebnisse eines Crawl-Jobs.", "Make a custom API call to a specific endpoint": "Einen benutzerdefinierten API-Aufruf an einen bestimmten Endpunkt machen", "Website URL": "Website-URL", "Timeout (ms)": "Timeout (ms)", "Perform Actions Before Scraping": "Aktionen vor dem Schrotten ausführen", "Action Properties": "Aktionseigenschaften", "Extraction Type": "Extrahierungstyp", "Extraction Properties": "Extraktionseigenschaften", "URL": "URL", "Exclude Paths": "Pfade ausschließen", "Include Paths": "Pfade einschließen", "Maximum Path Depth": "Maximale Pfadtiefe", "Maximum Discovery Depth": "Maximale Entdeckungstiefe", "Ignore Sitemap": "Ignore Sitemap", "Ignore Query Parameters": "Abfrageparameter ignorieren", "Limit": "Limit", "Allow Backward Links": "Rückwärtslinks erlauben", "Allow External Links": "Externe Links erlauben", "Deliver Results to Webhook": "Ergebnisse an Webhook übermitteln", "Webhook Properties": "Webhook Eigenschaften", "Crawl ID": "Crawl-ID", "Method": "Methode", "Headers": "Kopfzeilen", "Query Parameters": "Abfrageparameter", "Body": "Körper", "Response is Binary ?": "Antwort ist binär?", "No Error on Failure": "Kein Fehler bei Fehler", "Timeout (in seconds)": "Timeout (in Sekunden)", "The webpage URL to scrape.": "Die URL der Webseite.", "Maximum time to wait for the page to load (in milliseconds).": "Maximale Wartezeit, bis die Seite geladen wird (in Millisekunden).", "Enable to perform a sequence of actions on the page before scraping (like clicking buttons, filling forms, etc.). See [Firecrawl Actions Documentation](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions) for details on available actions and their parameters.": "Aktivieren, um eine Reihe von Aktionen auf der Seite vor dem Scraping auszuführen (z.B. Klicken Sie auf Schaltflächen, Füllformulare etc.). Siehe [Firecrawl Actions Documentation](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions) für Details über verfügbare Aktionen und deren Parameter.", "Properties for actions that will be performed on the page.": "Eigenschaften für Aktionen, die auf der Seite ausgeführt werden.", "Choose how to extract data from the webpage.": "Wählen Sie aus, wie Daten von der Webseite extrahiert werden sollen.", "Properties for data extraction from the webpage.": "Eigenschaften zur Datenextraktion aus der Webseite.", "The base URL to start crawling from.": "Die Basis-URL, von der aus Crawlen gestartet werden soll.", "URL pathname regex patterns that exclude matching URLs from the crawl. For example, if you set \"excludePaths\": [\"blog/.*\"] for the base URL firecrawl.dev, any results matching that pattern will be excluded, such as https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.": "URL-Pfadnamen regex-Muster, die übereinstimmende URLs aus dem Crawl ausschließen. Zum Beispiel, wenn Sie \"excludePaths\" setzen: [\"blog/.*\"] für den Basis-URL-Firecrawl. ev, alle Ergebnisse, die mit diesem Muster übereinstimmen, wie https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.", "URL pathname regex patterns that include matching URLs in the crawl. Only the paths that match the specified patterns will be included in the response. For example, if you set \"includePaths\": [\"blog/.*\"] for the base URL firecrawl.dev, only results matching that pattern will be included, such as https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.": "URL-Pfadname regex-Muster, die übereinstimmende URLs im Crawl enthalten. Nur die Pfade, die zu den angegebenen Mustern passen, werden in der Antwort berücksichtigt. Zum Beispiel, wenn Sie \"includePaths\" setzen: [\"blog/. \"] für die Basis-URL firecrawl.dev, nur Ergebnisse, die mit diesem Muster übereinstimmen, wie https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.", "Maximum depth to crawl relative to the base URL. Basically, the max number of slashes the pathname of a scraped URL may contain.": "Maximale Tiefe zum Crawlen relativ zur Basis-URL. Grundsätzlich kann die maximale Anzahl an Schrägstrichen den Pfadnamen einer verschrotteten URL enthalten.", "Maximum depth to crawl based on discovery order. The root site and sitemapped pages has a discovery depth of 0. For example, if you set it to 1, and you set ignoreSitemap, you will only crawl the entered URL and all URLs that are linked on that page.": "Maximale Tiefe zum Crawlen, basierend auf der Reihenfolge der Entdeckungen. Die Root-Seite und Sitemapped Seiten haben eine Entdeckungstiefe von 0. Zum Beispiel, wenn Sie es auf 1 setzen und ignoreSitemap setzen, Sie werden nur die eingegebene URL und alle URLs crawlen, die auf dieser Seite verlinkt sind.", "Ignore the website sitemap when crawling": "Website-Sitemap beim Crawlen ignorieren", "Do not re-scrape the same path with different (or none) query parameters": "Den gleichen Pfad nicht mit unterschiedlichen (oder nichten) Abfrageparametern neu kratzen", "Maximum number of pages to crawl. Default limit is 10000.": "Maximale Anzahl der zu crawlenden Seiten. Standardwert ist 10000.", "Enables the crawler to navigate from a specific URL to previously linked pages.": "Ermöglicht den Crawler von einer bestimmten URL zu zuvor verlinkten Seiten zu navigieren.", "Allows the crawler to follow links to external websites.": "Ermöglicht dem Crawler Links zu externen Websites zu folgen.", "Enable to send crawl results to a webhook URL.": "Aktivieren, um Crawl-Ergebnisse an eine Webhook-URL zu senden.", "Properties for webhook configuration.": "Eigenschaften für Webhook Konfiguration.", "The ID of the crawl job to check.": "Die ID des zu überprüfenden Crawl-Jobs.", "Authorization headers are injected automatically from your connection.": "Autorisierungs-Header werden automatisch von Ihrer Verbindung injiziert.", "Enable for files like PDFs, images, etc..": "Aktivieren für Dateien wie PDFs, Bilder, etc..", "GET": "ERHALTEN", "POST": "POST", "PATCH": "PATCH", "PUT": "PUT", "DELETE": "LÖSCHEN", "HEAD": "HEAD" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server