Skip to main content
Glama

mcp-google-sheets

nl.json7.27 kB
{ "Extract structured data from websites using AI with natural language prompts": "Haal gestructureerde gegevens uit websites met behulp van AI met natuurlijke taalprompts uit", "\nFollow these steps to obtain your Firecrawl API Key:\n\n1. Visit [Firecrawl](https://firecrawl.dev) and create an account.\n2. Log in and navigate to your dashboard.\n3. Locate and copy your API key from the API settings section.\n": "\nVolg deze stappen om uw Firecrawl API Key te verkrijgen:\n\n1. Bezoek [Firecrawl](https://firecrawl.dev) en maak een account aan.\n2. Log in en navigeer naar uw dashboard.\n3. Zoek en kopieer uw API-sleutel vanuit de API-instellingen sectie.\n", "Scrape Website": "Scrape Website", "Start Crawl": "Start Crawl", "Crawl Results": "Crawl resultaten", "Custom API Call": "Custom API Call", "Scrape a website by performing a series of actions like clicking, typing, taking screenshots, and extracting data.": "Scrapen een website door een reeks acties uit te voeren zoals klikken, typen, screenshots maken en gegevens uitpakken.", "Start crawling multiple pages from a website based on specified rules and patterns.": "Begin met het crawen van meerdere pagina's vanuit een website op basis van specifieke regels en patronen.", "Get the results of a crawl job.": "Krijg het resultaat van een crawl job.", "Make a custom API call to a specific endpoint": "Maak een aangepaste API call naar een specifiek eindpunt", "Website URL": "Website URL", "Timeout (ms)": "Time-out (ms)", "Perform Actions Before Scraping": "Acties uitvoeren voor scraping", "Action Properties": "Actie Eigenschappen", "Extraction Type": "Type uitpakken", "Extraction Properties": "Extractie Eigenschappen", "URL": "URL", "Exclude Paths": "Paden uitsluiten", "Include Paths": "Inclusief paden", "Maximum Path Depth": "Maximale Pad Diepte", "Maximum Discovery Depth": "Maximale ontdekkingsdiepte", "Ignore Sitemap": "Ignore Sitemap", "Ignore Query Parameters": "Zoekparameters negeren", "Limit": "Limiet", "Allow Backward Links": "Achterwaartse links toestaan", "Allow External Links": "Externe links toestaan", "Deliver Results to Webhook": "Resultaten leveren aan Webhook", "Webhook Properties": "Webhook eigenschappen", "Crawl ID": "Crawl ID", "Method": "Methode", "Headers": "Kopteksten", "Query Parameters": "Query parameters", "Body": "Lichaam", "Response is Binary ?": "Antwoord is binair?", "No Error on Failure": "Geen fout bij fout", "Timeout (in seconds)": "Time-out (in seconden)", "The webpage URL to scrape.": "De URL van de webpagina om te scrapen.", "Maximum time to wait for the page to load (in milliseconds).": "Maximale wachttijd voor het laden van de pagina (in milliseconden).", "Enable to perform a sequence of actions on the page before scraping (like clicking buttons, filling forms, etc.). See [Firecrawl Actions Documentation](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions) for details on available actions and their parameters.": "Inschakelen om een reeks van acties uit te voeren op de pagina voordat u scrapt (zoals op knoppen, invullen van formulieren, enz.). Zie [Firecrawl Acties Documentatie](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions) voor meer informatie over beschikbare acties en hun parameters.", "Properties for actions that will be performed on the page.": "Eigenschappen voor acties die worden uitgevoerd op de pagina.", "Choose how to extract data from the webpage.": "Kies hoe gegevens uit de webpagina te halen.", "Properties for data extraction from the webpage.": "Eigenschappen voor data-extractie van de webpagina.", "The base URL to start crawling from.": "De basis-URL waar gecrawt vanaf moet worden.", "URL pathname regex patterns that exclude matching URLs from the crawl. For example, if you set \"excludePaths\": [\"blog/.*\"] for the base URL firecrawl.dev, any results matching that pattern will be excluded, such as https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.": "URL pathname regex patronen die overeenstemmen met URL's van de crawl. Bijvoorbeeld, als u \"excludePaths\": [\"blog/.*\"] voor de basis URL firecrawl. alle resultaten die overeenkomen met dat patroon worden uitgesloten, zoals https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.", "URL pathname regex patterns that include matching URLs in the crawl. Only the paths that match the specified patterns will be included in the response. For example, if you set \"includePaths\": [\"blog/.*\"] for the base URL firecrawl.dev, only results matching that pattern will be included, such as https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.": "URL pathname regex patronen die overeenstemmen met URL's in de crawl. Alleen de paden die overeenkomen met de opgegeven patronen worden opgenomen in het antwoord. Bijvoorbeeld, als je \"includePaths\" instelt: [\"blog/. \"] voor de base URL firecrawl.dev, alleen resultaten die overeenkomen met dat patroon, zoals https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.", "Maximum depth to crawl relative to the base URL. Basically, the max number of slashes the pathname of a scraped URL may contain.": "Maximale diepte om te crawl ten opzichte van de basis-URL. In principe kan het maximale aantal slashes de padnaam van een gescrapde URL bevatten.", "Maximum depth to crawl based on discovery order. The root site and sitemapped pages has a discovery depth of 0. For example, if you set it to 1, and you set ignoreSitemap, you will only crawl the entered URL and all URLs that are linked on that page.": "Maximale diepte om te crawl op basis van ontdekkingsvolgorde. De rootsite en sitemapped pagina's hebben een ontdekkingsdiepte van 0. Bijvoorbeeld, als je het op 1 instelt en je negeSitemap instelt, U kunt alleen de ingevoerde URL en alle URL's die op die pagina zijn gekoppeld crawen.", "Ignore the website sitemap when crawling": "Negeer de website sitemap tijdens crawling", "Do not re-scrape the same path with different (or none) query parameters": "Herscrape niet hetzelfde pad met verschillende (of geen) queryparameters", "Maximum number of pages to crawl. Default limit is 10000.": "Maximum aantal te crawl. Standaard limiet is 10000.", "Enables the crawler to navigate from a specific URL to previously linked pages.": "Stelt de crawler in staat om van een specifieke URL naar eerder gekoppelde pagina's te navigeren.", "Allows the crawler to follow links to external websites.": "Laat de crawler links volgen naar externe websites.", "Enable to send crawl results to a webhook URL.": "Inschakelen om crawl resultaten te verzenden naar een webhook URL.", "Properties for webhook configuration.": "Eigenschappen voor webhook configuratie.", "The ID of the crawl job to check.": "Het ID van de crawl job om te controleren.", "Authorization headers are injected automatically from your connection.": "Autorisatie headers worden automatisch geïnjecteerd vanuit uw verbinding.", "Enable for files like PDFs, images, etc..": "Inschakelen voor bestanden zoals PDF's, afbeeldingen etc..", "GET": "KRIJG", "POST": "POSTE", "PATCH": "BEKIJK", "PUT": "PUT", "DELETE": "VERWIJDEREN", "HEAD": "HOOFD" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server