Skip to main content
Glama

mcp-google-sheets

es.json7.5 kB
{ "Extract structured data from websites using AI with natural language prompts": "Extraer datos estructurados de sitios web usando IA con indicaciones de lenguaje natural", "\nFollow these steps to obtain your Firecrawl API Key:\n\n1. Visit [Firecrawl](https://firecrawl.dev) and create an account.\n2. Log in and navigate to your dashboard.\n3. Locate and copy your API key from the API settings section.\n": "\nFollow these steps to obtain your Firecrawl API Key:\n\n1. Visit [Firecrawl](https://firecrawl.dev) and create an account.\n2. Log in and navigate to your dashboard.\n3. Locate and copy your API key from the API settings section.\n", "Scrape Website": "Sitio web Scrape", "Start Crawl": "Iniciar rastreo", "Crawl Results": "Resultados de rastreo", "Custom API Call": "Llamada API personalizada", "Scrape a website by performing a series of actions like clicking, typing, taking screenshots, and extracting data.": "Scrape un sitio web realizando una serie de acciones como hacer clic, teclear, tomar capturas de pantalla y extraer datos.", "Start crawling multiple pages from a website based on specified rules and patterns.": "Comienza a rascar varias páginas de un sitio web basadas en reglas y patrones especificados.", "Get the results of a crawl job.": "Obtener los resultados de un trabajo de rasguño.", "Make a custom API call to a specific endpoint": "Hacer una llamada API personalizada a un extremo específico", "Website URL": "URL del sitio web", "Timeout (ms)": "Tiempo agotado (ms)", "Perform Actions Before Scraping": "Realizar acciones antes de ser raspado", "Action Properties": "Propiedades de la acción", "Extraction Type": "Tipo de extracción", "Extraction Properties": "Propiedades de extracción", "URL": "URL", "Exclude Paths": "Excluir rutas", "Include Paths": "Incluye rutas", "Maximum Path Depth": "Profundidad de ruta máxima", "Maximum Discovery Depth": "Profundidad máxima de descubrimiento", "Ignore Sitemap": "Ignore Sitemap", "Ignore Query Parameters": "Parámetros de consulta Ignorar", "Limit": "Límite", "Allow Backward Links": "Permitir enlaces hacia atrás", "Allow External Links": "Permitir enlaces externos", "Deliver Results to Webhook": "Entregar resultados a Webhook", "Webhook Properties": "Propiedades Webhook", "Crawl ID": "ID de rastreo", "Method": "Método", "Headers": "Encabezados", "Query Parameters": "Parámetros de consulta", "Body": "Cuerpo", "Response is Binary ?": "¿Respuesta es binaria?", "No Error on Failure": "No hay ningún error en fallo", "Timeout (in seconds)": "Tiempo de espera (en segundos)", "The webpage URL to scrape.": "La URL de la página web a scrape.", "Maximum time to wait for the page to load (in milliseconds).": "Tiempo máximo para esperar a que la página se cargue (en milisegundos).", "Enable to perform a sequence of actions on the page before scraping (like clicking buttons, filling forms, etc.). See [Firecrawl Actions Documentation](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions) for details on available actions and their parameters.": "Activar para realizar una secuencia de acciones en la página antes de rascar (como pulsar botones, rellenar formularios, etc.). Vea [Documentación de Acciones de Firecrawl](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions) para más detalles sobre las acciones disponibles y sus parámetros.", "Properties for actions that will be performed on the page.": "Propiedades de las acciones que se realizarán en la página.", "Choose how to extract data from the webpage.": "Elija cómo extraer datos de la página web.", "Properties for data extraction from the webpage.": "Propiedades para la extracción de datos de la página web.", "The base URL to start crawling from.": "La URL base desde la que empezar a rascar.", "URL pathname regex patterns that exclude matching URLs from the crawl. For example, if you set \"excludePaths\": [\"blog/.*\"] for the base URL firecrawl.dev, any results matching that pattern will be excluded, such as https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.": "Patrones regex de rutas URL que excluyen las URL coincidentes del crawl. Por ejemplo, si establece \"excludePaths\": [\"blog/.*\"] para el firecrawl URL base. ev, cualquier resultado que coincida con ese patrón será excluido, como https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.", "URL pathname regex patterns that include matching URLs in the crawl. Only the paths that match the specified patterns will be included in the response. For example, if you set \"includePaths\": [\"blog/.*\"] for the base URL firecrawl.dev, only results matching that pattern will be included, such as https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.": "Patrones regex de rutas URL que incluyen URLs coincidentes en el crawl. Sólo las rutas que coincidan con los patrones especificados serán incluidas en la respuesta. Por ejemplo, si establece \"includePaths\": [\"blog/. \"] para la URL base firecrawl.dev, sólo se incluirán los resultados que coincidan con ese patrón, como https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.", "Maximum depth to crawl relative to the base URL. Basically, the max number of slashes the pathname of a scraped URL may contain.": "Máxima profundidad a rascar relativa a la URL base. Básicamente, el número máximo de barras barridas que el nombre de la ruta de una URL raspada puede contener.", "Maximum depth to crawl based on discovery order. The root site and sitemapped pages has a discovery depth of 0. For example, if you set it to 1, and you set ignoreSitemap, you will only crawl the entered URL and all URLs that are linked on that page.": "Máxima profundidad de rascar basada en el orden de descubrimiento. El sitio raíz y las páginas con mapa de sitio tiene una profundidad de descubrimiento de 0. Por ejemplo, si lo establece a 1, y establece ignoreSitemap, sólo se sincronizará la URL introducida y todas las URL que están enlazadas en esa página.", "Ignore the website sitemap when crawling": "Ignorar el mapa del sitio web al rasgar", "Do not re-scrape the same path with different (or none) query parameters": "No volver a raspar la misma ruta con parámetros de consulta diferentes (o ningunos)", "Maximum number of pages to crawl. Default limit is 10000.": "Número máximo de páginas a rascar. El límite predeterminado es de 10000.", "Enables the crawler to navigate from a specific URL to previously linked pages.": "Habilita el crawler para navegar desde una URL específica a páginas vinculadas previamente.", "Allows the crawler to follow links to external websites.": "Permite al rastreador seguir enlaces a sitios web externos.", "Enable to send crawl results to a webhook URL.": "Activar para enviar resultados de crawl a una URL de webhook.", "Properties for webhook configuration.": "Propiedades para la configuración de webhook.", "The ID of the crawl job to check.": "El ID de la tarea de raspado a comprobar.", "Authorization headers are injected automatically from your connection.": "Las cabeceras de autorización se inyectan automáticamente desde tu conexión.", "Enable for files like PDFs, images, etc..": "Activar para archivos como PDFs, imágenes, etc.", "GET": "RECOGER", "POST": "POST", "PATCH": "PATCH", "PUT": "PUT", "DELETE": "BORRAR", "HEAD": "LIMPIO" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server