pt.json•7.49 kB
{
"Extract structured data from websites using AI with natural language prompts": "Extraia dados estruturados de sites usando AI com prompts de linguagem natural",
"\nFollow these steps to obtain your Firecrawl API Key:\n\n1. Visit [Firecrawl](https://firecrawl.dev) and create an account.\n2. Log in and navigate to your dashboard.\n3. Locate and copy your API key from the API settings section.\n": "\nSiga estes passos para obter sua chave de API do Firecrawl:\n\n1. Visite [Firecrawl](https://firecrawl.dev) e crie uma conta.\n2. Entre e navegue para o seu painel.\n3. Localize e copie sua chave de API na seção de configurações da API.\n",
"Scrape Website": "Site Scrape",
"Start Crawl": "Iniciar o Rastejador",
"Crawl Results": "Resultados Rastejantes",
"Custom API Call": "Chamada de API personalizada",
"Scrape a website by performing a series of actions like clicking, typing, taking screenshots, and extracting data.": "Scrape um site realizando uma série de ações como clicar, digitar, tirar capturas de tela e extrair dados.",
"Start crawling multiple pages from a website based on specified rules and patterns.": "Comece a rastrear várias páginas de um site com base em regras e padrões especificados.",
"Get the results of a crawl job.": "Obtenha os resultados de um trabalho crawl.",
"Make a custom API call to a specific endpoint": "Faça uma chamada de API personalizada para um ponto de extremidade específico",
"Website URL": "URL do site",
"Timeout (ms)": "Tempo limite (ms)",
"Perform Actions Before Scraping": "Realizar Ações Antes do Scraping",
"Action Properties": "Propriedades da ação",
"Extraction Type": "Tipo de extração",
"Extraction Properties": "Propriedades de extração",
"URL": "URL:",
"Exclude Paths": "Excluir caminhos",
"Include Paths": "Incluir caminhos",
"Maximum Path Depth": "Profundidade máxima do caminho",
"Maximum Discovery Depth": "Profundidade máxima da descoberta",
"Ignore Sitemap": "Ignore Sitemap",
"Ignore Query Parameters": "Ignorar parâmetros de consulta",
"Limit": "Limitar",
"Allow Backward Links": "Permitir links retroativos",
"Allow External Links": "Permitir Links Externos",
"Deliver Results to Webhook": "Entregar Resultados para Webhook",
"Webhook Properties": "Propriedades do Webhook",
"Crawl ID": "Rastel ID",
"Method": "Método",
"Headers": "Cabeçalhos",
"Query Parameters": "Parâmetros da consulta",
"Body": "Conteúdo",
"Response is Binary ?": "A resposta é binária ?",
"No Error on Failure": "Nenhum erro no Failure",
"Timeout (in seconds)": "Tempo limite (em segundos)",
"The webpage URL to scrape.": "A URL da página web para scrape.",
"Maximum time to wait for the page to load (in milliseconds).": "Tempo máximo de espera para carregar a página (em milissegundos)",
"Enable to perform a sequence of actions on the page before scraping (like clicking buttons, filling forms, etc.). See [Firecrawl Actions Documentation](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions) for details on available actions and their parameters.": "Ativar a execução de uma sequência de ações na página antes de saltar (como clicar nos botões, preencher formulários, etc.). Veja [Documentação do Firecrawl Acções](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions) para detalhes sobre ações disponíveis e seus parâmetros.",
"Properties for actions that will be performed on the page.": "Propriedades para ações que serão executadas na página.",
"Choose how to extract data from the webpage.": "Escolha como extrair dados da página da web.",
"Properties for data extraction from the webpage.": "Propriedades para extração de dados da página web.",
"The base URL to start crawling from.": "A URL base para começar a rastrear.",
"URL pathname regex patterns that exclude matching URLs from the crawl. For example, if you set \"excludePaths\": [\"blog/.*\"] for the base URL firecrawl.dev, any results matching that pattern will be excluded, such as https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.": "URL pathname regex padrões que excluem URLs correspondentes do crawl. Por exemplo, se você definir \"excludePaths\": [\"blog/.*\"] para a URL base firecrawl. ev, quaisquer resultados correspondentes a esse padrão serão excluídos, como https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.",
"URL pathname regex patterns that include matching URLs in the crawl. Only the paths that match the specified patterns will be included in the response. For example, if you set \"includePaths\": [\"blog/.*\"] for the base URL firecrawl.dev, only results matching that pattern will be included, such as https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.": "URL pathname regex padrões que incluem URLs correspondentes no crawl. Apenas os caminhos que correspondem aos padrões especificados serão incluídos na resposta. Por exemplo, se você definir \"includePaths\": [\"blog/. \"] para o URL base firecrawl.dev, somente os resultados correspondentes a esse padrão serão incluídos, como https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.",
"Maximum depth to crawl relative to the base URL. Basically, the max number of slashes the pathname of a scraped URL may contain.": "Profundidade máxima para rastrear em relação à URL base. Basicamente, o número máximo de barras do nome do caminho de uma URL scraped pode conter.",
"Maximum depth to crawl based on discovery order. The root site and sitemapped pages has a discovery depth of 0. For example, if you set it to 1, and you set ignoreSitemap, you will only crawl the entered URL and all URLs that are linked on that page.": "Profundidade máxima para rastrear baseado na ordem de descoberta. O site raiz e as páginas mapeadas têm 0 de profundidade de descoberta. Por exemplo, se você definir para 1, e você colocar ignoreSitemap, você só vai rastrear a URL inserida e todos os URLs que estão vinculados nessa página.",
"Ignore the website sitemap when crawling": "Ignorar o mapa do site quando rastreador",
"Do not re-scrape the same path with different (or none) query parameters": "Não re-scrape o mesmo caminho com parâmetros de consulta diferentes (ou nenhum)",
"Maximum number of pages to crawl. Default limit is 10000.": "Número máximo de páginas para rastrear. O limite padrão é 10000.",
"Enables the crawler to navigate from a specific URL to previously linked pages.": "Permite que o rastreador navegue a partir de uma URL específica para páginas vinculadas anteriormente.",
"Allows the crawler to follow links to external websites.": "Permite que o rastreador siga links para sites externos.",
"Enable to send crawl results to a webhook URL.": "Habilitar para enviar resultados de rastreamento para uma URL do webhook.",
"Properties for webhook configuration.": "Propriedades para configuração de webhook.",
"The ID of the crawl job to check.": "A identificação do trabalho de rastreamento para verificar.",
"Authorization headers are injected automatically from your connection.": "Os cabeçalhos de autorização são inseridos automaticamente a partir da sua conexão.",
"Enable for files like PDFs, images, etc..": "Habilitar para arquivos como PDFs, imagens, etc..",
"GET": "OBTER",
"POST": "POSTAR",
"PATCH": "COMPRAR",
"PUT": "COLOCAR",
"DELETE": "EXCLUIR",
"HEAD": "CABEÇA"
}