fr.json•7.73 kB
{
"Extract structured data from websites using AI with natural language prompts": "Extraire des données structurées à partir de sites Web utilisant une IA avec des instructions de langage naturel",
"\nFollow these steps to obtain your Firecrawl API Key:\n\n1. Visit [Firecrawl](https://firecrawl.dev) and create an account.\n2. Log in and navigate to your dashboard.\n3. Locate and copy your API key from the API settings section.\n": "\nFollow these steps to obtain your Firecrawl API Key:\n\n1. Visit [Firecrawl](https://firecrawl.dev) and create an account.\n2. Log in and navigate to your dashboard.\n3. Locate and copy your API key from the API settings section.\n",
"Scrape Website": "Site Web de Scrape",
"Start Crawl": "Démarrer Crawl",
"Crawl Results": "Résultats de Crawl",
"Custom API Call": "Appel API personnalisé",
"Scrape a website by performing a series of actions like clicking, typing, taking screenshots, and extracting data.": "Scrape un site Web en effectuant une série d'actions telles que le clic, la saisie, la prise de captures d'écran et l'extraction de données.",
"Start crawling multiple pages from a website based on specified rules and patterns.": "Commencez à explorer plusieurs pages à partir d'un site Web en fonction des règles et des motifs spécifiés.",
"Get the results of a crawl job.": "Obtenez les résultats d'une tâche d'exploration.",
"Make a custom API call to a specific endpoint": "Passez un appel API personnalisé à un point de terminaison spécifique",
"Website URL": "URL du site web",
"Timeout (ms)": "Délai d'attente (ms)",
"Perform Actions Before Scraping": "Effectuer des actions avant la fouille",
"Action Properties": "Propriétés de l'action",
"Extraction Type": "Type d'extraction",
"Extraction Properties": "Propriétés d'extraction",
"URL": "URL",
"Exclude Paths": "Exclure les chemins",
"Include Paths": "Inclure les chemins",
"Maximum Path Depth": "Profondeur maximale du chemin",
"Maximum Discovery Depth": "Profondeur maximale de découverte",
"Ignore Sitemap": "Ignore Sitemap",
"Ignore Query Parameters": "Ignorer les paramètres de requête",
"Limit": "Limite",
"Allow Backward Links": "Autoriser les liens vers l'arrière",
"Allow External Links": "Autoriser les liens externes",
"Deliver Results to Webhook": "Livrer les résultats au Webhook",
"Webhook Properties": "Propriétés du Webhook",
"Crawl ID": "ID du rampe",
"Method": "Méthode",
"Headers": "En-têtes",
"Query Parameters": "Paramètres de requête",
"Body": "Corps",
"Response is Binary ?": "La réponse est Binaire ?",
"No Error on Failure": "Aucune erreur en cas d'échec",
"Timeout (in seconds)": "Délai d'attente (en secondes)",
"The webpage URL to scrape.": "L'URL de la page Web à explorer.",
"Maximum time to wait for the page to load (in milliseconds).": "Temps d'attente maximum pour le chargement de la page (en millisecondes).",
"Enable to perform a sequence of actions on the page before scraping (like clicking buttons, filling forms, etc.). See [Firecrawl Actions Documentation](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions) for details on available actions and their parameters.": "Activer pour effectuer une séquence d'actions sur la page avant de gratter (comme cliquer sur des boutons, remplir des formulaires, etc.). Voir [Documentation des actions de Firecrawl](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions) pour plus de détails sur les actions disponibles et leurs paramètres.",
"Properties for actions that will be performed on the page.": "Propriétés des actions qui seront effectuées sur la page.",
"Choose how to extract data from the webpage.": "Choisissez comment extraire les données de la page Web.",
"Properties for data extraction from the webpage.": "Propriétés pour l'extraction de données à partir de la page Web.",
"The base URL to start crawling from.": "L'URL de base pour commencer à explorer.",
"URL pathname regex patterns that exclude matching URLs from the crawl. For example, if you set \"excludePaths\": [\"blog/.*\"] for the base URL firecrawl.dev, any results matching that pattern will be excluded, such as https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.": "Modèles de regex de chemin d'URL qui excluent les URL correspondantes de l'exploration. Par exemple, si vous définissez \"excludePaths\": [\"blog/.*\"] pour l'URL de base firecrawl. ev, tous les résultats correspondant à ce modèle seront exclus, comme https://www.firecrawl.dev/blog/firecrawl-launch-week1-recap.",
"URL pathname regex patterns that include matching URLs in the crawl. Only the paths that match the specified patterns will be included in the response. For example, if you set \"includePaths\": [\"blog/.*\"] for the base URL firecrawl.dev, only results matching that pattern will be included, such as https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.": "Modèles de regex de chemin d'URL qui incluent les URL correspondantes dans l'exploration. Seuls les chemins qui correspondent aux modèles spécifiés seront inclus dans la réponse. Par exemple, si vous définissez \"includePaths\": [\"blog/. \"] pour l'URL de base firecrawl.dev, seuls les résultats correspondant à ce modèle seront inclus, comme https://www.firecrawl.dev/blog/firecrawl-launch-week1-recap.",
"Maximum depth to crawl relative to the base URL. Basically, the max number of slashes the pathname of a scraped URL may contain.": "Profondeur maximale par rapport à l'URL de base. En gros, le nombre maximum de slashes que le chemin d'une URL scraped peut contenir.",
"Maximum depth to crawl based on discovery order. The root site and sitemapped pages has a discovery depth of 0. For example, if you set it to 1, and you set ignoreSitemap, you will only crawl the entered URL and all URLs that are linked on that page.": "Profondeur maximale à explorer basée sur l'ordre de découverte. Le site racine et les pages sitemapped ont une profondeur de découverte de 0. Par exemple, si vous le définissez à 1, et que vous définissez ignoreSitemap, vous ne ferez que fouiller l'URL saisie et toutes les URL qui sont liées à cette page.",
"Ignore the website sitemap when crawling": "Ignorer le plan du site web lors de l’exploration",
"Do not re-scrape the same path with different (or none) query parameters": "Ne pas re-ramasser le même chemin avec des paramètres de requête différents (ou aucun)",
"Maximum number of pages to crawl. Default limit is 10000.": "Nombre maximum de pages à explorer. La limite par défaut est de 10000.",
"Enables the crawler to navigate from a specific URL to previously linked pages.": "Permet à l'explorateur de naviguer à partir d'une URL spécifique vers des pages précédemment liées.",
"Allows the crawler to follow links to external websites.": "Permet à l'explorateur de suivre les liens vers des sites Web externes.",
"Enable to send crawl results to a webhook URL.": "Activer pour envoyer les résultats d'exploration à une URL de webhook.",
"Properties for webhook configuration.": "Propriétés pour la configuration du webhook.",
"The ID of the crawl job to check.": "L'ID de la tâche d'exploration à vérifier.",
"Authorization headers are injected automatically from your connection.": "Les en-têtes d'autorisation sont injectés automatiquement à partir de votre connexion.",
"Enable for files like PDFs, images, etc..": "Activer pour les fichiers comme les PDFs, les images, etc.",
"GET": "OBTENIR",
"POST": "POSTER",
"PATCH": "PATCH",
"PUT": "EFFACER",
"DELETE": "SUPPRIMER",
"HEAD": "TÊTE"
}