fr.json•6.57 kB
{
"Extract structured data from websites using AI with natural language prompts": "Extraire des données structurées à partir de sites Web utilisant une IA avec des instructions de langage naturel",
"\nFollow these steps to obtain your Firecrawl API Key:\n\n1. Visit [Firecrawl](https://firecrawl.dev) and create an account.\n2. Log in and navigate to your dashboard.\n3. Locate and copy your API key from the API settings section.\n": "\nFollow these steps to obtain your Firecrawl API Key:\n\n1. Visit [Firecrawl](https://firecrawl.dev) and create an account.\n2. Log in and navigate to your dashboard.\n3. Locate and copy your API key from the API settings section.\n",
"Scrape Website": "Site Web de Scrape",
"Extract Structured Data": "Extraire des données structurées",
"Crawl": "Rampes",
"Crawl Results": "Résultats de Crawl",
"Map Websites": "Sites web cartographiques",
"Custom API Call": "Appel API personnalisé",
"Scrape a website by performing a series of actions like clicking, typing, taking screenshots, and extracting data.": "Scrape un site Web en effectuant une série d'actions telles que le clic, la saisie, la prise de captures d'écran et l'extraction de données.",
"Extract structured data from multiple URLs using AI.": "Extraire des données structurées à partir de multiples URLs en utilisant AI.",
"Crawl multiple pages from a website based on specified rules and patterns.": "Crawl plusieurs pages à partir d'un site Web basé sur des règles et des motifs spécifiés.",
"Get the results of a crawl job.": "Obtenez les résultats d'une tâche d'exploration.",
"Input a website and get all the urls on the website.": "Entrez un site web et obtenez toutes les URLs sur le site.",
"Make a custom API call to a specific endpoint": "Passez un appel API personnalisé à un point de terminaison spécifique",
"Website URL": "URL du site web",
"Timeout (ms)": "Délai d'attente (ms)",
"Perform Actions Before Scraping": "Effectuer des actions avant la fouille",
"Action Properties": "Propriétés de l'action",
"Output Format": "Format de sortie",
"Extraction Prompt": "Proposition d'extraction",
"Schema Mode": "Mode Schéma",
"Data Definition": "Définition des données",
"URLs": "URLs",
"Enable Web Search": "Activer la recherche Web",
"Timeout (seconds)": "Délai d'attente (secondes)",
"Data Schema Type": "Type de schéma de données",
"URL": "URL",
"Prompt": "Prompt",
"Limit": "Limite",
"Only Main Content": "Seulement le contenu principal",
"Deliver Results to Webhook": "Livrer les résultats au Webhook",
"Webhook Properties": "Propriétés du Webhook",
"Crawl ID": "ID du rampe",
"Main Website URL": "URL du site web principal",
"Include subdomain": "Inclure le sous-domaine",
"Method": "Méthode",
"Headers": "En-têtes",
"Query Parameters": "Paramètres de requête",
"Body": "Corps",
"Response is Binary ?": "La réponse est Binaire ?",
"No Error on Failure": "Aucune erreur en cas d'échec",
"Timeout (in seconds)": "Délai d'attente (en secondes)",
"The webpage URL to scrape.": "L'URL de la page Web à explorer.",
"Maximum time to wait for the page to load (in milliseconds).": "Temps d'attente maximum pour le chargement de la page (en millisecondes).",
"Enable to perform a sequence of actions on the page before scraping (like clicking buttons, filling forms, etc.). See [Firecrawl Actions Documentation](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions) for details on available actions and their parameters.": "Activer pour effectuer une séquence d'actions sur la page avant de gratter (comme cliquer sur des boutons, remplir des formulaires, etc.). Voir [Documentation des actions de Firecrawl](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions) pour plus de détails sur les actions disponibles et leurs paramètres.",
"Properties for actions that will be performed on the page.": "Propriétés des actions qui seront effectuées sur la page.",
"Choose what format you want your output in.": "Choisissez le format dans lequel vous voulez afficher votre sortie.",
"Prompt for extracting data.": "Demander l'extraction de données.",
"Data schema type.": "Type de schéma de données.",
"Add one or more URLs to extract data from.": "Ajoutez une ou plusieurs URLs pour extraire des données.",
"Describe what information you want to extract.": "Décrivez quelles informations vous voulez extraire.",
"Enable web search to find additional context.": "Activer la recherche web pour trouver un contexte supplémentaire.",
"Timeout in seconds after which the task will be cancelled": "Délai d'attente en secondes après lequel la tâche sera annulée",
"For complex schema, you can use advanced mode.": "Pour le schéma complexe, vous pouvez utiliser le mode avancé.",
"The base URL to start crawling from.": "L'URL de base pour commencer à explorer.",
"Maximum number of pages to crawl. Default limit is 10.": "Nombre maximum de pages à explorer. La limite par défaut est de 10.",
"Only return the main content of the page, excluding headers, navs, footers, etc.": "Renvoie uniquement le contenu principal de la page, en excluant les en-têtes, les navs, les pieds de page, etc.",
"Enable to send crawl results to a webhook URL.": "Activer pour envoyer les résultats d'exploration à une URL de webhook.",
"Properties for webhook configuration.": "Propriétés pour la configuration du webhook.",
"The ID of the crawl job to check.": "L'ID de la tâche d'exploration à vérifier.",
"The webpage URL to start scraping from.": "L'URL de la page Web à partir de laquelle commencer à gratter.",
"Include and crawl pages from subdomains of the target website (e.g., blog.example.com, shop.example.com) in addition to the main domain.": "Inclure et explorer les pages des sous-domaines du site web cible (par exemple, blog.example.com, shop.example.com) en plus du domaine principal.",
"Maximum number of links to return (max: 100,000)": "Nombre maximum de liens à retourner (max: 100,000)",
"Authorization headers are injected automatically from your connection.": "Les en-têtes d'autorisation sont injectés automatiquement à partir de votre connexion.",
"Enable for files like PDFs, images, etc..": "Activer pour les fichiers comme les PDFs, les images, etc.",
"Simple": "Simple",
"Advanced": "Avancé",
"GET": "OBTENIR",
"POST": "POSTER",
"PATCH": "PATCH",
"PUT": "EFFACER",
"DELETE": "SUPPRIMER",
"HEAD": "TÊTE"
}