ja.json•7.99 kB
{
"Extract structured data from websites using AI with natural language prompts": "自然言語プロンプトでAIを使用してウェブサイトから構造化データを抽出する",
"\nFollow these steps to obtain your Firecrawl API Key:\n\n1. Visit [Firecrawl](https://firecrawl.dev) and create an account.\n2. Log in and navigate to your dashboard.\n3. Locate and copy your API key from the API settings section.\n": "\nFollow these steps to obtain your Firecrawl API Key:\n\n1. Visit [Firecrawl](https://firecrawl.dev) and create an account.\n2. Log in and navigate to your dashboard.\n3. Locate and copy your API key from the API settings section.\n",
"Scrape Website": "ウェブサイトをスクレイプ",
"Start Crawl": "クロールを開始",
"Crawl Results": "Crawl の結果",
"Custom API Call": "カスタムAPI通話",
"Scrape a website by performing a series of actions like clicking, typing, taking screenshots, and extracting data.": "クリック、入力、スクリーンショットの取得、データの抽出など、一連のアクションを実行してウェブサイトをスクラップします。",
"Start crawling multiple pages from a website based on specified rules and patterns.": "指定されたルールとパターンに基づいて、ウェブサイトから複数ページのクロールを開始します。",
"Get the results of a crawl job.": "クロールジョブの結果を取得します。",
"Make a custom API call to a specific endpoint": "特定のエンドポイントへのカスタム API コールを実行します。",
"Website URL": "Website URL",
"Timeout (ms)": "タイムアウト (ミリ秒)",
"Perform Actions Before Scraping": "スクラップする前にアクションを実行",
"Action Properties": "アクションのプロパティ",
"Extraction Type": "抽出タイプ",
"Extraction Properties": "抽出プロパティ",
"URL": "URL",
"Exclude Paths": "パスを除外",
"Include Paths": "パスを含める",
"Maximum Path Depth": "最大パスの深さ",
"Maximum Discovery Depth": "Maximum Discovery Depth",
"Ignore Sitemap": "Ignore Sitemap",
"Ignore Query Parameters": "クエリパラメータを無視",
"Limit": "制限",
"Allow Backward Links": "バックワードリンクを許可する",
"Allow External Links": "外部リンクを許可する",
"Deliver Results to Webhook": "Webhookに結果を配信",
"Webhook Properties": "Webhook プロパティ",
"Crawl ID": "クロールID",
"Method": "方法",
"Headers": "ヘッダー",
"Query Parameters": "クエリパラメータ",
"Body": "本文",
"Response is Binary ?": "応答はバイナリですか?",
"No Error on Failure": "失敗時にエラーはありません",
"Timeout (in seconds)": "タイムアウト(秒)",
"The webpage URL to scrape.": "スクレイプするウェブページのURL。",
"Maximum time to wait for the page to load (in milliseconds).": "ページがロードされるまでの最大時間 (ミリ秒単位)。",
"Enable to perform a sequence of actions on the page before scraping (like clicking buttons, filling forms, etc.). See [Firecrawl Actions Documentation](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions) for details on available actions and their parameters.": "ページをスクレイピングする前に一連のアクションを実行する (クリックボタン、フォームの入力など) を有効にします。 利用可能なアクションとパラメータの詳細については、[Firerawl Actions Documentation](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions)を参照してください。",
"Properties for actions that will be performed on the page.": "ページ上で実行されるアクションのプロパティ。",
"Choose how to extract data from the webpage.": "ウェブページからデータを抽出する方法を選択します。",
"Properties for data extraction from the webpage.": "Webページからのデータ抽出のためのプロパティ。",
"The base URL to start crawling from.": "クロールを開始するベースURL。",
"URL pathname regex patterns that exclude matching URLs from the crawl. For example, if you set \"excludePaths\": [\"blog/.*\"] for the base URL firecrawl.dev, any results matching that pattern will be excluded, such as https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.": "URLパス名の正規表現パターンは、クロールから一致するURLを除外します。例えば、\"excludePaths\": [\"blog/.*\"] をベース URL firecrawl に設定した場合。 ev、そのパターンに一致する結果は、https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap など除外されます。",
"URL pathname regex patterns that include matching URLs in the crawl. Only the paths that match the specified patterns will be included in the response. For example, if you set \"includePaths\": [\"blog/.*\"] for the base URL firecrawl.dev, only results matching that pattern will be included, such as https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.": "クロールに一致する URL を含むURLパス名正規表現パターン。 指定されたパターンに一致するパスのみがレスポンスに含まれます。例えば、\"includePaths\" を設定した場合: [\"blog/. \"]ベースURLのfirecrawl.devでは、そのパターンに一致する結果のみが含まれます。例えば、https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap。",
"Maximum depth to crawl relative to the base URL. Basically, the max number of slashes the pathname of a scraped URL may contain.": "ベース URL からの相対クロールの最大深度。基本的に、スクレイプされた URL のパス名をスラッシュする最大数です。",
"Maximum depth to crawl based on discovery order. The root site and sitemapped pages has a discovery depth of 0. For example, if you set it to 1, and you set ignoreSitemap, you will only crawl the entered URL and all URLs that are linked on that page.": "ディスカバリー注文に基づいてクロールする最大深度。ルートサイトとサイトマップページのディスカバリー深度は0です。 例えば、それを1に設定し、ignoreSitemapを設定するとします。 入力されたURLとそのページにリンクされているすべてのURLのみクロールします。",
"Ignore the website sitemap when crawling": "クロール時にサイトマップを無視する",
"Do not re-scrape the same path with different (or none) query parameters": "異なる(または非)クエリパラメータで同じパスを再スクレイプしない",
"Maximum number of pages to crawl. Default limit is 10000.": "クロールするページの最大数。デフォルトの制限は10000です。",
"Enables the crawler to navigate from a specific URL to previously linked pages.": "クローラを有効にして、特定の URL から以前にリンクされたページに移動します。",
"Allows the crawler to follow links to external websites.": "クローラーが外部ウェブサイトへのリンクをたどることを許可します。",
"Enable to send crawl results to a webhook URL.": "クロール結果をWebhookのURLに送信するよう有効にします。",
"Properties for webhook configuration.": "Webhook設定のプロパティです。",
"The ID of the crawl job to check.": "チェックするクロールジョブのID。",
"Authorization headers are injected automatically from your connection.": "認証ヘッダは接続から自動的に注入されます。",
"Enable for files like PDFs, images, etc..": "PDF、画像などのファイルを有効にします。",
"GET": "取得",
"POST": "POST",
"PATCH": "PATCH",
"PUT": "PUT",
"DELETE": "削除",
"HEAD": "頭"
}