Skip to main content
Glama

mcp-google-sheets

ru.json9.54 kB
{ "Firecrawl": "Огненный", "Extract structured data from websites using AI with natural language prompts": "Извлечь структурированные данные с веб-сайтов с использованием ИИ с естественными языковыми подсказками", "\nFollow these steps to obtain your Firecrawl API Key:\n\n1. Visit [Firecrawl](https://firecrawl.dev) and create an account.\n2. Log in and navigate to your dashboard.\n3. Locate and copy your API key from the API settings section.\n": "\nFollow these steps to obtain your Firecrawl API Key:\n\n1. Visit [Firecrawl](https://firecrawl.dev) and create an account.\n2. Log in and navigate to your dashboard.\n3. Locate and copy your API key from the API settings section.\n", "Scrape Website": "Сайт Scrape", "Start Crawl": "Начать Crawl", "Crawl Results": "Результаты Crawl", "Custom API Call": "Пользовательский вызов API", "Scrape a website by performing a series of actions like clicking, typing, taking screenshots, and extracting data.": "Скрипт веб-сайт, выполняя ряд действий, таких как клик, печатание, снятие скриншотов и извлечение данных.", "Start crawling multiple pages from a website based on specified rules and patterns.": "Начните сканировать несколько страниц сайта на основе указанных правил и шаблонов.", "Get the results of a crawl job.": "Получить результаты работы по ползунку.", "Make a custom API call to a specific endpoint": "Сделать пользовательский API вызов к определенной конечной точке", "Website URL": "URL сайта", "Timeout (ms)": "Таймаут (мс)", "Perform Actions Before Scraping": "Выполнить действия перед Scraping", "Action Properties": "Свойства действия", "Extraction Type": "Тип извлечения", "Extraction Properties": "Свойства извлечения", "URL": "URL", "Exclude Paths": "Исключить пути", "Include Paths": "Включить пути", "Maximum Path Depth": "Максимальная глубина пути", "Maximum Discovery Depth": "Максимальная глубина обнаружения", "Ignore Sitemap": "Ignore Sitemap", "Ignore Query Parameters": "Игнорировать параметры запроса", "Limit": "Лимит", "Allow Backward Links": "Разрешить обратные ссылки", "Allow External Links": "Разрешить внешние ссылки", "Deliver Results to Webhook": "Доставить результаты для Webhook", "Webhook Properties": "Свойства вебхука", "Crawl ID": "ID Crawl", "Method": "Метод", "Headers": "Заголовки", "Query Parameters": "Параметры запроса", "Body": "Тело", "No Error on Failure": "Нет ошибок при ошибке", "Timeout (in seconds)": "Таймаут (в секундах)", "The webpage URL to scrape.": "URL веб-страницы для scrape.", "Maximum time to wait for the page to load (in milliseconds).": "Максимальное время ожидания загрузки страницы (в миллисекундах).", "Enable to perform a sequence of actions on the page before scraping (like clicking buttons, filling forms, etc.). See [Firecrawl Actions Documentation](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions) for details on available actions and their parameters.": "Позволяет выполнять последовательность действий на странице перед тем как нажать кнопки, заполнять формы и т.д.). Подробнее о доступных действиях и их параметрах смотрите в [Документациях действий Firecrawl](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions).", "Properties for actions that will be performed on the page.": "Свойства действий, которые будут выполняться на странице.", "Choose how to extract data from the webpage.": "Выберите способ извлечения данных из веб-страницы.", "Properties for data extraction from the webpage.": "Свойства для извлечения данных из веб-страницы.", "The base URL to start crawling from.": "Базовый URL-адрес для начала сканирования.", "URL pathname regex patterns that exclude matching URLs from the crawl. For example, if you set \"excludePaths\": [\"blog/.*\"] for the base URL firecrawl.dev, any results matching that pattern will be excluded, such as https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.": "Шаблоны регулярного имени URL, которые исключают совпадающие URL-адреса из сканирования. Например, если вы установите \"excludePaths\": [\"blog/.*\"] для firecrawl по базовому URL. ev, любые результаты, соответствующие этому шаблону, будут исключены, например https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.", "URL pathname regex patterns that include matching URLs in the crawl. Only the paths that match the specified patterns will be included in the response. For example, if you set \"includePaths\": [\"blog/.*\"] for the base URL firecrawl.dev, only results matching that pattern will be included, such as https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.": "Шаблоны регулярного имени URL, включающие в ползунок соответствующие URL. В ответ будут включены только пути, соответствующие указанным шаблонам. Например, если вы установите \"includePaths\": [\"blog/. \"] для базового URL-адреса firecrawl.dev, только результаты, соответствующие этому шаблону, например https://www.firecrawl.dev/blog/firecrawl-launch-week-1-recap.", "Maximum depth to crawl relative to the base URL. Basically, the max number of slashes the pathname of a scraped URL may contain.": "Максимальная глубина сканирования относительно базового URL-адреса. По сути, максимальное количество слэша может содержать имя скращенного URL-адреса.", "Maximum depth to crawl based on discovery order. The root site and sitemapped pages has a discovery depth of 0. For example, if you set it to 1, and you set ignoreSitemap, you will only crawl the entered URL and all URLs that are linked on that page.": "Максимальная глубина сканирования, основанная на ордерах по поиску. Корневой сайт и сгруппированные страницы имеют нулевую глубину. Например, если вы установите значение 1, и установите игнорирующую карту Sitemap, вы будете сканировать только введенный URL и все URL-адреса, которые связаны на этой странице.", "Ignore the website sitemap when crawling": "Игнорировать карту сайта при сканировании", "Do not re-scrape the same path with different (or none) query parameters": "Не удалять один и тот же путь с разными (или нет) параметрами запроса", "Maximum number of pages to crawl. Default limit is 10000.": "Максимальное количество страниц для сканирования. По умолчанию это 10000.", "Enables the crawler to navigate from a specific URL to previously linked pages.": "Позволяет сканирующему пользователю перемещаться по определенному URL на ранее ссылаемые страницы.", "Allows the crawler to follow links to external websites.": "Разрешает сканирующему пользователю следовать по ссылкам на внешние сайты.", "Enable to send crawl results to a webhook URL.": "Включите, чтобы отправлять результаты сканирования на URL вебхука.", "Properties for webhook configuration.": "Свойства конфигурации webhook.", "The ID of the crawl job to check.": "Идентификатор нужной работы для проверки.", "Authorization headers are injected automatically from your connection.": "Заголовки авторизации включаются автоматически из вашего соединения.", "GET": "ПОЛУЧИТЬ", "POST": "ПОСТ", "PATCH": "ПАТЧ", "PUT": "ПОКУПИТЬ", "DELETE": "УДАЛИТЬ", "HEAD": "HEAD" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server