Skip to main content
Glama
es.json6.31 kB
{ "Extract structured data from websites using AI with natural language prompts": "Extraer datos estructurados de sitios web usando IA con indicaciones de lenguaje natural", "\nFollow these steps to obtain your Firecrawl API Key:\n\n1. Visit [Firecrawl](https://firecrawl.dev) and create an account.\n2. Log in and navigate to your dashboard.\n3. Locate and copy your API key from the API settings section.\n": "\nFollow these steps to obtain your Firecrawl API Key:\n\n1. Visit [Firecrawl](https://firecrawl.dev) and create an account.\n2. Log in and navigate to your dashboard.\n3. Locate and copy your API key from the API settings section.\n", "Scrape Website": "Sitio web Scrape", "Extract Structured Data": "Extraer datos estructurados", "Crawl": "Cortar", "Crawl Results": "Resultados de rastreo", "Map Websites": "Mapa sitios web", "Custom API Call": "Llamada API personalizada", "Scrape a website by performing a series of actions like clicking, typing, taking screenshots, and extracting data.": "Scrape un sitio web realizando una serie de acciones como hacer clic, teclear, tomar capturas de pantalla y extraer datos.", "Extract structured data from multiple URLs using AI.": "Extraer datos estructurados de múltiples URLs usando AI.", "Crawl multiple pages from a website based on specified rules and patterns.": "Arrastre varias páginas de un sitio web basadas en reglas y patrones especificados.", "Get the results of a crawl job.": "Obtener los resultados de un trabajo de rasguño.", "Input a website and get all the urls on the website.": "Ingrese un sitio web y obtenga todas las urls en el sitio web.", "Make a custom API call to a specific endpoint": "Hacer una llamada API personalizada a un extremo específico", "Website URL": "URL del sitio web", "Timeout (ms)": "Tiempo agotado (ms)", "Perform Actions Before Scraping": "Realizar acciones antes de ser raspado", "Action Properties": "Propiedades de la acción", "Output Format": "Formato de salida", "Extraction Prompt": "Prompt de extracción", "Schema Mode": "Modo Esquema", "Data Definition": "Definición de datos", "URLs": "URLs", "Enable Web Search": "Habilitar búsqueda web", "Timeout (seconds)": "Tiempo agotado (segundos)", "Data Schema Type": "Tipo de esquema de datos", "URL": "URL", "Prompt": "Petición", "Limit": "Límite", "Only Main Content": "Sólo contenido principal", "Deliver Results to Webhook": "Entregar resultados a Webhook", "Webhook Properties": "Propiedades Webhook", "Crawl ID": "ID de rastreo", "Main Website URL": "URL principal del sitio web", "Include subdomain": "Incluye subdominio", "Method": "Método", "Headers": "Encabezados", "Query Parameters": "Parámetros de consulta", "Body": "Cuerpo", "Response is Binary ?": "¿Respuesta es binaria?", "No Error on Failure": "No hay ningún error en fallo", "Timeout (in seconds)": "Tiempo de espera (en segundos)", "The webpage URL to scrape.": "La URL de la página web a scrape.", "Maximum time to wait for the page to load (in milliseconds).": "Tiempo máximo para esperar a que la página se cargue (en milisegundos).", "Enable to perform a sequence of actions on the page before scraping (like clicking buttons, filling forms, etc.). See [Firecrawl Actions Documentation](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions) for details on available actions and their parameters.": "Activar para realizar una secuencia de acciones en la página antes de rascar (como pulsar botones, rellenar formularios, etc.). Vea [Documentación de Acciones de Firecrawl](https://docs.firecrawl.dev/api-reference/endpoint/scrape#body-actions) para más detalles sobre las acciones disponibles y sus parámetros.", "Properties for actions that will be performed on the page.": "Propiedades de las acciones que se realizarán en la página.", "Choose what format you want your output in.": "Elija en qué formato desea su salida.", "Prompt for extracting data.": "Asunto para la extracción de datos.", "Data schema type.": "Tipo de esquema de datos.", "Add one or more URLs to extract data from.": "Añadir una o más URLs para extraer datos.", "Describe what information you want to extract.": "Describa qué información desea extraer.", "Enable web search to find additional context.": "Activa la búsqueda web para encontrar un contexto adicional.", "Timeout in seconds after which the task will be cancelled": "Tiempo de espera en segundos tras el cual la tarea será cancelada", "For complex schema, you can use advanced mode.": "Para esquemas complejos, puede utilizar el modo avanzado.", "The base URL to start crawling from.": "La URL base desde la que empezar a rascar.", "Maximum number of pages to crawl. Default limit is 10.": "Número máximo de páginas a rascar. El límite por defecto es 10.", "Only return the main content of the page, excluding headers, navs, footers, etc.": "Sólo devuelve el contenido principal de la página, excluyendo cabeceras, naves, pie de página, etc.", "Enable to send crawl results to a webhook URL.": "Activar para enviar resultados de crawl a una URL de webhook.", "Properties for webhook configuration.": "Propiedades para la configuración de webhook.", "The ID of the crawl job to check.": "El ID de la tarea de raspado a comprobar.", "The webpage URL to start scraping from.": "La URL de la página web desde la que empezar a rascar.", "Include and crawl pages from subdomains of the target website (e.g., blog.example.com, shop.example.com) in addition to the main domain.": "Incluye y crawl páginas de los subdominios del sitio web de destino (por ejemplo, blog.example.com, shop.example.com) además del dominio principal.", "Maximum number of links to return (max: 100,000)": "Número máximo de enlaces a devolver (máximo: 100,000)", "Authorization headers are injected automatically from your connection.": "Las cabeceras de autorización se inyectan automáticamente desde tu conexión.", "Enable for files like PDFs, images, etc..": "Activar para archivos como PDFs, imágenes, etc.", "Simple": "Simple", "Advanced": "Avanzado", "GET": "RECOGER", "POST": "POST", "PATCH": "PATCH", "PUT": "PUT", "DELETE": "BORRAR", "HEAD": "LIMPIO" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server