Skip to main content
Glama

mcp-google-sheets

es.json2.92 kB
{ "AI powered search engine": "Motor de búsqueda impulsado por IA", "\n Navigate to [API Settings](https://www.perplexity.ai/settings/api) and create new API key.\n ": "\n Navega a [Configuración API](https://www.perplexity.ai/settings/api) y crea una nueva clave API.\n ", "Ask AI": "Preguntar IA", "Enables users to generate prompt completion based on a specified model.": "Permite a los usuarios generar un prompt completion basado en un modelo especificado.", "Model": "Modelo", "Question": "Pregunta", "Temperature": "Temperatura", "Maximum Tokens": "Tokens máximos", "Top P": "Top P", "Presence penalty": "Penalización de presencia", "Frequency penalty": "Puntuación de frecuencia", "Roles": "Roles", "The amount of randomness in the response.Higher values are more random, and lower values are more deterministic.": "La cantidad de aleatoriedad en la respuesta. Los valores más altos son más aleatorios, y los valores más bajos son más deterministas.", "Please refer [guide](https://docs.perplexity.ai/guides/model-cards) for each model token limit.": "Por favor, consulte [guide](https://docs.perplexity.ai/guides/model-cards) para el límite de tokens de cada modelo.", "The nucleus sampling threshold, valued between 0 and 1 inclusive. For each subsequent token, the model considers the results of the tokens with top_p probability mass.": "El umbral de muestreo del núcleo, valorado entre 0 y 1 inclusive. Para cada ficha posterior, el modelo considera los resultados de las fichas con la masa de probabilidad top_p.", "Number between -2.0 and 2.0. Positive values penalize new tokens based on whether they appear in the text so far, increasing the mode's likelihood to talk about new topics.": "Número entre -2.0 y 2.0. Los valores positivos penalizan las nuevas fichas basándose en si aparecen en el texto hasta ahora, aumentando la probabilidad de que el modo hable de nuevos temas.", "A multiplicative penalty greater than 0. Values greater than 1.0 penalize new tokens based on their existing frequency in the text so far, decreasing the model's likelihood to repeat the same line verbatim.": "Una pena multiplicativa mayor que 0. Valores mayores que 1. penalizar nuevos tokens basados en su frecuencia existente en el texto hasta ahora, lo que reduce la probabilidad del modelo de repetir la misma línea literalmente.", "Array of roles to specify more accurate response.After the (optional) system message, user and assistant roles should alternate with user then assistant, ending in user.": "Array de roles para especificar una respuesta más precisa. Después del mensaje (opcional) del sistema, los roles de usuario y asistente deben alternarse con el usuario entonces asistente, terminando en el usuario.", "sonar-reasoning-pro": "sonar-reasoning-pro", "sonar-reasoning": "razonamiento sonar", "sonar-pro": "sonar-pro", "sonar": "sonar" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server