Skip to main content
Glama

mcp-google-sheets

fr.json3.01 kB
{ "AI powered search engine": "Moteur de recherche alimenté par une IA", "\n Navigate to [API Settings](https://www.perplexity.ai/settings/api) and create new API key.\n ": "\n Navigate to [API Settings](https://www.perplexity.ai/settings/api) and create new API key.\n ", "Ask AI": "Demander à l'IA", "Enables users to generate prompt completion based on a specified model.": "Permet aux utilisateurs de générer une réalisation rapide basée sur un modèle spécifié.", "Model": "Modélisation", "Question": "Question", "Temperature": "Température", "Maximum Tokens": "Maximum de jetons", "Top P": "Top P", "Presence penalty": "Malus de présence", "Frequency penalty": "Malus de fréquence", "Roles": "Rôles", "The amount of randomness in the response.Higher values are more random, and lower values are more deterministic.": "La quantité de hasard dans la réponse.Les valeurs plus élevées sont plus aléatoires, et les valeurs inférieures sont plus déterministes.", "Please refer [guide](https://docs.perplexity.ai/guides/model-cards) for each model token limit.": "Veuillez vous référer à [guide](https://docs.perplexity.ai/guides/model-cards) pour chaque limite de jetons de modèle.", "The nucleus sampling threshold, valued between 0 and 1 inclusive. For each subsequent token, the model considers the results of the tokens with top_p probability mass.": "Le seuil d'échantillonnage du noyau, compris entre 0 et 1. Pour chaque jeton suivant, le modèle prend en compte les résultats des jetons avec la masse de probabilité top_p.", "Number between -2.0 and 2.0. Positive values penalize new tokens based on whether they appear in the text so far, increasing the mode's likelihood to talk about new topics.": "Numéroter entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction du fait qu'ils apparaissent dans le texte jusqu'à présent, ce qui augmente la probabilité du mode de parler de nouveaux sujets.", "A multiplicative penalty greater than 0. Values greater than 1.0 penalize new tokens based on their existing frequency in the text so far, decreasing the model's likelihood to repeat the same line verbatim.": "Une pénalité multiplicative supérieure à 0. Valeurs supérieures à 1. pénaliser les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu'à présent, diminuant la probabilité du modèle de répéter la même ligne verbatim.", "Array of roles to specify more accurate response.After the (optional) system message, user and assistant roles should alternate with user then assistant, ending in user.": "Tableau de rôles pour spécifier une réponse plus précise. Après le message système (facultatif), l'utilisateur et l'assistant doivent alterner avec l'utilisateur puis l'assistant, se terminant par l'utilisateur.", "sonar-reasoning-pro": "sonar-reasoning-pro", "sonar-reasoning": "sonar-raisonnement", "sonar-pro": "sonar-pro", "sonar": "sonar" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server