Skip to main content
Glama

mcp-google-sheets

fr.json3.69 kB
{ "Powerful AI tools from Microsoft": "Outils puissants IA de Microsoft", "Endpoint": "Endpoint", "API Key": "Clé API", "https://<resource name>.openai.azure.com/": "https://<resource name>.openai.azure.com/", "Use the Azure Portal to browse to your OpenAI resource and retrieve an API key": "Utilisez le portail Azure pour naviguer vers votre ressource OpenAI et récupérer une clé API", "Ask GPT": "Demander GPT", "Ask ChatGPT anything you want!": "Demandez à ChatGPT ce que vous voulez !", "Deployment Name": "Nom du déploiement", "Question": "Question", "Temperature": "Température", "Maximum Tokens": "Maximum de jetons", "Top P": "Top P", "Frequency penalty": "Malus de fréquence", "Presence penalty": "Malus de présence", "Memory Key": "Clé de mémoire", "Roles": "Rôles", "The name of your model deployment.": "Le nom du déploiement de votre modèle.", "Controls randomness: Lowering results in less random completions. As the temperature approaches zero, the model will become deterministic and repetitive.": "Contrôle aléatoirement : La baisse des résultats est moins aléatoire, alors que la température approche de zéro, le modèle devient déterministe et répétitif.", "The maximum number of tokens to generate. Requests can use up to 2,048 or 4,096 tokens shared between prompt and completion depending on the model. Don't set the value to maximum and leave some tokens for the input. (One token is roughly 4 characters for normal English text)": "Le nombre maximum de jetons à générer. Les requêtes peuvent utiliser jusqu'à 2 048 ou 4 096 jetons partagés entre l'invite et la complétion selon le modèle. Ne pas définir la valeur au maximum et laisser des jetons pour l'entrée. (un jeton est d'environ 4 caractères pour le texte anglais normal)", "An alternative to sampling with temperature, called nucleus sampling, where the model considers the results of the tokens with top_p probability mass. So 0.1 means only the tokens comprising the top 10% probability mass are considered.": "Une alternative à l'échantillonnage à la température, appelée l'échantillonnage du noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Ainsi, 0,1 signifie que seuls les jetons constituant la masse de probabilité la plus élevée de 10% sont pris en compte.", "Number between -2.0 and 2.0. Positive values penalize new tokens based on their existing frequency in the text so far, decreasing the model's likelihood to repeat the same line verbatim.": "Numéroter entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu'à présent, diminuant la probabilité du modèle de répéter le verbatim de la même ligne.", "Number between -2.0 and 2.0. Positive values penalize new tokens based on whether they appear in the text so far, increasing the mode's likelihood to talk about new topics.": "Numéroter entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction du fait qu'ils apparaissent dans le texte jusqu'à présent, ce qui augmente la probabilité du mode de parler de nouveaux sujets.", "A memory key that will keep the chat history shared across runs and flows. Keep it empty to leave ChatGPT without memory of previous messages.": "Une clé de mémoire qui conservera l'historique des discussions partagées à travers les exécutions et les flux. Gardez-la vide pour laisser ChatGPT sans mémoire pour les messages précédents.", "Array of roles to specify more accurate response": "Tableau de rôles pour spécifier une réponse plus précise" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server