Skip to main content
Glama

mcp-google-sheets

fr.json4.52 kB
{ "The free, Self-hosted, community-driven and local-first. Drop-in replacement for OpenAI running on consumer-grade hardware. No GPU required.": "La version gratuite, auto-hébergée, gérée par la communauté et localisée d'abord. Remplacement de remplacement pour OpenAI fonctionnant sur le matériel de consommation. Aucun GPU requis.", "Server URL": "URL du serveur", "Access Token": "Jeton d'accès", "LocalAI Instance URL": "LocalAI Instance URL", "LocalAI Access Token": "Jeton d'accès LocalAI", "Ask LocalAI": "Demander à l'IA locale", "Custom API Call": "Appel API personnalisé", "Ask LocalAI anything you want!": "Demandez à LocalAI ce que vous voulez !", "Make a custom API call to a specific endpoint": "Passez un appel API personnalisé à un point de terminaison spécifique", "Model": "Modélisation", "Question": "Question", "Temperature": "Température", "Maximum Tokens": "Maximum de jetons", "Top P": "Top P", "Frequency penalty": "Malus de fréquence", "Presence penalty": "Malus de présence", "Roles": "Rôles", "Method": "Méthode", "Headers": "En-têtes", "Query Parameters": "Paramètres de requête", "Body": "Corps", "Response is Binary ?": "La réponse est Binaire ?", "No Error on Failure": "Aucune erreur en cas d'échec", "Timeout (in seconds)": "Délai d'attente (en secondes)", "The model which will generate the completion. Some models are suitable for natural language tasks, others specialize in code.": "Le modèle qui va générer la complétion. Certains modèles sont adaptés aux tâches de langage naturel, d'autres se spécialisent dans le code.", "Controls randomness: Lowering results in less random completions. As the temperature approaches zero, the model will become deterministic and repetitive.": "Contrôle aléatoirement : La baisse des résultats est moins aléatoire, alors que la température approche de zéro, le modèle devient déterministe et répétitif.", "The maximum number of tokens to generate. Requests can use up to 2,048 or 4,096 tokens shared between prompt and completion, don't set the value to maximum and leave some tokens for the input. The exact limit varies by model. (One token is roughly 4 characters for normal English text)": "Le nombre maximum de jetons à générer. Les requêtes peuvent utiliser jusqu'à 2 048 ou 4 096 jetons partagés entre l'invite et la complétion, ne pas définir la valeur au maximum et laisser des jetons pour l'entrée. La limite exacte varie selon le modèle. (un jeton est d'environ 4 caractères pour le texte anglais normal)", "An alternative to sampling with temperature, called nucleus sampling, where the model considers the results of the tokens with top_p probability mass. So 0.1 means only the tokens comprising the top 10% probability mass are considered.": "Une alternative à l'échantillonnage à la température, appelée l'échantillonnage du noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Ainsi, 0,1 signifie que seuls les jetons constituant la masse de probabilité la plus élevée de 10% sont pris en compte.", "Number between -2.0 and 2.0. Positive values penalize new tokens based on their existing frequency in the text so far, decreasing the model's likelihood to repeat the same line verbatim.": "Numéroter entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu'à présent, diminuant la probabilité du modèle de répéter le verbatim de la même ligne.", "Number between -2.0 and 2.0. Positive values penalize new tokens based on whether they appear in the text so far, increasing the mode's likelihood to talk about new topics.": "Numéroter entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction du fait qu'ils apparaissent dans le texte jusqu'à présent, ce qui augmente la probabilité du mode de parler de nouveaux sujets.", "Array of roles to specify more accurate response": "Tableau de rôles pour spécifier une réponse plus précise", "Authorization headers are injected automatically from your connection.": "Les en-têtes d'autorisation sont injectés automatiquement à partir de votre connexion.", "Enable for files like PDFs, images, etc..": "Activer pour les fichiers comme les PDFs, les images, etc.", "GET": "OBTENIR", "POST": "POSTER", "PATCH": "PATCH", "PUT": "EFFACER", "DELETE": "SUPPRIMER", "HEAD": "TÊTE" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server