Skip to main content
Glama

mcp-google-sheets

nl.json2.89 kB
{ "AI powered search engine": "AI aangedreven zoekmachine", "\n Navigate to [API Settings](https://www.perplexity.ai/settings/api) and create new API key.\n ": "\n Navigeer naar [API-instellingen](https://www.perplexity.ai/settings/api) en maak een nieuwe API-sleutel.\n ", "Ask AI": "Vraag het AI", "Enables users to generate prompt completion based on a specified model.": "Maakt het mogelijk voor gebruikers om een snelle voltooiing te genereren op basis van een opgegeven model.", "Model": "Model", "Question": "Vraag", "Temperature": "Temperatuur", "Maximum Tokens": "Maximaal aantal tokens", "Top P": "Boven P", "Presence penalty": "Presence boete", "Frequency penalty": "Frequentie boete", "Roles": "Rollen", "The amount of randomness in the response.Higher values are more random, and lower values are more deterministic.": "De hoeveelheid willekeurigheid in de response.Hogere waarden zijn willekeuriger, en lagere waarden zijn deterministischer.", "Please refer [guide](https://docs.perplexity.ai/guides/model-cards) for each model token limit.": "Raadpleeg [guide](https://docs.perplexity.ai/guides/model-cards) voor elke modeltoken limiet.", "The nucleus sampling threshold, valued between 0 and 1 inclusive. For each subsequent token, the model considers the results of the tokens with top_p probability mass.": "De drempelwaarde voor het bemonsteren van kerncentrales, die tussen 0 en 1 werd gewaardeerd. Voor elk daaropvolgende token worden de resultaten van de tokens beoordeeld met top_p waarschijnlijkheid.", "Number between -2.0 and 2.0. Positive values penalize new tokens based on whether they appear in the text so far, increasing the mode's likelihood to talk about new topics.": "Nummer tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van de vraag of ze tot nu toe in de tekst staan, waardoor de modus meer kans maakt om over nieuwe onderwerpen te praten.", "A multiplicative penalty greater than 0. Values greater than 1.0 penalize new tokens based on their existing frequency in the text so far, decreasing the model's likelihood to repeat the same line verbatim.": "Een multiplicatieve straf groter dan 0. Waarden groter dan 1. nieuwe tokens straffen op basis van hun bestaande frequentie in de tekst tot nu toe, waardoor de waarschijnlijkheid dat het model dezelfde lijn zal herhalen afneemt.", "Array of roles to specify more accurate response.After the (optional) system message, user and assistant roles should alternate with user then assistant, ending in user.": "Reeks van rollen om nauwkeuriger antwoord op te geven. Na het (optioneel) systeembericht, gebruiker en assistent-rollen zou afwisselend moeten zijn met de gebruiker, eindigend in de gebruiker.", "sonar-reasoning-pro": "sonar-reasoning-pro", "sonar-reasoning": "sonar-redenering", "sonar-pro": "sonar-pro", "sonar": "sonar" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server