Skip to main content
Glama

mcp-google-sheets

nl.json3.55 kB
{ "Powerful AI tools from Microsoft": "Krachtige AI tools van Microsoft", "Endpoint": "Endpoint", "API Key": "API Sleutel", "https://<resource name>.openai.azure.com/": "https://<resource name>.openai.azure.com/", "Use the Azure Portal to browse to your OpenAI resource and retrieve an API key": "Gebruik het Azure Portaal om naar uw OpenAI bron te bladeren en een API sleutel op te halen", "Ask GPT": "Vraag GPT", "Ask ChatGPT anything you want!": "Vraag ChatGPT alles wat je maar wilt!", "Deployment Name": "Deployment Naam", "Question": "Vraag", "Temperature": "Temperatuur", "Maximum Tokens": "Maximaal aantal tokens", "Top P": "Boven P", "Frequency penalty": "Frequentie boete", "Presence penalty": "Presence boete", "Memory Key": "Geheugen Sleutel", "Roles": "Rollen", "The name of your model deployment.": "De naam van je model implementatie.", "Controls randomness: Lowering results in less random completions. As the temperature approaches zero, the model will become deterministic and repetitive.": "Bestuurt willekeurigheid: Het verlagen van de temperatuur resulteert in minder willekeurige aanvullingen. Zodra de temperatuur nul nadert, zal het model deterministisch en herhalend worden.", "The maximum number of tokens to generate. Requests can use up to 2,048 or 4,096 tokens shared between prompt and completion depending on the model. Don't set the value to maximum and leave some tokens for the input. (One token is roughly 4 characters for normal English text)": "Het maximale aantal te genereren tokens kan gebruikt worden tot 2.048 of 4.096 tokens gedeeld tussen de prompt en de voltooiing, afhankelijk van het model. Stel de waarde niet in op een maximum en laat sommige tokens voor de invoer. (Eén token is ongeveer 4 tekens voor normale Engelse tekst)", "An alternative to sampling with temperature, called nucleus sampling, where the model considers the results of the tokens with top_p probability mass. So 0.1 means only the tokens comprising the top 10% probability mass are considered.": "Een alternatief voor bemonstering met de temperatuur, genaamd nucleus sampling, waarbij het model de resultaten van de tokens met top_p waarschijnlijkheid ziet. 0.1 betekent dus dat alleen de tokens die de grootste massa van 10 procent vormen, worden overwogen.", "Number between -2.0 and 2.0. Positive values penalize new tokens based on their existing frequency in the text so far, decreasing the model's likelihood to repeat the same line verbatim.": "Nummer tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van hun bestaande frequentie in de tekst tot nu toe, waardoor de waarschijnlijkheid van het model om dezelfde lijn te herhalen afneemt.", "Number between -2.0 and 2.0. Positive values penalize new tokens based on whether they appear in the text so far, increasing the mode's likelihood to talk about new topics.": "Nummer tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van de vraag of ze tot nu toe in de tekst staan, waardoor de modus meer kans maakt om over nieuwe onderwerpen te praten.", "A memory key that will keep the chat history shared across runs and flows. Keep it empty to leave ChatGPT without memory of previous messages.": "Een geheugensleutel waarmee de chatgeschiedenis gedeeld blijft over uitvoeringen en stromen. Houd het leeg om ChatGPT te verlaten zonder het geheugen van vorige berichten.", "Array of roles to specify more accurate response": "Array of roles om een nauwkeuriger antwoord te geven" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server