Skip to main content
Glama

mcp-google-sheets

nl.json6.24 kB
{ "Use Groq's fast language models and audio processing capabilities.": "Gebruik Groq's snelle taalmodellen en geluidsverwerkingsmogelijkheden.", "Enter your Groq API Key": "Voer uw Groq API-sleutel in", "Ask AI": "Vraag het AI", "Transcribe Audio": "Audio Transcrimeren", "Translate Audio": "Audio vertalen", "Custom API Call": "Custom API Call", "Ask Groq anything using fast language models.": "Groq vragen alles met behulp van snelle taalmodellen.", "Transcribes audio into text in the input language.": "Audio-overdracht in tekst in de invoertaal.", "Translates audio into English text.": "Vertaal audio in Engelse tekst.", "Make a custom API call to a specific endpoint": "Maak een aangepaste API call naar een specifiek eindpunt", "Model": "Model", "Question": "Vraag", "Temperature": "Temperatuur", "Maximum Tokens": "Maximaal aantal tokens", "Top P": "Boven P", "Frequency penalty": "Frequentie boete", "Presence penalty": "Presence boete", "Memory Key": "Geheugen Sleutel", "Roles": "Rollen", "Audio File": "Audio bestand", "Language": "Taal", "Prompt": "Prompt", "Response Format": "Antwoord formaat", "Method": "Methode", "Headers": "Kopteksten", "Query Parameters": "Query parameters", "Body": "Lichaam", "Response is Binary ?": "Antwoord is binair?", "No Error on Failure": "Geen fout bij fout", "Timeout (in seconds)": "Time-out (in seconden)", "The model which will generate the completion.": "Het model dat de voltooiing zal genereren.", "Controls randomness: Lowering results in less random completions. As the temperature approaches zero, the model will become deterministic and repetitive.": "Bestuurt willekeurigheid: Het verlagen van de temperatuur resulteert in minder willekeurige aanvullingen. Zodra de temperatuur nul nadert, zal het model deterministisch en herhalend worden.", "The maximum number of tokens to generate. The total length of input tokens and generated tokens is limited by the model's context length.": "Het maximale aantal tokens om te genereren. De totale lengte van de ingangstokens en gegenereerde tokens wordt beperkt door de context lengte van het model.", "An alternative to sampling with temperature, called nucleus sampling, where the model considers the results of the tokens with top_p probability mass. So 0.1 means only the tokens comprising the top 10% probability mass are considered.": "Een alternatief voor bemonstering met de temperatuur, genaamd nucleus sampling, waarbij het model de resultaten van de tokens met top_p waarschijnlijkheid ziet. 0.1 betekent dus dat alleen de tokens die de grootste massa van 10 procent vormen, worden overwogen.", "Number between -2.0 and 2.0. Positive values penalize new tokens based on their existing frequency in the text so far, decreasing the model's likelihood to repeat the same line verbatim.": "Nummer tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van hun bestaande frequentie in de tekst tot nu toe, waardoor de waarschijnlijkheid van het model om dezelfde lijn te herhalen afneemt.", "Number between -2.0 and 2.0. Positive values penalize new tokens based on whether they appear in the text so far, increasing the model's likelihood to talk about new topics.": "Nummer tussen -2.0 en 2.0. Positieve waarden bestraffen nieuwe tokens op basis van de vraag of ze tot nu toe in de tekst staan, waardoor de waarschijnlijkheid van het model om over nieuwe onderwerpen te praten toeneemt.", "A memory key that will keep the chat history shared across runs and flows. Keep it empty to leave Groq without memory of previous messages.": "Een geheugensleutel waarmee de chatgeschiedenis gedeeld blijft over uitvoeringen en stromen. Houd deze leeg om Groq zonder geheugen van vorige berichten te verlaten.", "Array of roles to specify more accurate response": "Array of roles om een nauwkeuriger antwoord te geven", "The audio file to transcribe. Supported formats: flac, mp3, mp4, mpeg, mpga, m4a, ogg, wav, webm.": "Het audiobestand om te converteren. Ondersteunde formaten: flac, mp3, mp4, mpeg, mpga, m4a, ogg, wav, webm.", "The model to use for transcription.": "Het te gebruiken model voor transcriptie.", "The language of the input audio in ISO-639-1 format (e.g., \"en\" for English). This will improve accuracy and latency.": "De taal van het invoergeluid in ISO-639-1 formaat (bijv. \"en\" voor het Engels). Dit verbetert de nauwkeurigheid en latentie.", "An optional text to guide the model's style or continue a previous audio segment. The prompt should match the audio language.": "Een optionele tekst om de stijl van het model te begeleiden of door te gaan met een vorig audiosegment. De vraag moet overeenkomen met de audiotaal.", "The sampling temperature, between 0 and 1. Higher values like 0.8 will make the output more random, while lower values like 0.2 will make it more focused and deterministic.": "De monstertemperatuur tussen 0 en 1. Hogere waarden zoals 0. zal de uitvoer willekeuriger maken, terwijl lagere waarden zoals 0,2 deze gerichter en deterministischer maken.", "The format of the transcript output.": "Het formaat van de transcript uitvoer.", "The audio file to translate. Supported formats: flac, mp3, mp4, mpeg, mpga, m4a, ogg, wav, webm.": "Het audiobestand om te vertalen. Ondersteunde formaten: flac, mp3, mp4, mpeg, mpga, m4a, ogg, wav, webm.", "The model to use for translation.": "Het te gebruiken model voor vertaling.", "An optional text in English to guide the model's style or continue a previous audio segment.": "Een optionele tekst in het Engels om de stijl van het model te begeleiden of door te gaan met een vorig audiosegment.", "The format of the translation output.": "Het formaat van de vertaaluitvoer.", "Authorization headers are injected automatically from your connection.": "Autorisatie headers worden automatisch geïnjecteerd vanuit uw verbinding.", "Enable for files like PDFs, images, etc..": "Inschakelen voor bestanden zoals PDF's, afbeeldingen etc..", "JSON": "JSON", "Text": "Tekstveld", "Verbose JSON": "Verbose JSON", "GET": "KRIJG", "POST": "POSTE", "PATCH": "BEKIJK", "PUT": "PUT", "DELETE": "VERWIJDEREN", "HEAD": "HOOFD" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server