de.json•3.58 kB
{
"Powerful AI tools from Microsoft": "Mächtige KI-Tools von Microsoft",
"Endpoint": "Endpoint",
"API Key": "API-Schlüssel",
"https://<resource name>.openai.azure.com/": "https://<resource name>.openai.azure.com/",
"Use the Azure Portal to browse to your OpenAI resource and retrieve an API key": "Benutze das Azure Portal, um zu deiner OpenAI Ressource zu navigieren und einen API-Schlüssel zu erhalten",
"Ask GPT": "Frage GPT",
"Ask ChatGPT anything you want!": "Fragen Sie ChatGPT was Sie wollen!",
"Deployment Name": "Einsatzname",
"Question": "Frage",
"Temperature": "Temperatur",
"Maximum Tokens": "Maximale Token",
"Top P": "Oben P",
"Frequency penalty": "Frequenz Strafe",
"Presence penalty": "Präsenzstrafe",
"Memory Key": "Speicherschlüssel",
"Roles": "Rollen",
"The name of your model deployment.": "Der Name Ihres Model-Deployment.",
"Controls randomness: Lowering results in less random completions. As the temperature approaches zero, the model will become deterministic and repetitive.": "Kontrolliert Zufallszufälligkeit: Die Verringerung führt zu weniger zufälligen Vervollständigungen. Je näher die Temperatur Null rückt, desto deterministischer und sich wiederholender wird.",
"The maximum number of tokens to generate. Requests can use up to 2,048 or 4,096 tokens shared between prompt and completion depending on the model. Don't set the value to maximum and leave some tokens for the input. (One token is roughly 4 characters for normal English text)": "Die maximale Anzahl zu generierender Token. Anfragen können je nach Modell bis zu 2.048 oder 4.096 Tokens verwenden, die zwischen der Eingabeaufforderung und der Fertigstellung geteilt werden. Legen Sie den Wert nicht auf maximal und lassen Sie einige Token für die Eingabe. (Ein Token ist ungefähr 4 Zeichen für den normalen englischen Text)",
"An alternative to sampling with temperature, called nucleus sampling, where the model considers the results of the tokens with top_p probability mass. So 0.1 means only the tokens comprising the top 10% probability mass are considered.": "Eine Alternative zur Probenahme mit Temperatur, genannt Nucleus Probenahme, bei der das Modell die Ergebnisse der Tokens mit der Top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse ausmachen.",
"Number between -2.0 and 2.0. Positive values penalize new tokens based on their existing frequency in the text so far, decreasing the model's likelihood to repeat the same line verbatim.": "Nummer zwischen -2.0 und 2.0. Positive Werte bestrafen neue Tokens aufgrund ihrer bisherigen Häufigkeit im Text, wodurch sich die Wahrscheinlichkeit verringert, dass das Modell dieselbe Zeile wörtlich wiederholt.",
"Number between -2.0 and 2.0. Positive values penalize new tokens based on whether they appear in the text so far, increasing the mode's likelihood to talk about new topics.": "Nummer zwischen -2.0 und 2.0. Positive Werte bestrafen neue Tokens je nachdem, ob sie bisher im Text erscheinen, was die Wahrscheinlichkeit erhöht, über neue Themen zu sprechen.",
"A memory key that will keep the chat history shared across runs and flows. Keep it empty to leave ChatGPT without memory of previous messages.": "Ein Memory-Schlüssel, der den Chat-Verlauf über alle Abläufe und Ströme hinweg weitergibt. Leer lassen um ChatGPT ohne Speicher früherer Nachrichten zu verlassen.",
"Array of roles to specify more accurate response": "Rollenzuordnung, um eine genauere Antwort anzugeben"
}