ru.json•4.79 kB
{
"Azure OpenAI": "Лазурный OpenAI",
"Powerful AI tools from Microsoft": "Мощные инструменты ИИ от Microsoft",
"Endpoint": "Endpoint",
"API Key": "Ключ API",
"https://<resource name>.openai.azure.com/": "https://<resource name>.openai.azure.com/",
"Use the Azure Portal to browse to your OpenAI resource and retrieve an API key": "Используйте портал Azure для просмотра вашего ресурса OpenAI и получения ключа API",
"Ask GPT": "Спросить GPT",
"Ask ChatGPT anything you want!": "Спросите ChatGPT все, что хотите!",
"Deployment Name": "Название развертывания",
"Question": "Вопрос",
"Temperature": "Температура",
"Maximum Tokens": "Максимум жетонов",
"Top P": "Верхний П",
"Frequency penalty": "Периодичность штрафа",
"Presence penalty": "Штраф присутствия",
"Memory Key": "Ключ памяти",
"Roles": "Роли",
"The name of your model deployment.": "Название вашей модели внедрения.",
"Controls randomness: Lowering results in less random completions. As the temperature approaches zero, the model will become deterministic and repetitive.": "Контролирует случайность: понижение результатов в менее случайном завершении. По мере нулевого температурного приближения модель становится детерминированной и повторяющей.",
"The maximum number of tokens to generate. Requests can use up to 2,048 or 4,096 tokens shared between prompt and completion depending on the model. Don't set the value to maximum and leave some tokens for the input. (One token is roughly 4 characters for normal English text)": "Максимальное количество жетонов для генерации. Запросы могут использовать до 2,048 или 4096 жетонов, которыми обменивались между подсказками и дополнениями, в зависимости от модели. Не устанавливайте максимальное значение и оставляйте некоторые токены для ввода. (Один токен примерно 4 символа для обычного английского текста)",
"An alternative to sampling with temperature, called nucleus sampling, where the model considers the results of the tokens with top_p probability mass. So 0.1 means only the tokens comprising the top 10% probability mass are considered.": "Альтернатива отоплению с температурой, называемой ядерным отбором, где модель рассматривает результаты жетонов с вероятностью top_p. Таким образом, 0.1 означает, что учитываются только жетоны, состоящие из массы 10% наивысшего уровня.",
"Number between -2.0 and 2.0. Positive values penalize new tokens based on their existing frequency in the text so far, decreasing the model's likelihood to repeat the same line verbatim.": "Номер между -2.0 и 2.0. Положительные значения наказывают новые токены на основе их существующей частоты в тексте до сих пор, уменьшая вероятность повторения одной и той же строки.",
"Number between -2.0 and 2.0. Positive values penalize new tokens based on whether they appear in the text so far, increasing the mode's likelihood to talk about new topics.": "Номер между -2.0 и 2.0. Положительные значения наказывают новые токены на основании того, появляются ли они в тексте до сих пор, что повышает вероятность того, что режим будет обсуждать новые темы.",
"A memory key that will keep the chat history shared across runs and flows. Keep it empty to leave ChatGPT without memory of previous messages.": "Ключ памяти, который хранит историю чата в разных запусках и потоках. Оставьте пустым, чтобы оставить ChatGPT без памяти предыдущих сообщений.",
"Array of roles to specify more accurate response": "Массив ролей для более точного ответа"
}