ru.json•5.64 kB
{
"LocalAI": "Локальный AI",
"The free, Self-hosted, community-driven and local-first. Drop-in replacement for OpenAI running on consumer-grade hardware. No GPU required.": "Свободный самохостинг, управляемый сообществом и сперва выкладывать замену OpenAI на потребительском оборудовании. Не требуется GPU.",
"Server URL": "URL сервера",
"Access Token": "Маркер доступа",
"LocalAI Instance URL": "LocalAI Instance URL",
"LocalAI Access Token": "маркер доступа LocalAI",
"Ask LocalAI": "Спросить LocalAI",
"Custom API Call": "Пользовательский вызов API",
"Ask LocalAI anything you want!": "Спросите LocalAI все, что вы хотите!",
"Make a custom API call to a specific endpoint": "Сделать пользовательский API вызов к определенной конечной точке",
"Model": "Модель",
"Question": "Вопрос",
"Temperature": "Температура",
"Maximum Tokens": "Максимум жетонов",
"Top P": "Верхний П",
"Frequency penalty": "Периодичность штрафа",
"Presence penalty": "Штраф присутствия",
"Roles": "Роли",
"Method": "Метод",
"Headers": "Заголовки",
"Query Parameters": "Параметры запроса",
"Body": "Тело",
"No Error on Failure": "Нет ошибок при ошибке",
"Timeout (in seconds)": "Таймаут (в секундах)",
"The model which will generate the completion. Some models are suitable for natural language tasks, others specialize in code.": "Модель, которая будет генерировать дополнение, некоторые модели подходят для естественных языковых задач, другие специализируются на программировании.",
"Controls randomness: Lowering results in less random completions. As the temperature approaches zero, the model will become deterministic and repetitive.": "Контролирует случайность: понижение результатов в менее случайном завершении. По мере нулевого температурного приближения модель становится детерминированной и повторяющей.",
"The maximum number of tokens to generate. Requests can use up to 2,048 or 4,096 tokens shared between prompt and completion, don't set the value to maximum and leave some tokens for the input. The exact limit varies by model. (One token is roughly 4 characters for normal English text)": "Максимальное количество фишек для генерации Запросы могут использовать до 2 048 или 4 096 токенов, которыми обменивались между оперативными и завершенными действиями, не устанавливайте максимальное значение и оставляйте некоторые токены для ввода. In the twentieth century, Russian is widely taught in the schools of the members of the old Warsaw Pact and in other countries of the former Soviet Union.",
"An alternative to sampling with temperature, called nucleus sampling, where the model considers the results of the tokens with top_p probability mass. So 0.1 means only the tokens comprising the top 10% probability mass are considered.": "Альтернатива отоплению с температурой, называемой ядерным отбором, где модель рассматривает результаты жетонов с вероятностью top_p. Таким образом, 0.1 означает, что учитываются только жетоны, состоящие из массы 10% наивысшего уровня.",
"Number between -2.0 and 2.0. Positive values penalize new tokens based on their existing frequency in the text so far, decreasing the model's likelihood to repeat the same line verbatim.": "Номер между -2.0 и 2.0. Положительные значения наказывают новые токены на основе их существующей частоты в тексте до сих пор, уменьшая вероятность повторения одной и той же строки.",
"Number between -2.0 and 2.0. Positive values penalize new tokens based on whether they appear in the text so far, increasing the mode's likelihood to talk about new topics.": "Номер между -2.0 и 2.0. Положительные значения наказывают новые токены на основании того, появляются ли они в тексте до сих пор, что повышает вероятность того, что режим будет обсуждать новые темы.",
"Array of roles to specify more accurate response": "Массив ролей для более точного ответа",
"Authorization headers are injected automatically from your connection.": "Заголовки авторизации включаются автоматически из вашего соединения.",
"GET": "ПОЛУЧИТЬ",
"POST": "ПОСТ",
"PATCH": "ПАТЧ",
"PUT": "ПОКУПИТЬ",
"DELETE": "УДАЛИТЬ",
"HEAD": "HEAD"
}