Skip to main content
Glama

mcp-google-sheets

ru.json5 kB
{ "DeepSeek": "DeepSeek", "\n Follow these instructions to get your DeepSeek API Key:\n\n1. Visit the following website: https://platform.deepseek.com/api_keys.\n2. Once on the website, locate and click on the option to obtain your DeepSeek API Key.": "\n Follow these instructions to get your DeepSeek API Key:\n\n1. Visit the following website: https://platform.deepseek.com/api_keys.\n2. Once on the website, locate and click on the option to obtain your DeepSeek API Key.", "Ask Deepseek": "Спрашивать глубокий поиск", "Ask Deepseek anything you want!": "Спросите Deepseek всё, что хотите!", "Model": "Модель", "Question": "Вопрос", "Frequency penalty": "Периодичность штрафа", "Maximum Tokens": "Максимум жетонов", "Presence penalty": "Штраф присутствия", "Response Format": "Формат ответа", "Temperature": "Температура", "Top P": "Верхний П", "Memory Key": "Ключ памяти", "Roles": "Роли", "The model which will generate the completion.": "Модель, которая будет генерировать завершенность.", "Number between -2.0 and 2.0. Positive values penalize new tokens based on their existing frequency in the text so far, decreasing the model's likelihood to repeat the same line verbatim.": "Номер между -2.0 и 2.0. Положительные значения наказывают новые токены на основе их существующей частоты в тексте до сих пор, уменьшая вероятность повторения одной и той же строки.", "The maximum number of tokens to generate. Possible values are between 1 and 8192.": "Максимальное количество генерируемых токенов. Возможные значения - от 1 до 8192.", "Number between -2.0 and 2.0. Positive values penalize new tokens based on whether they appear in the text so far, increasing the mode's likelihood to talk about new topics.": "Номер между -2.0 и 2.0. Положительные значения наказывают новые токены на основании того, появляются ли они в тексте до сих пор, что повышает вероятность того, что режим будет обсуждать новые темы.", "The format of the response. IMPORTANT: When using JSON Output, you must also instruct the model to produce JSON yourself": "Формат ответа. ВАЖНО: При использовании вывода JSON, вы также должны указать модель для создания JSON", "Controls randomness: Lowering results in less random completions. As the temperature approaches zero, the model will become deterministic and repetitive. Between 0 and 2. We generally recommend altering this or top_p but not both.": "Контролирует случайность: понижение результатов в менее случайном завершении. По мере нулевого температурного приближения модель становится детерминированной и повторяющей. Между 0 и 2. Обычно мы рекомендуем изменить это или top_p, но не и то и другое.", "An alternative to sampling with temperature, called nucleus sampling, where the model considers the results of the tokens with top_p probability mass. So 0.1 means only the tokens comprising the top 10% probability mass are considered. Values <=1. We generally recommend altering this or temperature but not both.": "Альтернатива выборочной пробы с температурой, называемой ядерным отбором, где модель рассматривает результаты жетонов с вероятностью top_p. Так 0. означает только жетоны, состоящие из массы наилучших 10%. Рассмотрены значения <=1. Мы обычно рекомендуем изменить эту величину или температуру, но не и то и другое.", "A memory key that will keep the chat history shared across runs and flows. Keep it empty to leave Deepseek without memory of previous messages.": "Ключ памяти, который сохранит историю чата общими между запусками и потоками. Оставьте пустым, чтобы оставить Deepseek без памяти предыдущих сообщений.", "Array of roles to specify more accurate response": "Массив ролей для более точного ответа", "Text": "Текст", "JSON": "JSON" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server