Skip to main content
Glama

mcp-google-sheets

ru.json3.79 kB
{ "Perplexity AI": "Perplexity AI", "AI powered search engine": "Поисковая система, основанная на ИИ", "\n Navigate to [API Settings](https://www.perplexity.ai/settings/api) and create new API key.\n ": "\n Перейдите в [Настройки API](https://www.perplexity.ai/settings/api) и создайте новый ключ API.\n ", "Ask AI": "Ask AI", "Enables users to generate prompt completion based on a specified model.": "Позволяет пользователям генерировать подсказки на основе указанной модели.", "Model": "Модель", "Question": "Вопрос", "Temperature": "Температура", "Maximum Tokens": "Максимум жетонов", "Top P": "Верхний П", "Presence penalty": "Штраф присутствия", "Frequency penalty": "Периодичность штрафа", "Roles": "Роли", "The amount of randomness in the response.Higher values are more random, and lower values are more deterministic.": "Количество случайности в ответе. Чем больше значение параметра, тем ниже значение детерминировано.", "Please refer [guide](https://docs.perplexity.ai/guides/model-cards) for each model token limit.": "Пожалуйста, обратитесь к [guide](https://docs.perplexity.ai/guides/model-cards) за каждый лимит токенов модели.", "The nucleus sampling threshold, valued between 0 and 1 inclusive. For each subsequent token, the model considers the results of the tokens with top_p probability mass.": "Порог отбора проб ядра в диапазоне от 0 до 1 включительно. Для каждого последующего токена модель учитывает результаты токенов с вероятностью массы top_p.", "Number between -2.0 and 2.0. Positive values penalize new tokens based on whether they appear in the text so far, increasing the mode's likelihood to talk about new topics.": "Номер между -2.0 и 2.0. Положительные значения наказывают новые токены на основании того, появляются ли они в тексте до сих пор, что повышает вероятность того, что режим будет обсуждать новые темы.", "A multiplicative penalty greater than 0. Values greater than 1.0 penalize new tokens based on their existing frequency in the text so far, decreasing the model's likelihood to repeat the same line verbatim.": "Множественное наказание больше 0. Значения больше 1. оштрафовать новые токены на основе их существующей частоты в тексте до сих пор, уменьшая вероятность повторения одной и той же строки.", "Array of roles to specify more accurate response.After the (optional) system message, user and assistant roles should alternate with user then assistant, ending in user.": "Массив ролей, чтобы указать более точный ответ. После (опционально) системное сообщение, роли пользователя и ассистента должны чередоваться с пользователем, а затем ассистент, заканчивающийся пользователем.", "sonar-reasoning-pro": "sonar-reasoning-pro", "sonar-reasoning": "звуковое рассуждение", "sonar-pro": "sonar-pro", "sonar": "sonar" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server