Skip to main content
Glama

mcp-google-sheets

ja.json3.99 kB
{ "\n Follow these instructions to get your DeepSeek API Key:\n\n1. Visit the following website: https://platform.deepseek.com/api_keys.\n2. Once on the website, locate and click on the option to obtain your DeepSeek API Key.": "\n Follow these instructions to get your DeepSeek API Key:\n\n1. Visit the following website: https://platform.deepseek.com/api_keys.\n2. Once on the website, locate and click on the option to obtain your DeepSeek API Key.", "Ask Deepseek": "ディープシークに聞く", "Ask Deepseek anything you want!": "あなたが望むものを深く探してみてください!", "Model": "モデル", "Question": "質問", "Frequency penalty": "頻度ペナルティ", "Maximum Tokens": "最大トークン", "Presence penalty": "プレゼンスペナルティ", "Response Format": "応答形式", "Temperature": "温度", "Top P": "トップ P", "Memory Key": "メモリーキー", "Roles": "ロール", "The model which will generate the completion.": "補完を生成するモデル。", "Number between -2.0 and 2.0. Positive values penalize new tokens based on their existing frequency in the text so far, decreasing the model's likelihood to repeat the same line verbatim.": "-2.0 から 2.0 までの数字。 正の値は、これまでのテキスト内の既存の頻度に基づいて新しいトークンを罰するため、モデルが同じ行を元に繰り返す可能性が低下します。", "The maximum number of tokens to generate. Possible values are between 1 and 8192.": "生成するトークンの最大数。可能な値は1から8192の間です。", "Number between -2.0 and 2.0. Positive values penalize new tokens based on whether they appear in the text so far, increasing the mode's likelihood to talk about new topics.": "-2.0 から 2.0 までの数字。 肯定的な値は、これまでのところテキストに表示されるかどうかに基づいて新しいトークンを罰し、モードが新しいトピックについて話す可能性を高めます。", "The format of the response. IMPORTANT: When using JSON Output, you must also instruct the model to produce JSON yourself": "レスポンスのフォーマット 重要: JSON 出力を使用する場合は、モデルに JSON を自分で生成するように指示する必要があります", "Controls randomness: Lowering results in less random completions. As the temperature approaches zero, the model will become deterministic and repetitive. Between 0 and 2. We generally recommend altering this or top_p but not both.": "温度がゼロに近づくにつれて、モデルは決定論的で反復的になります。 0 から 2 の間では、通常、これまたは top_p を変更することをお勧めしますが、両方ではありません。", "An alternative to sampling with temperature, called nucleus sampling, where the model considers the results of the tokens with top_p probability mass. So 0.1 means only the tokens comprising the top 10% probability mass are considered. Values <=1. We generally recommend altering this or temperature but not both.": "核サンプリングと呼ばれる温度によるサンプリングの代わりに、モデルはtop_p確率質量を持つトークンの結果を考慮します。 は、上位10%の確率質量からなるトークンのみが考慮されることを意味します。値 <=1 一般的には、これを変更することをお勧めしますが、両方は推奨しません。", "A memory key that will keep the chat history shared across runs and flows. Keep it empty to leave Deepseek without memory of previous messages.": "A memory key that will keep the chat history shares and flows. Keep it to leave deepseek without memory of previous messages.", "Array of roles to specify more accurate response": "より正確な応答を指定するロールの配列", "Text": "テキスト", "JSON": "JSON" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server