Skip to main content
Glama

mcp-google-sheets

ja.json6.59 kB
{ "Use Groq's fast language models and audio processing capabilities.": "Groqの高速言語モデルとオーディオ処理機能を使用します。", "Enter your Groq API Key": "Groq APIキーを入力", "Ask AI": "AIに聞く", "Transcribe Audio": "オーディオを変換する", "Translate Audio": "音声を翻訳", "Custom API Call": "カスタムAPI通話", "Ask Groq anything using fast language models.": "速い言語モデルを使ってGroqに何でも聞いてみてください。", "Transcribes audio into text in the input language.": "音声を入力言語でテキストに変換します。", "Translates audio into English text.": "音声を英語のテキストに翻訳します。", "Make a custom API call to a specific endpoint": "特定のエンドポイントへのカスタム API コールを実行します。", "Model": "モデル", "Question": "質問", "Temperature": "温度", "Maximum Tokens": "最大トークン", "Top P": "トップ P", "Frequency penalty": "頻度ペナルティ", "Presence penalty": "プレゼンスペナルティ", "Memory Key": "メモリーキー", "Roles": "ロール", "Audio File": "オーディオ ファイル", "Language": "言語", "Prompt": "Prompt", "Response Format": "応答形式", "Method": "方法", "Headers": "ヘッダー", "Query Parameters": "クエリパラメータ", "Body": "本文", "Response is Binary ?": "応答はバイナリですか?", "No Error on Failure": "失敗時にエラーはありません", "Timeout (in seconds)": "タイムアウト(秒)", "The model which will generate the completion.": "補完を生成するモデル。", "Controls randomness: Lowering results in less random completions. As the temperature approaches zero, the model will become deterministic and repetitive.": "温度がゼロに近づくにつれて、モデルは決定論的で反復的になります。", "The maximum number of tokens to generate. The total length of input tokens and generated tokens is limited by the model's context length.": "生成するトークンの最大数。入力トークンと生成されるトークンの合計の長さは、モデルのコンテキストの長さによって制限されます。", "An alternative to sampling with temperature, called nucleus sampling, where the model considers the results of the tokens with top_p probability mass. So 0.1 means only the tokens comprising the top 10% probability mass are considered.": "核サンプリングと呼ばれる温度でのサンプリングの代わりに、モデルはtop_p確率質量を持つトークンの結果を考慮します。 つまり、0.1は上位10%の確率質量からなるトークンのみを考慮することになります。", "Number between -2.0 and 2.0. Positive values penalize new tokens based on their existing frequency in the text so far, decreasing the model's likelihood to repeat the same line verbatim.": "-2.0 から 2.0 までの数字。 正の値は、これまでのテキスト内の既存の頻度に基づいて新しいトークンを罰するため、モデルが同じ行を元に繰り返す可能性が低下します。", "Number between -2.0 and 2.0. Positive values penalize new tokens based on whether they appear in the text so far, increasing the model's likelihood to talk about new topics.": "-2.0 から 2.0 までの数字。 正の値は、これまでのところテキストに表示されるかどうかに基づいて新しいトークンを罰するため、モデルが新しいトピックについて話す可能性を高めます。", "A memory key that will keep the chat history shared across runs and flows. Keep it empty to leave Groq without memory of previous messages.": "共有されたチャット履歴を実行とフロー間で保持するメモリキー。以前のメッセージのメモリなしでGroqを残すには空のままにしておいてください。", "Array of roles to specify more accurate response": "より正確な応答を指定するロールの配列", "The audio file to transcribe. Supported formats: flac, mp3, mp4, mpeg, mpga, m4a, ogg, wav, webm.": "転写するオーディオファイル。サポートされているフォーマット: flac, mp3, mp4, mpeg, mpg, mpg, m4a, ogg, wav, webm.", "The model to use for transcription.": "転写に使用するモデル。", "The language of the input audio in ISO-639-1 format (e.g., \"en\" for English). This will improve accuracy and latency.": "入力音声の言語はISO-639-1形式(例:英語の場合は\"en\")で、精度とレイテンシが向上します。", "An optional text to guide the model's style or continue a previous audio segment. The prompt should match the audio language.": "モデルのスタイルをガイドしたり、以前のオーディオセグメントを継続するための任意のテキストです。プロンプトはオーディオ言語と一致する必要があります。", "The sampling temperature, between 0 and 1. Higher values like 0.8 will make the output more random, while lower values like 0.2 will make it more focused and deterministic.": "サンプリング温度は0から1の間です。0のような値が高いです。 は出力をよりランダムにし、0.2のような値を下げるとより集中的で決定的になります。", "The format of the transcript output.": "転写出力の形式。", "The audio file to translate. Supported formats: flac, mp3, mp4, mpeg, mpga, m4a, ogg, wav, webm.": "翻訳するオーディオファイル。サポートされているフォーマット: flac, mp3, mp4, mpeg, mpg, mpg, m4a, ogg, wav, webm.", "The model to use for translation.": "翻訳に使用するモデル", "An optional text in English to guide the model's style or continue a previous audio segment.": "モデルのスタイルをガイドしたり、以前のオーディオセグメントを継続するための任意の英語テキスト。", "The format of the translation output.": "翻訳出力の書式。", "Authorization headers are injected automatically from your connection.": "認証ヘッダは接続から自動的に注入されます。", "Enable for files like PDFs, images, etc..": "PDF、画像などのファイルを有効にします。", "JSON": "JSON", "Text": "テキスト", "Verbose JSON": "Verbose JSON", "GET": "取得", "POST": "POST", "PATCH": "PATCH", "PUT": "PUT", "DELETE": "削除", "HEAD": "頭" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server