Skip to main content
Glama

mcp-google-sheets

ja.json3.98 kB
{ "Mistral AI provides state-of-the-art open-weight and hosted language models for text generation, embeddings, and reasoning tasks.": "ミストラルAIは、テキスト生成、埋め込み、推論タスクのための最先端のオープンウェイトおよびホスト言語モデルを提供します。", "You can obtain your API key from the Mistral AI dashboard. Go to https://console.mistral.ai, generate an API key, and paste it here.": "Mistral AIダッシュボードからAPIキーを取得することができます。https://console.mistral.aiに移動し、APIキーを生成し、ここに貼り付けてください。", "Ask Mistral": "ミストラルに聞く", "Create Embeddings": "埋め込みを作成", "Upload File": "ファイルをアップロード", "List Models": "モデル一覧", "Custom API Call": "カスタムAPI通話", "Ask Mistral anything you want!": "あなたが望むものは何でもミストラルに聞いてください!", "Creates new embedding in Mistral AI.": "Mistral AI に新しい埋め込みを作成します。", "Upload a file to Mistral AI (e.g., for fine-tuning or context storage).": "Mistral AI にファイルをアップロードします(例えば、微調整やコンテキストストレージなど)。", "Retrieves a list of available Mistral AI models.": "利用可能なミストラルAIモデルのリストを取得します。", "Make a custom API call to a specific endpoint": "特定のエンドポイントへのカスタム API コールを実行します。", "Model": "モデル", "Question": "質問", "Temperature": "温度", "Top P": "トップ P", "Max Tokens": "最大トークン", "Random Seed": "ランダムな種", "Timeout (ms)": "タイムアウト (ミリ秒)", "Input": "Input", "File": "ファイル", "Purpose": "目的", "Method": "方法", "Headers": "ヘッダー", "Query Parameters": "クエリパラメータ", "Body": "本文", "Response is Binary ?": "応答はバイナリですか?", "No Error on Failure": "失敗時にエラーはありません", "Timeout (in seconds)": "タイムアウト(秒)", "Select a Mistral model. List is fetched live from your account.": "ミストラルモデルを選択してください。リストはあなたのアカウントからライブで取得されます。", "Controls randomness: Lowering results in less random completions. As the temperature approaches zero, the model will become deterministic and repetitive.": "温度がゼロに近づくにつれて、モデルは決定論的で反復的になります。", "An alternative to sampling with temperature, called nucleus sampling, where the model considers the results of the tokens with top_p probability mass. So 0.1 means only the tokens comprising the top 10% probability mass are considered.": "核サンプリングと呼ばれる温度でのサンプリングの代わりに、モデルはtop_p確率質量を持つトークンの結果を考慮します。 つまり、0.1は上位10%の確率質量からなるトークンのみを考慮することになります。", "The input text for which to create an embedding.": "埋め込みを作成する入力テキスト。", "The file to upload (max 512MB).For fine tuning purspose provide .jsonl file.": "アップロードするファイル(最大 512MB)。パープルを微調整するには、.jsonl ファイルを提供します。", "Purpose of the file.": "ファイルの目的。", "Authorization headers are injected automatically from your connection.": "認証ヘッダは接続から自動的に注入されます。", "Enable for files like PDFs, images, etc..": "PDF、画像などのファイルを有効にします。", "fine-tune": "微調整", "batch": "一括処理", "ocr": "ocr", "GET": "取得", "POST": "POST", "PATCH": "PATCH", "PUT": "PUT", "DELETE": "削除", "HEAD": "頭" }

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/activepieces/activepieces'

If you have feedback or need assistance with the MCP directory API, please join our Discord server