ja.json•3.7 kB
{
"Use any AI model to generate code, text, or images via OpenRouter.ai.": "任意のAIモデルを使用して、OpenRouter.aiを介してコード、テキスト、または画像を生成します。",
"\nFollow these instructions to get your OpenAI API Key:\n\n1. Visit the following website: https://openrouter.ai/keys.\n2. Once on the website, click on create a key.\n3. Once you have created a key, copy it and use it for the Api key field on the site.\n": "\nFollow these instructions to get your OpenAI API Key:\n\n1. Visit the following website: https://openrouter.ai/keys.\n2. Once on the website, click on create a key.\n3. Once you have created a key, copy it and use it for the Api key field on the site.\n",
"Ask LLM": "LLMに聞く",
"Custom API Call": "カスタムAPI通話",
"Ask any model supported by Open Router.": "Open Routerでサポートされているモデルに問い合わせてください。",
"Make a custom API call to a specific endpoint": "特定のエンドポイントへのカスタム API コールを実行します。",
"Model": "モデル",
"Prompt": "Prompt",
"Temperature": "温度",
"Maximum Tokens": "最大トークン",
"Top P": "トップ P",
"Method": "方法",
"Headers": "ヘッダー",
"Query Parameters": "クエリパラメータ",
"Body": "本文",
"Response is Binary ?": "応答はバイナリですか?",
"No Error on Failure": "失敗時にエラーはありません",
"Timeout (in seconds)": "タイムアウト(秒)",
"The model which will generate the completion. Some models are suitable for natural language tasks, others specialize in code.": "補完を生成するモデル。自然言語タスクに適しているモデルもあれば、コードに特化したモデルもあります。",
"The prompt to send to the model.": "モデルに送信するプロンプト。",
"Controls randomness: Lowering results in less random completions. As the temperature approaches zero, the model will become deterministic and repetitive.": "温度がゼロに近づくにつれて、モデルは決定論的で反復的になります。",
"The maximum number of tokens to generate. Requests can use up to 2,048 or 4,096 tokens shared between prompt and completion, don't set the value to maximum and leave some tokens for the input. The exact limit varies by model. (One token is roughly 4 characters for normal English text)": "生成するトークンの最大数。 リクエストは、プロンプトと完了の間で共有された最大2,048または4,096トークンを使用できます。 値を最大値に設定しないで、トークンを入力してください。 正確な制限はモデルによって異なります。(通常の英文では1つのトークンが約4文字です)",
"An alternative to sampling with temperature, called nucleus sampling, where the model considers the results of the tokens with top_p probability mass. So 0.1 means only the tokens comprising the top 10% probability mass are considered.": "核サンプリングと呼ばれる温度でのサンプリングの代わりに、モデルはtop_p確率質量を持つトークンの結果を考慮します。 つまり、0.1は上位10%の確率質量からなるトークンのみを考慮することになります。",
"Authorization headers are injected automatically from your connection.": "認証ヘッダは接続から自動的に注入されます。",
"Enable for files like PDFs, images, etc..": "PDF、画像などのファイルを有効にします。",
"GET": "取得",
"POST": "POST",
"PATCH": "PATCH",
"PUT": "PUT",
"DELETE": "削除",
"HEAD": "頭"
}