Skip to main content
Glama

Server Configuration

Describes the environment variables required to run the server.

NameRequiredDescriptionDefault
OPENAI_API_KEYNoOpenAI API key, required only when using the translation function.

Tools

Functions exposed to the LLM to take actions

NameDescription
get_supported_languages

サポートされている言語の一覧を取得します。

翻訳可能な言語コードと言語名のリストを返します。

transcribe_from_file

ローカルの動画/音声ファイルから字幕を生成します。

Args: file_path: 動画/音声ファイルの絶対パス device: 推論に使用するデバイス ("cuda" または "cpu") model_size: Whisperモデルサイズ (デフォルト: "large-v3") input_lang: 入力言語コード(省略時は自動検知) output_lang: 翻訳先言語コード(省略時は翻訳なし) initial_prompt: 専門用語や固有名詞のヒントを提供するプロンプト condition_on_previous_text: 前のセグメントを参照して文脈維持 (デフォルト: False、ハルシネーション防止) temperature: 温度パラメータ(0.0で最も決定的、デフォルト: 0.0) no_speech_threshold: 無音判定の閾値 (デフォルト: 0.6) compression_ratio_threshold: 繰り返し検出の閾値 (デフォルト: 2.4) vad_filter: 音声区間検出フィルタを使用 (デフォルト: True、ハルシネーション防止) Returns: 生成されたSRTファイルのパスと検出された言語情報
transcribe_from_url

URLから動画をダウンロードして字幕を生成します。

Args: url: 動画のURL(YouTube等) device: 推論に使用するデバイス ("cuda" または "cpu") model_size: Whisperモデルサイズ (デフォルト: "large-v3") input_lang: 入力言語コード(省略時は自動検知) output_lang: 翻訳先言語コード(省略時は翻訳なし) initial_prompt: 専門用語や固有名詞のヒントを提供するプロンプト condition_on_previous_text: 前のセグメントを参照して文脈維持 (デフォルト: False、ハルシネーション防止) temperature: 温度パラメータ(0.0で最も決定的、デフォルト: 0.0) no_speech_threshold: 無音判定の閾値 (デフォルト: 0.6) compression_ratio_threshold: 繰り返し検出の閾値 (デフォルト: 2.4) vad_filter: 音声区間検出フィルタを使用 (デフォルト: True、ハルシネーション防止) Returns: 生成されたSRTファイルのパスと検出された言語情報

Prompts

Interactive templates invoked by user choice

NameDescription

No prompts

Resources

Contextual data attached and managed by the client

NameDescription

No resources

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/uzusio/faster-whisper-mcp'

If you have feedback or need assistance with the MCP directory API, please join our Discord server