Click on "Install Server".
Wait a few minutes for the server to deploy. Once ready, it will show a "Started" state.
In the chat, type
@followed by the MCP server name and your instructions, e.g., "@faster-whisper-mcptranscribe this YouTube video: https://www.youtube.com/watch?v=dQw4w9WgXcQ"
That's it! The server will respond to your query, and you can continue using it as needed.
Here is a step-by-step guide with screenshots.
faster-whisper-mcp
動画ファイルから高品質な字幕を生成するMCPサーバ&CLIツール。Faster Whisperを使用し、ローカルGPU/CPUで高速に音声認識を実行します。
特徴
MCPサーバ対応 - Claude Desktop等のMCPクライアントから直接利用可能
Claude Skill対応 -
skills/whisper.skillで安定した実行高速処理 - Faster Whisper (CTranslate2) による最適化された推論
多言語対応 - 59言語の自動検出・翻訳
柔軟な入力 - ローカルファイル / URL(YouTube等)両対応
GPU/CPU対応 - CUDA GPU または CPU で実行可能
インストール
MCPサーバとして使用
Claude Desktopに登録
%APPDATA%\Claude\claude_desktop_config.json(Windows)または ~/Library/Application Support/Claude/claude_desktop_config.json(Mac)に追加:
Note:
OPENAI_API_KEYは翻訳機能使用時のみ必要です。
提供ツール
ツール | 説明 |
| ローカル動画/音声ファイルから字幕生成 |
| URLから動画をダウンロードして字幕生成 |
| サポート言語一覧を取得 |
詳細なパラメータは skills/whisper/ を参照。
使用例
CLIとして使用
主要オプション: --device, --model, --input-lang, --output-lang
全オプションは python main.py --help で確認。
環境要件
Python 3.11+
GPU使用時: CUDA Toolkit 12.x + cuDNN 9.x
翻訳機能: OpenAI APIキー(
.envに設定)
出力
形式: SRT
出力先: ローカルファイルは同ディレクトリ、URLは
output/ファイル名:
{元ファイル名}_{言語コード}.srt
ライセンス
MIT License