Click on "Install Server".
Wait a few minutes for the server to deploy. Once ready, it will show a "Started" state.
In the chat, type
@followed by the MCP server name and your instructions, e.g., "@faster-whisper-mcptranscribe this YouTube video: https://www.youtube.com/watch?v=dQw4w9WgXcQ"
That's it! The server will respond to your query, and you can continue using it as needed.
Here is a step-by-step guide with screenshots.
faster-whisper-mcp
動画ファイルから高品質な字幕を生成するMCPサーバ&CLIツール。Faster Whisperを使用し、ローカルGPU/CPUで高速に音声認識を実行します。
特徴
MCPサーバ対応 - Claude Desktop等のMCPクライアントから直接利用可能
Claude Skill対応 -
skills/whisper.skillで安定した実行高速処理 - Faster Whisper (CTranslate2) による最適化された推論
多言語対応 - 59言語の自動検出・翻訳
柔軟な入力 - ローカルファイル / URL(YouTube等)両対応
GPU/CPU対応 - CUDA GPU または CPU で実行可能
インストール
git clone https://github.com/uzusio/faster-whisper-mcp.git
cd faster-whisper-mcp
pip install uv
uv venv
uv pip install -e .MCPサーバとして使用
Claude Desktopに登録
%APPDATA%\Claude\claude_desktop_config.json(Windows)または ~/Library/Application Support/Claude/claude_desktop_config.json(Mac)に追加:
{
"mcpServers": {
"faster-whisper": {
"command": "uv",
"args": ["--directory", "/path/to/faster-whisper-mcp", "run", "python", "mcp_server.py"],
"env": {
"OPENAI_API_KEY": "sk-..."
}
}
}
}Note:
OPENAI_API_KEYは翻訳機能使用時のみ必要です。
提供ツール
ツール | 説明 |
| ローカル動画/音声ファイルから字幕生成 |
| URLから動画をダウンロードして字幕生成 |
| サポート言語一覧を取得 |
詳細なパラメータは skills/whisper/ を参照。
使用例
この動画の字幕を生成して: C:\Videos\meeting.mp4https://www.youtube.com/watch?v=xxxxx この動画を日本語字幕付きで文字起こししてCLIとして使用
# 基本
python main.py video.mp4
# デバイス指定
python main.py video.mp4 --device cpu
# 翻訳付き
python main.py video.mp4 --input-lang ja --output-lang en
# URLから処理
python main.py https://www.youtube.com/watch?v=xxxxx主要オプション: --device, --model, --input-lang, --output-lang
全オプションは python main.py --help で確認。
環境要件
Python 3.11+
GPU使用時: CUDA Toolkit 12.x + cuDNN 9.x
翻訳機能: OpenAI APIキー(
.envに設定)
出力
形式: SRT
出力先: ローカルファイルは同ディレクトリ、URLは
output/ファイル名:
{元ファイル名}_{言語コード}.srt
ライセンス
MIT License