Integrations
Flyworks MCP: Kostenloses und schnelles Zeroshot Lipsync-Tool
Überblick
Das Flyworks MCP ist ein Model Context Protocol (MCP)-Server, der eine praktische Schnittstelle für die Interaktion mit der Flyworks-API bietet. Es ermöglicht die schnelle und kostenlose Erstellung von Lipsync-Videos für eine Vielzahl digitaler Avatare, einschließlich realistischer und Cartoon-Stile.
Demo
Avatar-Video (Filmmaterial) eingeben:
Audioclip mit TTS-Spruch我是一个飞影数字人。Welcome to Flyworks MCP server demo. This tool enables fast and free lipsync video creation for a wide range of digital avatars, including realistic and cartoon styles.
:
Generiertes Lipsync-Video:
Merkmale
- Erstellen Sie lippensynchronisierte Videos mit digitalen Avatar-Videos und Audio als Eingaben
- Erstellen Sie lippensynchronisierte Videos per Text (mit Text-to-Speech)
- Erstellen Sie digitale menschliche Avatare aus Bildern oder Videos
- Unterstützung für asynchrone und synchrone Betriebsmodi
- Weitere Funktionen folgen in Kürze ...
Anforderungen
- Python 3.8+
- Abhängigkeiten:
httpx
,mcp[cli]
Installation
- Klonen Sie dieses Repository:Copy
- Installieren Sie Abhängigkeiten:Oder mitCopy
uv
:Um Timeout-Probleme beim Serverstart zu vermeiden, empfehlen wir, alle Abhängigkeiten vorab zu installieren:CopyCopy
Konfiguration
Legen Sie Ihr Flyworks-API-Token als Umgebungsvariable fest:
Alternativ können Sie eine .env
Datei erstellen.
Hinweis: Wir bieten kostenlosen Testzugang zu unserem Tool mit dem Token
2aeda3bcefac46a3
an. Bitte beachten Sie jedoch, dass das tägliche Kontingent für diesen kostenlosen Zugang begrenzt ist. Die generierten Videos werden zudem mit einem Wasserzeichen versehen und sind auf eine Dauer von 45 Sekunden beschränkt. Für vollständigen Zugriff kontaktieren Sie uns bitte unter bd@flyworks.ai , um Ihr Token zu erhalten.
Verwendung
Ausführen des Servers
Führen Sie die Datei server.py
direkt aus:
Integration mit Claude oder anderen MCP-Clients
Verwendung in Claude Desktop
Gehen Sie zu Claude > Settings > Developer > Edit Config > claude_desktop_config.json
um Folgendes einzuschließen:
Verwenden im Cursor
Gehen Sie zu Cursor -> Preferences -> Cursor Settings -> MCP -> Add new global MCP Server
um die obige Konfiguration hinzuzufügen.
Stellen Sie sicher, dass Sie your_api_token_here
durch Ihr tatsächliches API-Token ersetzen und FLYWORKS_MCP_BASE_PATH
auf ein gültiges Verzeichnis auf Ihrem System aktualisieren, in dem die Ausgabedateien gespeichert werden.
Probleme: spawn uvx ENOENT
Bitte bestätigen Sie den absoluten Pfad, indem Sie diesen Befehl in Ihrem Terminal ausführen:
Sobald Sie den absoluten Pfad erhalten haben (z. B. /usr/local/bin/uvx), aktualisieren Sie Ihre Konfiguration, um diesen Pfad zu verwenden (z. B. „Befehl“: „/usr/local/bin/uvx“).
Werkzeugbeschreibung
1. Lipsync-Video per Audio erstellen ( create_lipsync_video_by_audio
)
Erstellen Sie ein Lipsync-Video mit Audioeingabe. Animiert einen digitalen menschlichen Avatar, der synchron zum bereitgestellten Audio spricht.
Parameter :
avatar
: Digitale menschliche Avatar-ID. Entweder diese oder Avatar-Erstellungsparameter müssen angegeben werden.avatar_video_url
: URL eines Videos, aus dem der Avatar erstellt werden soll.avatar_image_url
: URL eines Bildes, aus dem der Avatar erstellt werden soll.avatar_video_file
: Lokaler Pfad zu einer Videodatei, aus der der Avatar erstellt werden soll.avatar_image_file
: Lokaler Pfad zu einer Bilddatei, aus der der Avatar erstellt werden soll.audio_url
: Remote-URL der Audiodatei. Entweder audio_url oder audio_file muss angegeben werden.audio_file
: Lokaler Pfad zur Audiodatei. Entweder audio_url oder audio_file muss angegeben werden.title
: Optionaler Titel für das erstellte Video.async_mode
: Wenn „true“, wird die Task-ID sofort zurückgegeben. Wenn „false“, wird auf den Abschluss gewartet und das Video heruntergeladen. Standardmäßig ist „true“.output_path
: Wo soll das heruntergeladene Video gespeichert werden, wenn async_mode auf „false“ gesetzt ist. Standard ist „output.mp4“.
Hinweise :
- Geben Sie für die Avatar-Erstellung genau EINE der folgenden Optionen an: avatar_video_url, avatar_image_url, avatar_video_file oder avatar_image_file.
- Wenn die Avatar-ID direkt angegeben wird, werden diese Parameter ignoriert.
Rückgaben :
- Wenn async_mode true ist: task_id zur späteren Statusprüfung und created_avatar (wenn ein neuer Avatar erstellt wurde)
- Wenn async_mode false ist: heruntergeladener Videopfad, Aufgabenergebnis und erstellter Avatar (falls zutreffend)
2. Erstellen Sie ein Lipsync-Video per Text ( create_lipsync_video_by_text
)
Erstellen Sie ein Lipsync-Video mit Texteingabe. Generiert Audio aus dem Text und animiert einen digitalen menschlichen Avatar, um ihn auszusprechen.
Parameter :
avatar
: Digitale menschliche Avatar-ID. Entweder diese oder Avatar-Erstellungsparameter müssen angegeben werden.avatar_video_url
: URL eines Videos, aus dem der Avatar erstellt werden soll.avatar_image_url
: URL eines Bildes, aus dem der Avatar erstellt werden soll.avatar_video_file
: Lokaler Pfad zu einer Videodatei, aus der der Avatar erstellt werden soll.avatar_image_file
: Lokaler Pfad zu einer Bilddatei, aus der der Avatar erstellt werden soll.text
: Textinhalt, der vom Avatar gesprochen werden soll. Erforderlich.voice
: Für die Sprachausgabe zu verwendende Sprach-ID. Falls keine Stimme angegeben wird, wird automatisch eine zufällige Stimme ausgewählt.title
: Optionaler Titel für das erstellte Video.async_mode
: Wenn „true“, wird die Task-ID sofort zurückgegeben. Wenn „false“, wird auf den Abschluss gewartet und das Video heruntergeladen. Standardmäßig ist „true“.output_path
: Wo soll das heruntergeladene Video gespeichert werden, wenn async_mode auf „false“ gesetzt ist. Standard ist „output.mp4“.
Hinweise :
- Geben Sie für die Avatar-Erstellung genau EINE der folgenden Optionen an: avatar_video_url, avatar_image_url, avatar_video_file oder avatar_image_file.
- Wenn die Avatar-ID direkt angegeben wird, werden diese Parameter ignoriert.
Rückgaben :
- Wenn „async_mode“ „true“ ist: task_id zum späteren Überprüfen des Status, ausgewählte Sprach-ID und erstellter Avatar (falls zutreffend)
- Wenn async_mode false ist: heruntergeladener Videopfad, Aufgabenergebnis, ausgewählte Sprach-ID und erstellter Avatar (falls zutreffend)
Überprüfen des Aufgabenstatus
Bei Aufgaben, die im asynchronen Modus ausgeführt werden, können Sie ihren Status mithilfe des Endpunkts /creation/task
der Flyworks-API mit der vom Tool zurückgegebenen Task-ID überprüfen.
Hinweise
- Die Auftragsbearbeitung kann einige Zeit in Anspruch nehmen, bitte haben Sie Geduld
- Die URLs der Videodateien sind temporär. Bitte laden Sie sie umgehend herunter und speichern Sie sie.
- Bei Verwendung lokaler Dateien lädt der Server diese automatisch auf die Flyworks-Server hoch
- Im Synchronisierungsmodus wartet das Tool, bis die Aufgabe abgeschlossen ist, und lädt das Video automatisch herunter
- Die maximal zulässige Wartezeit für den Synchronisierungsmodus beträgt 10 Minuten (600 Sekunden).
- Die Avatar-Erstellung über Videos bietet in der Regel eine bessere Qualität, dauert aber länger
- Für schnelle Tests ist die Avatar-Erstellung durch Bilder schneller, kann aber eine geringere Qualität aufweisen
Weiterführende Links
This server cannot be installed
Ein Model Context Protocol-Server, der die schnelle und kostenlose Erstellung von Lippensynchronisationsvideos für eine breite Palette digitaler Avatare ermöglicht und sowohl Audio- als auch Texteingaben unterstützt, um synchronisierte Lippenbewegungen zu erzeugen.
Related MCP Servers
- -securityAlicense-qualityA Model Context Protocol server that integrates high-quality text-to-speech capabilities with Claude Desktop and other MCP-compatible clients, supporting multiple voice options and audio formats.Last updated -TypeScriptMIT License
- AsecurityAlicenseAqualityA Model Context Protocol server that enables retrieval of transcripts from YouTube videos. This server provides direct access to video transcripts and subtitles through a simple interface, making it ideal for content analysis and processing.Last updated -125810TypeScriptMIT License
- -securityFlicense-qualityA Model Context Protocol server that provides Claude with tools to interact with YouTube, built on the mcp-framework.Last updated -TypeScript
- -security-license-qualityModel Context Protocol server that enables generating videos from text prompts and/or images using AI models (Luma Ray2 Flash and Kling v1.6 Pro) with configurable parameters like aspect ratio, resolution, and duration.Last updated -1JavaScriptMIT License