Flyworks MCP

by Flyworks-AI
MIT License
2
  • Linux
  • Apple

Integrations

  • Supports configuration via .env files for storing the Flyworks API token and other settings

  • Provides a community support channel through their Discord server for users of the Flyworks MCP

  • Requires Python 3.8+ as the runtime environment for the MCP server

Flyworks MCP: Kostenloses und schnelles Zeroshot Lipsync-Tool

Überblick

Das Flyworks MCP ist ein Model Context Protocol (MCP)-Server, der eine praktische Schnittstelle für die Interaktion mit der Flyworks-API bietet. Es ermöglicht die schnelle und kostenlose Erstellung von Lipsync-Videos für eine Vielzahl digitaler Avatare, einschließlich realistischer und Cartoon-Stile.

Demo

Avatar-Video (Filmmaterial) eingeben:

Audioclip mit TTS-Spruch我是一个飞影数字人。Welcome to Flyworks MCP server demo. This tool enables fast and free lipsync video creation for a wide range of digital avatars, including realistic and cartoon styles. :

Generiertes Lipsync-Video:

Merkmale

  • Erstellen Sie lippensynchronisierte Videos mit digitalen Avatar-Videos und Audio als Eingaben
  • Erstellen Sie lippensynchronisierte Videos per Text (mit Text-to-Speech)
  • Erstellen Sie digitale menschliche Avatare aus Bildern oder Videos
  • Unterstützung für asynchrone und synchrone Betriebsmodi
  • Weitere Funktionen folgen in Kürze ...

Anforderungen

  • Python 3.8+
  • Abhängigkeiten: httpx , mcp[cli]

Installation

  1. Klonen Sie dieses Repository:
    git clone https://github.com/yourusername/flyworks-mcp.git cd flyworks-mcp
  2. Installieren Sie Abhängigkeiten:
    pip install httpx "mcp[cli]>=1.6.0"
    Oder mit uv :
    uv pip install httpx "mcp[cli]>=1.6.0"
    Um Timeout-Probleme beim Serverstart zu vermeiden, empfehlen wir, alle Abhängigkeiten vorab zu installieren:
    pip install pygments pydantic-core httpx "mcp[cli]>=1.6.0"

Konfiguration

Legen Sie Ihr Flyworks-API-Token als Umgebungsvariable fest:

# Linux/macOS export FLYWORKS_API_TOKEN="your_token_here" # Windows (Command Prompt) set FLYWORKS_API_TOKEN=your_token_here # Windows (PowerShell) $env:FLYWORKS_API_TOKEN="your_token_here"

Alternativ können Sie eine .env Datei erstellen.

Hinweis: Wir bieten kostenlosen Testzugang zu unserem Tool mit dem Token 2aeda3bcefac46a3 an. Bitte beachten Sie jedoch, dass das tägliche Kontingent für diesen kostenlosen Zugang begrenzt ist. Die generierten Videos werden zudem mit einem Wasserzeichen versehen und sind auf eine Dauer von 45 Sekunden beschränkt. Für vollständigen Zugriff kontaktieren Sie uns bitte unter bd@flyworks.ai , um Ihr Token zu erhalten.

Verwendung

Ausführen des Servers

Führen Sie die Datei server.py direkt aus:

python server.py
Integration mit Claude oder anderen MCP-Clients
Verwendung in Claude Desktop

Gehen Sie zu Claude > Settings > Developer > Edit Config > claude_desktop_config.json um Folgendes einzuschließen:

{ "mcpServers": { "flyworks": { "command": "uvx", "args": [ "flyworks-mcp", "-y" ], "env": { "FLYWORKS_API_TOKEN": "your_api_token_here", "FLYWORKS_API_BASE_URL": "https://hfw-api.hifly.cc/api/v2/hifly", "FLYWORKS_MCP_BASE_PATH": "/path/to/your/output/directory" } } } }
Verwenden im Cursor

Gehen Sie zu Cursor -> Preferences -> Cursor Settings -> MCP -> Add new global MCP Server um die obige Konfiguration hinzuzufügen.

Stellen Sie sicher, dass Sie your_api_token_here durch Ihr tatsächliches API-Token ersetzen und FLYWORKS_MCP_BASE_PATH auf ein gültiges Verzeichnis auf Ihrem System aktualisieren, in dem die Ausgabedateien gespeichert werden.

Probleme: spawn uvx ENOENT

Bitte bestätigen Sie den absoluten Pfad, indem Sie diesen Befehl in Ihrem Terminal ausführen:

which uvx

Sobald Sie den absoluten Pfad erhalten haben (z. B. /usr/local/bin/uvx), aktualisieren Sie Ihre Konfiguration, um diesen Pfad zu verwenden (z. B. „Befehl“: „/usr/local/bin/uvx“).

Werkzeugbeschreibung

1. Lipsync-Video per Audio erstellen ( create_lipsync_video_by_audio )

Erstellen Sie ein Lipsync-Video mit Audioeingabe. Animiert einen digitalen menschlichen Avatar, der synchron zum bereitgestellten Audio spricht.

Parameter :

  • avatar : Digitale menschliche Avatar-ID. Entweder diese oder Avatar-Erstellungsparameter müssen angegeben werden.
  • avatar_video_url : URL eines Videos, aus dem der Avatar erstellt werden soll.
  • avatar_image_url : URL eines Bildes, aus dem der Avatar erstellt werden soll.
  • avatar_video_file : Lokaler Pfad zu einer Videodatei, aus der der Avatar erstellt werden soll.
  • avatar_image_file : Lokaler Pfad zu einer Bilddatei, aus der der Avatar erstellt werden soll.
  • audio_url : Remote-URL der Audiodatei. Entweder audio_url oder audio_file muss angegeben werden.
  • audio_file : Lokaler Pfad zur Audiodatei. Entweder audio_url oder audio_file muss angegeben werden.
  • title : Optionaler Titel für das erstellte Video.
  • async_mode : Wenn „true“, wird die Task-ID sofort zurückgegeben. Wenn „false“, wird auf den Abschluss gewartet und das Video heruntergeladen. Standardmäßig ist „true“.
  • output_path : Wo soll das heruntergeladene Video gespeichert werden, wenn async_mode auf „false“ gesetzt ist. Standard ist „output.mp4“.

Hinweise :

  • Geben Sie für die Avatar-Erstellung genau EINE der folgenden Optionen an: avatar_video_url, avatar_image_url, avatar_video_file oder avatar_image_file.
  • Wenn die Avatar-ID direkt angegeben wird, werden diese Parameter ignoriert.

Rückgaben :

  • Wenn async_mode true ist: task_id zur späteren Statusprüfung und created_avatar (wenn ein neuer Avatar erstellt wurde)
  • Wenn async_mode false ist: heruntergeladener Videopfad, Aufgabenergebnis und erstellter Avatar (falls zutreffend)
2. Erstellen Sie ein Lipsync-Video per Text ( create_lipsync_video_by_text )

Erstellen Sie ein Lipsync-Video mit Texteingabe. Generiert Audio aus dem Text und animiert einen digitalen menschlichen Avatar, um ihn auszusprechen.

Parameter :

  • avatar : Digitale menschliche Avatar-ID. Entweder diese oder Avatar-Erstellungsparameter müssen angegeben werden.
  • avatar_video_url : URL eines Videos, aus dem der Avatar erstellt werden soll.
  • avatar_image_url : URL eines Bildes, aus dem der Avatar erstellt werden soll.
  • avatar_video_file : Lokaler Pfad zu einer Videodatei, aus der der Avatar erstellt werden soll.
  • avatar_image_file : Lokaler Pfad zu einer Bilddatei, aus der der Avatar erstellt werden soll.
  • text : Textinhalt, der vom Avatar gesprochen werden soll. Erforderlich.
  • voice : Für die Sprachausgabe zu verwendende Sprach-ID. Falls keine Stimme angegeben wird, wird automatisch eine zufällige Stimme ausgewählt.
  • title : Optionaler Titel für das erstellte Video.
  • async_mode : Wenn „true“, wird die Task-ID sofort zurückgegeben. Wenn „false“, wird auf den Abschluss gewartet und das Video heruntergeladen. Standardmäßig ist „true“.
  • output_path : Wo soll das heruntergeladene Video gespeichert werden, wenn async_mode auf „false“ gesetzt ist. Standard ist „output.mp4“.

Hinweise :

  • Geben Sie für die Avatar-Erstellung genau EINE der folgenden Optionen an: avatar_video_url, avatar_image_url, avatar_video_file oder avatar_image_file.
  • Wenn die Avatar-ID direkt angegeben wird, werden diese Parameter ignoriert.

Rückgaben :

  • Wenn „async_mode“ „true“ ist: task_id zum späteren Überprüfen des Status, ausgewählte Sprach-ID und erstellter Avatar (falls zutreffend)
  • Wenn async_mode false ist: heruntergeladener Videopfad, Aufgabenergebnis, ausgewählte Sprach-ID und erstellter Avatar (falls zutreffend)

Überprüfen des Aufgabenstatus

Bei Aufgaben, die im asynchronen Modus ausgeführt werden, können Sie ihren Status mithilfe des Endpunkts /creation/task der Flyworks-API mit der vom Tool zurückgegebenen Task-ID überprüfen.

Hinweise

  • Die Auftragsbearbeitung kann einige Zeit in Anspruch nehmen, bitte haben Sie Geduld
  • Die URLs der Videodateien sind temporär. Bitte laden Sie sie umgehend herunter und speichern Sie sie.
  • Bei Verwendung lokaler Dateien lädt der Server diese automatisch auf die Flyworks-Server hoch
  • Im Synchronisierungsmodus wartet das Tool, bis die Aufgabe abgeschlossen ist, und lädt das Video automatisch herunter
  • Die maximal zulässige Wartezeit für den Synchronisierungsmodus beträgt 10 Minuten (600 Sekunden).
  • Die Avatar-Erstellung über Videos bietet in der Regel eine bessere Qualität, dauert aber länger
  • Für schnelle Tests ist die Avatar-Erstellung durch Bilder schneller, kann aber eine geringere Qualität aufweisen
-
security - not tested
A
license - permissive license
-
quality - not tested

Ein Model Context Protocol-Server, der die schnelle und kostenlose Erstellung von Lippensynchronisationsvideos für eine breite Palette digitaler Avatare ermöglicht und sowohl Audio- als auch Texteingaben unterstützt, um synchronisierte Lippenbewegungen zu erzeugen.

  1. Überblick
    1. Demo
      1. Merkmale
        1. Anforderungen
          1. Installation
            1. Konfiguration
              1. Verwendung
                1. Ausführen des Servers
                2. Integration mit Claude oder anderen MCP-Clients
              2. Werkzeugbeschreibung
                1. 1. Lipsync-Video per Audio erstellen ( create_lipsync_video_by_audio )
                2. 2. Erstellen Sie ein Lipsync-Video per Text ( create_lipsync_video_by_text )
              3. Überprüfen des Aufgabenstatus
                1. Hinweise
                  1. Weiterführende Links

                    Related MCP Servers

                    • -
                      security
                      A
                      license
                      -
                      quality
                      A Model Context Protocol server that integrates high-quality text-to-speech capabilities with Claude Desktop and other MCP-compatible clients, supporting multiple voice options and audio formats.
                      Last updated -
                      TypeScript
                      MIT License
                    • A
                      security
                      A
                      license
                      A
                      quality
                      A Model Context Protocol server that enables retrieval of transcripts from YouTube videos. This server provides direct access to video transcripts and subtitles through a simple interface, making it ideal for content analysis and processing.
                      Last updated -
                      1
                      258
                      10
                      TypeScript
                      MIT License
                      • Linux
                      • Apple
                    • -
                      security
                      F
                      license
                      -
                      quality
                      A Model Context Protocol server that provides Claude with tools to interact with YouTube, built on the mcp-framework.
                      Last updated -
                      TypeScript
                      • Apple
                    • -
                      security
                      -
                      license
                      -
                      quality
                      Model Context Protocol server that enables generating videos from text prompts and/or images using AI models (Luma Ray2 Flash and Kling v1.6 Pro) with configurable parameters like aspect ratio, resolution, and duration.
                      Last updated -
                      1
                      JavaScript
                      MIT License

                    View all related MCP servers

                    ID: y9enz2ldhd