Skip to main content
Glama

LumaMCP

PyPI version PyPI downloads Python 3.10+ License: MIT MCP

Ein Model Context Protocol (MCP)-Server für KI-Videogenerierung mit Luma Dream Machine über die AceDataCloud API.

Generieren Sie KI-Videos direkt aus Claude, VS Code oder einem beliebigen MCP-kompatiblen Client.

Funktionen

  • Text zu Video - Erstellen Sie KI-generierte Videos aus Text-Prompts

  • Bild zu Video - Animieren Sie Bilder mit Kontrolle über Start-/End-Frames

  • Videoerweiterung - Erweitern Sie bestehende Videos mit zusätzlichen Inhalten

  • Mehrere Seitenverhältnisse - Unterstützung für 16:9, 9:16, 1:1 und mehr

  • Loop-Videos - Erstellen Sie nahtlos wiederholende Animationen

  • Verbesserung der Klarheit - Optionale Verbesserung der Videoqualität

  • Aufgabenverfolgung - Überwachen Sie den Fortschritt der Generierung und rufen Sie Ergebnisse ab

Tool-Referenz

Tool

Beschreibung

luma_generate_video

Generiert ein KI-Video aus einem Text-Prompt mit Luma Dream Machine.

luma_generate_video_from_image

Generiert ein KI-Video unter Verwendung von Referenzbildern als Start- und/oder End-Frames.

luma_extend_video

Erweitert ein bestehendes Video mit zusätzlichen Inhalten.

luma_extend_video_from_url

Erweitert ein bestehendes Video unter Verwendung seiner URL.

luma_get_task

Fragt den Status und das Ergebnis einer Videogenerierungsaufgabe ab.

luma_get_tasks_batch

Fragt mehrere Videogenerierungsaufgaben gleichzeitig ab.

luma_list_aspect_ratios

Listet alle verfügbaren Seitenverhältnisse für die Luma-Videogenerierung auf.

luma_list_actions

Listet alle verfügbaren Luma-API-Aktionen und die entsprechenden Tools auf.

Schnellstart

1. Holen Sie sich Ihren API-Token

  1. Registrieren Sie sich auf der AceDataCloud-Plattform

  2. Gehen Sie zur API-Dokumentationsseite

  3. Klicken Sie auf "Acquire", um Ihren API-Token zu erhalten

  4. Kopieren Sie den Token für die untenstehende Verwendung

2. Verwenden Sie den gehosteten Server (Empfohlen)

AceDataCloud hostet einen verwalteten MCP-Server — keine lokale Installation erforderlich.

Endpunkt: https://luma.mcp.acedata.cloud/mcp

Alle Anfragen erfordern einen Bearer-Token. Verwenden Sie den API-Token aus Schritt 1.

Claude.ai

Verbinden Sie sich direkt auf Claude.ai mit OAuth — kein API-Token erforderlich:

  1. Gehen Sie zu Claude.ai Einstellungen → Integrationen → Mehr hinzufügen

  2. Geben Sie die Server-URL ein: https://luma.mcp.acedata.cloud/mcp

  3. Schließen Sie den OAuth-Login-Prozess ab

  4. Beginnen Sie mit der Nutzung der Tools in Ihrer Konversation

Claude Desktop

Fügen Sie dies zu Ihrer Konfiguration hinzu (~/Library/Application Support/Claude/claude_desktop_config.json unter macOS):

{
  "mcpServers": {
    "luma": {
      "type": "streamable-http",
      "url": "https://luma.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

Cursor / Windsurf

Fügen Sie dies zu Ihrer MCP-Konfiguration hinzu (.cursor/mcp.json oder .windsurf/mcp.json):

{
  "mcpServers": {
    "luma": {
      "type": "streamable-http",
      "url": "https://luma.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

VS Code (Copilot)

Fügen Sie dies zu Ihrer VS Code MCP-Konfiguration hinzu (.vscode/mcp.json):

{
  "servers": {
    "luma": {
      "type": "streamable-http",
      "url": "https://luma.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

Oder installieren Sie die Ace Data Cloud MCP-Erweiterung für VS Code, die alle 15 MCP-Server mit einer Ein-Klick-Einrichtung bündelt.

JetBrains IDEs

  1. Gehen Sie zu Einstellungen → Tools → AI Assistant → Model Context Protocol (MCP)

  2. Klicken Sie auf HinzufügenHTTP

  3. Einfügen:

{
  "mcpServers": {
    "luma": {
      "url": "https://luma.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

Claude Code

Claude Code unterstützt MCP-Server nativ:

claude mcp add luma --transport http https://luma.mcp.acedata.cloud/mcp \
  -h "Authorization: Bearer YOUR_API_TOKEN"

Oder fügen Sie es zur .mcp.json Ihres Projekts hinzu:

{
  "mcpServers": {
    "luma": {
      "type": "streamable-http",
      "url": "https://luma.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

Cline

Fügen Sie dies zu den MCP-Einstellungen von Cline hinzu (.cline/mcp_settings.json):

{
  "mcpServers": {
    "luma": {
      "type": "streamable-http",
      "url": "https://luma.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

Amazon Q Developer

Fügen Sie dies zu Ihrer MCP-Konfiguration hinzu:

{
  "mcpServers": {
    "luma": {
      "type": "streamable-http",
      "url": "https://luma.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

Roo Code

Fügen Sie dies zu den Roo Code MCP-Einstellungen hinzu:

{
  "mcpServers": {
    "luma": {
      "type": "streamable-http",
      "url": "https://luma.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

Continue.dev

Fügen Sie dies zu .continue/config.yaml hinzu:

mcpServers:
  - name: luma
    type: streamable-http
    url: https://luma.mcp.acedata.cloud/mcp
    headers:
      Authorization: "Bearer YOUR_API_TOKEN"

Zed

Fügen Sie dies zu den Einstellungen von Zed hinzu (~/.config/zed/settings.json):

{
  "language_models": {
    "mcp_servers": {
      "luma": {
        "url": "https://luma.mcp.acedata.cloud/mcp",
        "headers": {
          "Authorization": "Bearer YOUR_API_TOKEN"
        }
      }
    }
  }
}

cURL-Test

# Health check (no auth required)
curl https://luma.mcp.acedata.cloud/health

# MCP initialize
curl -X POST https://luma.mcp.acedata.cloud/mcp \
  -H "Content-Type: application/json" \
  -H "Accept: application/json" \
  -H "Authorization: Bearer YOUR_API_TOKEN" \
  -d '{"jsonrpc":"2.0","id":1,"method":"initialize","params":{"protocolVersion":"2025-03-26","capabilities":{},"clientInfo":{"name":"test","version":"1.0"}}}'

3. Oder lokal ausführen (Alternative)

Wenn Sie den Server lieber auf Ihrem eigenen Rechner ausführen möchten:

# Install from PyPI
pip install mcp-luma
# or
uvx mcp-luma

# Set your API token
export ACEDATACLOUD_API_TOKEN="your_token_here"

# Run (stdio mode for Claude Desktop / local clients)
mcp-luma

# Run (HTTP mode for remote access)
mcp-luma --transport http --port 8000

Claude Desktop (Lokal)

{
  "mcpServers": {
    "luma": {
      "command": "uvx",
      "args": ["mcp-luma"],
      "env": {
        "ACEDATACLOUD_API_TOKEN": "your_token_here"
      }
    }
  }
}

Docker (Self-Hosting)

docker pull ghcr.io/acedatacloud/mcp-luma:latest
docker run -p 8000:8000 ghcr.io/acedatacloud/mcp-luma:latest

Clients verbinden sich mit ihrem eigenen Bearer-Token — der Server extrahiert den Token aus dem Authorization-Header jeder Anfrage.

Verfügbare Tools

Videogenerierung

Tool

Beschreibung

luma_generate_video

Generiert Video aus einem Text-Prompt

luma_generate_video_from_image

Generiert Video unter Verwendung von Referenzbildern

luma_extend_video

Erweitert ein bestehendes Video per ID

luma_extend_video_from_url

Erweitert ein bestehendes Video per URL

Aufgaben

Tool

Beschreibung

luma_get_task

Fragt einen einzelnen Aufgabenstatus ab

luma_get_tasks_batch

Fragt mehrere Aufgaben gleichzeitig ab

Informationen

Tool

Beschreibung

luma_list_aspect_ratios

Listet verfügbare Seitenverhältnisse auf

luma_list_actions

Listet verfügbare API-Aktionen auf

Anwendungsbeispiele

Video aus Prompt generieren

User: Create a video of waves on a beach

Claude: I'll generate a beach wave video for you.
[Calls luma_generate_video with prompt="Ocean waves gently crashing on sandy beach, sunset"]

Ein Bild animieren

User: Animate this image: https://example.com/image.jpg

Claude: I'll create a video from your image.
[Calls luma_generate_video_from_image with start_image_url and appropriate prompt]

Ein Video erweitern

User: Continue this video with more action

Claude: I'll extend the video with additional content.
[Calls luma_extend_video with video_id and new prompt]

Verfügbare Seitenverhältnisse

Seitenverhältnis

Beschreibung

Anwendungsfall

16:9

Querformat (Standard)

YouTube, TV, Präsentationen

9:16

Hochformat

TikTok, Instagram Reels

1:1

Quadratisch

Instagram-Posts

4:3

Traditionell

Klassisches Videoformat

3:4

Traditionelles Hochformat

Hochformat-Inhalte

21:9

Ultrawide

Kinematografische Inhalte

9:21

Hohes Ultrawide

Spezielle vertikale Displays

Konfiguration

Umgebungsvariablen

Variable

Beschreibung

Standard

ACEDATACLOUD_API_TOKEN

API-Token von AceDataCloud

Erforderlich

ACEDATACLOUD_API_BASE_URL

API-Basis-URL

https://api.acedata.cloud

ACEDATACLOUD_OAUTH_CLIENT_ID

OAuth-Client-ID (gehosteter Modus)

ACEDATACLOUD_PLATFORM_BASE_URL

Plattform-Basis-URL

https://platform.acedata.cloud

LUMA_DEFAULT_ASPECT_RATIO

Standard-Seitenverhältnis

16:9

LUMA_REQUEST_TIMEOUT

Anfrage-Timeout in Sekunden

1800

LOG_LEVEL

Logging-Level

INFO

Befehlszeilenoptionen

mcp-luma --help

Options:
  --version          Show version
  --transport        Transport mode: stdio (default) or http
  --port             Port for HTTP transport (default: 8000)

Entwicklung

Entwicklungsumgebung einrichten

# Clone repository
git clone https://github.com/AceDataCloud/LumaMCP.git
cd LumaMCP

# Create virtual environment
python -m venv .venv
source .venv/bin/activate  # or `.venv\Scripts\activate` on Windows

# Install with dev dependencies
pip install -e ".[dev,test]"

Tests ausführen

# Run unit tests
pytest

# Run with coverage
pytest --cov=core --cov=tools

# Run integration tests (requires API token)
pytest tests/test_integration.py -m integration

Code-Qualität

# Format code
ruff format .

# Lint code
ruff check .

# Type check
mypy core tools

Build & Veröffentlichen

# Install build dependencies
pip install -e ".[release]"

# Build package
python -m build

# Upload to PyPI
twine upload dist/*

Projektstruktur

LumaMCP/
├── core/                   # Core modules
│   ├── __init__.py
│   ├── client.py          # HTTP client for Luma API
│   ├── config.py          # Configuration management
│   ├── exceptions.py      # Custom exceptions
│   ├── server.py          # MCP server initialization
│   ├── types.py           # Type definitions
│   └── utils.py           # Utility functions
├── tools/                  # MCP tool definitions
│   ├── __init__.py
│   ├── video_tools.py     # Video generation tools
│   ├── task_tools.py      # Task query tools
│   └── info_tools.py      # Information tools
├── prompts/                # MCP prompts
│   └── __init__.py        # Prompt templates
├── tests/                  # Test suite
│   ├── conftest.py
│   ├── test_client.py
│   ├── test_config.py
│   ├── test_integration.py
│   └── test_utils.py
├── deploy/                 # Deployment configs
│   └── production/
│       ├── deployment.yaml
│       ├── ingress.yaml
│       └── service.yaml
├── .env.example           # Environment template
├── .gitignore
├── CHANGELOG.md
├── Dockerfile             # Docker image for HTTP mode
├── docker-compose.yaml    # Docker Compose config
├── LICENSE
├── main.py                # Entry point
├── pyproject.toml         # Project configuration
└── README.md

API-Referenz

Dieser Server umschließt die AceDataCloud Luma API:

Mitwirken

Beiträge sind willkommen! Bitte:

  1. Forken Sie das Repository

  2. Erstellen Sie einen Feature-Branch (git checkout -b feature/amazing)

  3. Committen Sie Ihre Änderungen (git commit -m 'Add amazing feature')

  4. Pushen Sie auf den Branch (git push origin feature/amazing)

  5. Öffnen Sie einen Pull Request

Lizenz

MIT-Lizenz - siehe LICENSE für Details.


Mit Liebe gemacht von AceDataCloud

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/AceDataCloud/MCPLuma'

If you have feedback or need assistance with the MCP directory API, please join our Discord server