Skip to main content
Glama

LumaMCP

PyPI version PyPI downloads Python 3.10+ License: MIT MCP

Un servidor del Protocolo de Contexto de Modelo (MCP) para la generación de vídeo con IA utilizando Luma Dream Machine a través de la API de AceDataCloud.

Genera vídeos con IA directamente desde Claude, VS Code o cualquier cliente compatible con MCP.

Características

  • Texto a vídeo - Crea vídeos generados por IA a partir de prompts de texto

  • Imagen a vídeo - Anima imágenes con control de fotogramas inicial/final

  • Extensión de vídeo - Extiende vídeos existentes con contenido adicional

  • Múltiples relaciones de aspecto - Soporte para 16:9, 9:16, 1:1 y más

  • Vídeos en bucle - Crea animaciones en bucle sin interrupciones

  • Mejora de claridad - Mejora opcional de la calidad del vídeo

  • Seguimiento de tareas - Monitorea el progreso de la generación y recupera resultados

Referencia de herramientas

Herramienta

Descripción

luma_generate_video

Genera vídeo con IA a partir de un prompt de texto usando Luma Dream Machine.

luma_generate_video_from_image

Genera vídeo con IA usando imágenes de referencia como fotogramas iniciales y/o finales.

luma_extend_video

Extiende un vídeo existente con contenido adicional.

luma_extend_video_from_url

Extiende un vídeo existente usando su URL.

luma_get_task

Consulta el estado y el resultado de una tarea de generación de vídeo.

luma_get_tasks_batch

Consulta múltiples tareas de generación de vídeo a la vez.

luma_list_aspect_ratios

Lista todas las relaciones de aspecto disponibles para la generación de vídeo de Luma.

luma_list_actions

Lista todas las acciones de la API de Luma disponibles y sus herramientas correspondientes.

Inicio rápido

1. Obtén tu token de API

  1. Regístrate en la Plataforma AceDataCloud

  2. Ve a la página de documentación de la API

  3. Haz clic en "Acquire" para obtener tu token de API

  4. Copia el token para usarlo a continuación

2. Usa el servidor alojado (Recomendado)

AceDataCloud aloja un servidor MCP gestionado — no requiere instalación local.

Endpoint: https://luma.mcp.acedata.cloud/mcp

Todas las solicitudes requieren un token Bearer. Usa el token de API del paso 1.

Claude.ai

Conéctate directamente en Claude.ai con OAuth — no se necesita token de API:

  1. Ve a Settings → Integrations → Add More en Claude.ai

  2. Introduce la URL del servidor: https://luma.mcp.acedata.cloud/mcp

  3. Completa el flujo de inicio de sesión OAuth

  4. Empieza a usar las herramientas en tu conversación

Claude Desktop

Añádelo a tu configuración (~/Library/Application Support/Claude/claude_desktop_config.json en macOS):

{
  "mcpServers": {
    "luma": {
      "type": "streamable-http",
      "url": "https://luma.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

Cursor / Windsurf

Añádelo a tu configuración de MCP (.cursor/mcp.json o .windsurf/mcp.json):

{
  "mcpServers": {
    "luma": {
      "type": "streamable-http",
      "url": "https://luma.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

VS Code (Copilot)

Añádelo a tu configuración de MCP de VS Code (.vscode/mcp.json):

{
  "servers": {
    "luma": {
      "type": "streamable-http",
      "url": "https://luma.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

O instala la extensión Ace Data Cloud MCP para VS Code, que agrupa los 15 servidores MCP con una configuración de un solo clic.

IDEs de JetBrains

  1. Ve a Settings → Tools → AI Assistant → Model Context Protocol (MCP)

  2. Haz clic en AddHTTP

  3. Pega:

{
  "mcpServers": {
    "luma": {
      "url": "https://luma.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

Claude Code

Claude Code admite servidores MCP de forma nativa:

claude mcp add luma --transport http https://luma.mcp.acedata.cloud/mcp \
  -h "Authorization: Bearer YOUR_API_TOKEN"

O añádelo al archivo .mcp.json de tu proyecto:

{
  "mcpServers": {
    "luma": {
      "type": "streamable-http",
      "url": "https://luma.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

Cline

Añádelo a la configuración de MCP de Cline (.cline/mcp_settings.json):

{
  "mcpServers": {
    "luma": {
      "type": "streamable-http",
      "url": "https://luma.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

Amazon Q Developer

Añádelo a tu configuración de MCP:

{
  "mcpServers": {
    "luma": {
      "type": "streamable-http",
      "url": "https://luma.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

Roo Code

Añádelo a la configuración de MCP de Roo Code:

{
  "mcpServers": {
    "luma": {
      "type": "streamable-http",
      "url": "https://luma.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

Continue.dev

Añádelo a .continue/config.yaml:

mcpServers:
  - name: luma
    type: streamable-http
    url: https://luma.mcp.acedata.cloud/mcp
    headers:
      Authorization: "Bearer YOUR_API_TOKEN"

Zed

Añádelo a la configuración de Zed (~/.config/zed/settings.json):

{
  "language_models": {
    "mcp_servers": {
      "luma": {
        "url": "https://luma.mcp.acedata.cloud/mcp",
        "headers": {
          "Authorization": "Bearer YOUR_API_TOKEN"
        }
      }
    }
  }
}

Prueba con cURL

# Health check (no auth required)
curl https://luma.mcp.acedata.cloud/health

# MCP initialize
curl -X POST https://luma.mcp.acedata.cloud/mcp \
  -H "Content-Type: application/json" \
  -H "Accept: application/json" \
  -H "Authorization: Bearer YOUR_API_TOKEN" \
  -d '{"jsonrpc":"2.0","id":1,"method":"initialize","params":{"protocolVersion":"2025-03-26","capabilities":{},"clientInfo":{"name":"test","version":"1.0"}}}'

3. O ejecútalo localmente (Alternativa)

Si prefieres ejecutar el servidor en tu propia máquina:

# Install from PyPI
pip install mcp-luma
# or
uvx mcp-luma

# Set your API token
export ACEDATACLOUD_API_TOKEN="your_token_here"

# Run (stdio mode for Claude Desktop / local clients)
mcp-luma

# Run (HTTP mode for remote access)
mcp-luma --transport http --port 8000

Claude Desktop (Local)

{
  "mcpServers": {
    "luma": {
      "command": "uvx",
      "args": ["mcp-luma"],
      "env": {
        "ACEDATACLOUD_API_TOKEN": "your_token_here"
      }
    }
  }
}

Docker (Autoalojamiento)

docker pull ghcr.io/acedatacloud/mcp-luma:latest
docker run -p 8000:8000 ghcr.io/acedatacloud/mcp-luma:latest

Los clientes se conectan con su propio token Bearer: el servidor extrae el token de la cabecera Authorization de cada solicitud.

Herramientas disponibles

Generación de vídeo

Herramienta

Descripción

luma_generate_video

Genera vídeo a partir de un prompt de texto

luma_generate_video_from_image

Genera vídeo usando imágenes de referencia

luma_extend_video

Extiende un vídeo existente por ID

luma_extend_video_from_url

Extiende un vídeo existente por URL

Tareas

Herramienta

Descripción

luma_get_task

Consulta el estado de una sola tarea

luma_get_tasks_batch

Consulta múltiples tareas a la vez

Información

Herramienta

Descripción

luma_list_aspect_ratios

Lista las relaciones de aspecto disponibles

luma_list_actions

Lista las acciones de API disponibles

Ejemplos de uso

Generar vídeo a partir de un prompt

User: Create a video of waves on a beach

Claude: I'll generate a beach wave video for you.
[Calls luma_generate_video with prompt="Ocean waves gently crashing on sandy beach, sunset"]

Animar una imagen

User: Animate this image: https://example.com/image.jpg

Claude: I'll create a video from your image.
[Calls luma_generate_video_from_image with start_image_url and appropriate prompt]

Extender un vídeo

User: Continue this video with more action

Claude: I'll extend the video with additional content.
[Calls luma_extend_video with video_id and new prompt]

Relaciones de aspecto disponibles

Relación de aspecto

Descripción

Caso de uso

16:9

Paisaje (predeterminado)

YouTube, TV, presentaciones

9:16

Retrato

TikTok, Instagram Reels

1:1

Cuadrado

Publicaciones de Instagram

4:3

Tradicional

Formato de vídeo clásico

3:4

Retrato tradicional

Contenido en retrato

21:9

Ultrawide

Contenido cinematográfico

9:21

Ultrawide vertical

Pantallas verticales especiales

Configuración

Variables de entorno

Variable

Descripción

Predeterminado

ACEDATACLOUD_API_TOKEN

Token de API de AceDataCloud

Requerido

ACEDATACLOUD_API_BASE_URL

URL base de la API

https://api.acedata.cloud

ACEDATACLOUD_OAUTH_CLIENT_ID

ID de cliente OAuth (modo alojado)

ACEDATACLOUD_PLATFORM_BASE_URL

URL base de la plataforma

https://platform.acedata.cloud

LUMA_DEFAULT_ASPECT_RATIO

Relación de aspecto predeterminada

16:9

LUMA_REQUEST_TIMEOUT

Tiempo de espera de solicitud en segundos

1800

LOG_LEVEL

Nivel de registro

INFO

Opciones de línea de comandos

mcp-luma --help

Options:
  --version          Show version
  --transport        Transport mode: stdio (default) or http
  --port             Port for HTTP transport (default: 8000)

Desarrollo

Configurar el entorno de desarrollo

# Clone repository
git clone https://github.com/AceDataCloud/LumaMCP.git
cd LumaMCP

# Create virtual environment
python -m venv .venv
source .venv/bin/activate  # or `.venv\Scripts\activate` on Windows

# Install with dev dependencies
pip install -e ".[dev,test]"

Ejecutar pruebas

# Run unit tests
pytest

# Run with coverage
pytest --cov=core --cov=tools

# Run integration tests (requires API token)
pytest tests/test_integration.py -m integration

Calidad del código

# Format code
ruff format .

# Lint code
ruff check .

# Type check
mypy core tools

Construir y publicar

# Install build dependencies
pip install -e ".[release]"

# Build package
python -m build

# Upload to PyPI
twine upload dist/*

Estructura del proyecto

LumaMCP/
├── core/                   # Core modules
│   ├── __init__.py
│   ├── client.py          # HTTP client for Luma API
│   ├── config.py          # Configuration management
│   ├── exceptions.py      # Custom exceptions
│   ├── server.py          # MCP server initialization
│   ├── types.py           # Type definitions
│   └── utils.py           # Utility functions
├── tools/                  # MCP tool definitions
│   ├── __init__.py
│   ├── video_tools.py     # Video generation tools
│   ├── task_tools.py      # Task query tools
│   └── info_tools.py      # Information tools
├── prompts/                # MCP prompts
│   └── __init__.py        # Prompt templates
├── tests/                  # Test suite
│   ├── conftest.py
│   ├── test_client.py
│   ├── test_config.py
│   ├── test_integration.py
│   └── test_utils.py
├── deploy/                 # Deployment configs
│   └── production/
│       ├── deployment.yaml
│       ├── ingress.yaml
│       └── service.yaml
├── .env.example           # Environment template
├── .gitignore
├── CHANGELOG.md
├── Dockerfile             # Docker image for HTTP mode
├── docker-compose.yaml    # Docker Compose config
├── LICENSE
├── main.py                # Entry point
├── pyproject.toml         # Project configuration
└── README.md

Referencia de la API

Este servidor envuelve la API de Luma de AceDataCloud:

Contribución

¡Las contribuciones son bienvenidas! Por favor:

  1. Haz un fork del repositorio

  2. Crea una rama de características (git checkout -b feature/amazing)

  3. Confirma tus cambios (git commit -m 'Add amazing feature')

  4. Envía a la rama (git push origin feature/amazing)

  5. Abre una Pull Request

Licencia

Licencia MIT - consulta LICENSE para más detalles.

Enlaces


Hecho con amor por AceDataCloud

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/AceDataCloud/MCPLuma'

If you have feedback or need assistance with the MCP directory API, please join our Discord server