Skip to main content
Glama

VeoMCP

PyPI version PyPI downloads Python 3.10+ License: MIT MCP

Un servidor de Model Context Protocol (MCP) para la generación de vídeo con IA utilizando Veo a través de la API de AceDataCloud.

Genera vídeos con IA a partir de prompts de texto o imágenes directamente desde Claude, VS Code o cualquier cliente compatible con MCP.

Características

  • Texto a vídeo - Crea vídeos generados por IA a partir de descripciones de texto

  • Imagen a vídeo - Anima imágenes o crea transiciones entre imágenes

  • Fusión de múltiples imágenes - Combina elementos de varias imágenes

  • Escalado a 1080p - Obtén versiones de alta resolución de los vídeos generados

  • Seguimiento de tareas - Monitoriza el progreso de la generación y recupera resultados

  • Múltiples modelos - Elige entre calidad y velocidad con varios modelos de Veo

Referencia de herramientas

Herramienta

Descripción

veo_text_to_video

Genera vídeo con IA a partir de un prompt de texto usando Veo.

veo_image_to_video

Genera vídeo con IA a partir de una o más imágenes de referencia usando Veo.

veo_get_1080p

Obtiene la versión de alta resolución 1080p de un vídeo generado.

veo_get_task

Consulta el estado y el resultado de una tarea de generación de vídeo.

veo_get_tasks_batch

Consulta múltiples tareas de generación de vídeo a la vez.

veo_list_models

Lista todos los modelos de Veo disponibles y sus capacidades.

veo_list_actions

Lista todas las acciones de la API de Veo disponibles y sus herramientas correspondientes.

veo_get_prompt_guide

Obtiene orientación sobre cómo escribir prompts efectivos para la generación de vídeo con Veo.

Inicio rápido

1. Obtén tu token de API

  1. Regístrate en la plataforma AceDataCloud

  2. Ve a la página de documentación de la API

  3. Haz clic en "Acquire" para obtener tu token de API

  4. Copia el token para usarlo a continuación

2. Usa el servidor alojado (Recomendado)

AceDataCloud aloja un servidor MCP gestionado — no requiere instalación local.

Endpoint: https://veo.mcp.acedata.cloud/mcp

Todas las solicitudes requieren un token Bearer. Usa el token de API del paso 1.

Claude.ai

Conéctate directamente en Claude.ai con OAuth — no se necesita token de API:

  1. Ve a Settings → Integrations → Add More en Claude.ai

  2. Introduce la URL del servidor: https://veo.mcp.acedata.cloud/mcp

  3. Completa el flujo de inicio de sesión OAuth

  4. Empieza a usar las herramientas en tu conversación

Claude Desktop

Añádelo a tu configuración (~/Library/Application Support/Claude/claude_desktop_config.json en macOS):

{
  "mcpServers": {
    "veo": {
      "type": "streamable-http",
      "url": "https://veo.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

Cursor / Windsurf

Añádelo a tu configuración de MCP (.cursor/mcp.json o .windsurf/mcp.json):

{
  "mcpServers": {
    "veo": {
      "type": "streamable-http",
      "url": "https://veo.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

VS Code (Copilot)

Añádelo a tu configuración de MCP de VS Code (.vscode/mcp.json):

{
  "servers": {
    "veo": {
      "type": "streamable-http",
      "url": "https://veo.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

O instala la extensión Ace Data Cloud MCP para VS Code, que agrupa los 15 servidores MCP con una configuración de un solo clic.

IDEs de JetBrains

  1. Ve a Settings → Tools → AI Assistant → Model Context Protocol (MCP)

  2. Haz clic en AddHTTP

  3. Pega:

{
  "mcpServers": {
    "veo": {
      "url": "https://veo.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

Claude Code

Claude Code admite servidores MCP de forma nativa:

claude mcp add veo --transport http https://veo.mcp.acedata.cloud/mcp \
  -h "Authorization: Bearer YOUR_API_TOKEN"

O añádelo al archivo .mcp.json de tu proyecto:

{
  "mcpServers": {
    "veo": {
      "type": "streamable-http",
      "url": "https://veo.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

Cline

Añádelo a la configuración de MCP de Cline (.cline/mcp_settings.json):

{
  "mcpServers": {
    "veo": {
      "type": "streamable-http",
      "url": "https://veo.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

Amazon Q Developer

Añádelo a tu configuración de MCP:

{
  "mcpServers": {
    "veo": {
      "type": "streamable-http",
      "url": "https://veo.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

Roo Code

Añádelo a la configuración de MCP de Roo Code:

{
  "mcpServers": {
    "veo": {
      "type": "streamable-http",
      "url": "https://veo.mcp.acedata.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_API_TOKEN"
      }
    }
  }
}

Continue.dev

Añádelo a .continue/config.yaml:

mcpServers:
  - name: veo
    type: streamable-http
    url: https://veo.mcp.acedata.cloud/mcp
    headers:
      Authorization: "Bearer YOUR_API_TOKEN"

Zed

Añádelo a la configuración de Zed (~/.config/zed/settings.json):

{
  "language_models": {
    "mcp_servers": {
      "veo": {
        "url": "https://veo.mcp.acedata.cloud/mcp",
        "headers": {
          "Authorization": "Bearer YOUR_API_TOKEN"
        }
      }
    }
  }
}

Prueba con cURL

# Health check (no auth required)
curl https://veo.mcp.acedata.cloud/health

# MCP initialize
curl -X POST https://veo.mcp.acedata.cloud/mcp \
  -H "Content-Type: application/json" \
  -H "Accept: application/json" \
  -H "Authorization: Bearer YOUR_API_TOKEN" \
  -d '{"jsonrpc":"2.0","id":1,"method":"initialize","params":{"protocolVersion":"2025-03-26","capabilities":{},"clientInfo":{"name":"test","version":"1.0"}}}'

3. O ejecútalo localmente (Alternativa)

Si prefieres ejecutar el servidor en tu propia máquina:

# Install from PyPI
pip install mcp-veo
# or
uvx mcp-veo

# Set your API token
export ACEDATACLOUD_API_TOKEN="your_token_here"

# Run (stdio mode for Claude Desktop / local clients)
mcp-veo

# Run (HTTP mode for remote access)
mcp-veo --transport http --port 8000

Claude Desktop (Local)

{
  "mcpServers": {
    "veo": {
      "command": "uvx",
      "args": ["mcp-veo"],
      "env": {
        "ACEDATACLOUD_API_TOKEN": "your_token_here"
      }
    }
  }
}

Docker (Autoalojamiento)

docker pull ghcr.io/acedatacloud/mcp-veo:latest
docker run -p 8000:8000 ghcr.io/acedatacloud/mcp-veo:latest

Los clientes se conectan con su propio token Bearer — el servidor extrae el token de la cabecera Authorization de cada solicitud.

Herramientas disponibles

Generación de vídeo

Herramienta

Descripción

veo_text_to_video

Genera vídeo a partir de un prompt de texto

veo_image_to_video

Genera vídeo a partir de imagen(es) de referencia

veo_get_1080p

Obtiene la versión de alta resolución 1080p

Tareas

Herramienta

Descripción

veo_get_task

Consulta el estado de una sola tarea

veo_get_tasks_batch

Consulta múltiples tareas a la vez

Información

Herramienta

Descripción

veo_list_models

Lista los modelos de Veo disponibles

veo_list_actions

Lista las acciones de API disponibles

veo_get_prompt_guide

Obtiene la guía de escritura de prompts de vídeo

Ejemplos de uso

Generar vídeo a partir de texto

User: Create a video of a sunset over the ocean

Claude: I'll generate a sunset video for you.
[Calls veo_text_to_video with prompt="Cinematic shot of a golden sunset over the ocean, waves gently rolling, warm colors reflecting on the water"]

Animar una imagen

User: Animate this product image to make it rotate slowly

Claude: I'll create a video from your image.
[Calls veo_image_to_video with image_urls=["product_image.jpg"], prompt="Product slowly rotates 360 degrees, studio lighting"]

Crear transición de imagen

User: Create a video that transitions between these two landscape photos

Claude: I'll create a transition video between your images.
[Calls veo_image_to_video with image_urls=["img1.jpg", "img2.jpg"], prompt="Smooth cinematic transition between scenes"]

Modelos disponibles

Modelo

Text2Video

Image2Video

Entrada de imagen

veo2

1 imagen (primer fotograma)

veo2-fast

1 imagen (primer fotograma)

veo3

1-3 imágenes

veo3-fast

1-3 imágenes

veo31

1-3 imágenes

veo31-fast

1-3 imágenes

veo31-fast-ingredients

1-3 imágenes (fusión)

Relaciones de aspecto:

  • 16:9 - Paisaje/panorámico (predeterminado)

  • 9:16 - Retrato/vertical (redes sociales)

  • 4:3 - Estándar

  • 3:4 - Retrato estándar

  • 1:1 - Cuadrado

Configuración

Variables de entorno

Variable

Descripción

Predeterminado

ACEDATACLOUD_API_TOKEN

Token de API de AceDataCloud

Requerido

ACEDATACLOUD_API_BASE_URL

URL base de la API

https://api.acedata.cloud

ACEDATACLOUD_OAUTH_CLIENT_ID

ID de cliente OAuth (modo alojado)

ACEDATACLOUD_PLATFORM_BASE_URL

URL base de la plataforma

https://platform.acedata.cloud

VEO_DEFAULT_MODEL

Modelo predeterminado para generación

veo2

VEO_REQUEST_TIMEOUT

Tiempo de espera de solicitud en segundos

180

LOG_LEVEL

Nivel de registro

INFO

Opciones de línea de comandos

mcp-veo --help

Options:
  --version          Show version
  --transport        Transport mode: stdio (default) or http
  --port             Port for HTTP transport (default: 8000)

Desarrollo

Configurar entorno de desarrollo

# Clone repository
git clone https://github.com/AceDataCloud/VeoMCP.git
cd VeoMCP

# Create virtual environment
python -m venv .venv
source .venv/bin/activate  # or `.venv\Scripts\activate` on Windows

# Install with dev dependencies
pip install -e ".[dev,test]"

Ejecutar pruebas

# Run unit tests
pytest

# Run with coverage
pytest --cov=core --cov=tools

# Run integration tests (requires API token)
pytest tests/test_integration.py -m integration

Calidad del código

# Format code
ruff format .

# Lint code
ruff check .

# Type check
mypy core tools

Construir y publicar

# Install build dependencies
pip install -e ".[release]"

# Build package
python -m build

# Upload to PyPI
twine upload dist/*

Estructura del proyecto

VeoMCP/
├── core/                   # Core modules
│   ├── __init__.py
│   ├── client.py          # HTTP client for Veo API
│   ├── config.py          # Configuration management
│   ├── exceptions.py      # Custom exceptions
│   ├── server.py          # MCP server initialization
│   ├── types.py           # Type definitions
│   └── utils.py           # Utility functions
├── tools/                  # MCP tool definitions
│   ├── __init__.py
│   ├── video_tools.py     # Video generation tools
│   ├── info_tools.py      # Information tools
│   └── task_tools.py      # Task query tools
├── prompts/                # MCP prompts
│   └── __init__.py
├── tests/                  # Test suite
│   ├── conftest.py
│   ├── test_client.py
│   ├── test_config.py
│   ├── test_integration.py
│   └── test_utils.py
├── deploy/                 # Deployment configs
│   └── production/
│       ├── deployment.yaml
│       ├── ingress.yaml
│       └── service.yaml
├── .env.example           # Environment template
├── .gitignore
├── Dockerfile             # Docker image for HTTP mode
├── docker-compose.yaml    # Docker Compose config
├── LICENSE
├── main.py                # Entry point
├── pyproject.toml         # Project configuration
└── README.md

Referencia de la API

Este servidor envuelve la API de Veo de AceDataCloud:

Contribución

¡Las contribuciones son bienvenidas! Por favor:

  1. Haz un fork del repositorio

  2. Crea una rama de características (git checkout -b feature/amazing)

  3. Confirma tus cambios (git commit -m 'Add amazing feature')

  4. Envía a la rama (git push origin feature/amazing)

  5. Abre una Pull Request

Licencia

Licencia MIT - consulta LICENSE para más detalles.

Enlaces


Hecho con amor por AceDataCloud

Latest Blog Posts

MCP directory API

We provide all the information about MCP servers via our MCP API.

curl -X GET 'https://glama.ai/api/mcp/v1/servers/AceDataCloud/MCPVeo'

If you have feedback or need assistance with the MCP directory API, please join our Discord server