Cómo armar ads cinematográficos con IA

JP
Julian Príncipe
Product Lead7 min read
Cómo armar ads cinematográficos con IA

Hace unos meses quise probar algo: hacer una publicidad que se sienta como un ad de perfume — abstracta, etérea, más mood que mensaje — pero para un producto que no tiene nada que ver. Aceite de girasol.

El resultado fue un video de 30 segundos con una mujer caminando por un campo al atardecer, una casa prendiéndose fuego de fondo, y una botella de aceite de girasol como cierre. Todo generado con IA. Todo montado como si fuera una pieza de cine.


El problema no es el modelo

El workflow que hace el 90% de la gente: abrir un generador de video, escribir un prompt, generar, decepcionarse, ajustar dos palabras, repetir.

Un director no llega al set y dice "filmá algo lindo". Llega con un moodboard, personajes definidos, un shot list, y una estrategia de audio. Con IA es exactamente igual. La diferencia entre un ad que parece generado y uno que parece dirigido está en todo lo que hacés antes de generar.


La imagen madre

Antes de armar toda la secuencia, necesitás una imagen que defina todo: el tono visual, la paleta, la luz, el mood. Yo le digo la imagen madre. Todo lo que generes después parte de ella.

Para el aceite, iteré con referencias de un moodboard hasta dar con una imagen que tenía exactamente lo que buscaba: una mujer en un campo, luz de atardecer, una textura cinematográfica. Esa imagen y el prompt que la generó se convirtieron en el ancla de todo el proyecto.

La imagen madre: mujer en un campo al atardecer con textura cinematográfica

Hoy usaría Nano Banana Pro con las referencias del moodboard y sería más sencillo. Ese es un patrón que vas a ver repetido: los mejores modelos para cada tarea van cambiando todo el tiempo. Lo importante es probar con dos o tres y comparar — el canvas te deja ver todo lado a lado.


Construir el storyboard

Arrastrás la imagen madre al canvas, la seleccionás y usás Remix — porque partís de una imagen y querés obtener otra imagen. Describís lo que necesitás.

A partir de la mujer en el campo fui pidiendo variaciones: la misma mujer desde más lejos, un plano donde se vea que en el campo hay una casa, la casa prendiéndose fuego, un close-up de una cartera en el pasto. Cada imagen nueva usaba la madre como referencia para mantener la consistencia.

Variación del storyboard vía Remix: la mujer sentada en el campo con la cartera, misma paleta y estética que la imagen madre

El loop

El storyboard no se arma solo con imágenes. A medida que los planos me gustaban, los iba convirtiendo a video. Y cada tanto, dentro de un video generado, aparecía un frame mejor que cualquier imagen que había prompteado.

En Dual, cuando reproducís un video hay un botón de cámara — screenshot del frame actual como imagen que podés usar. El flujo real terminó siendo: imagen madre → Remix para nuevos planos → Convert a video → extraer frames buenos → usar como nuevas referencias → Remix para más planos. Ida y vuelta constante.

Insertar el producto

El producto tenía que aparecer al final. Tomé un close-up de una cartera en el pasto y usé Remix para reemplazarla por la botella de aceite. Después lo convertí a video.


Pensar como director

Un ad no es un plano. Es una secuencia de planos que cuentan algo en 15 o 30 segundos. Si no pensás la secuencia antes de generar, vas a terminar con un montón de clips que no conectan.

Para el aceite, la narrativa era: una mujer en un campo en un plano etéreo y tranquilo. El plano se abre y revela que en el mismo campo hay una casa prendiéndose fuego. De la calma al caos. Y al final el producto.

Plano general: la mujer caminando hacia la casa en el campo, el plano que revela la escena completa

La secuencia en la práctica: establishing shot del campo → plano medio de la mujer caminando → se revela la casa → la casa empieza a arder → close-up del fuego → insert de la botella de aceite iluminada por el fuego.

El quiebre narrativo: la casa prendiéndose fuego en el campo

Animar

Seleccionás la imagen, Convert a video, elegís el modelo. Kling 3.0 es el más completo hoy: actuación creíble, movimiento estable, buen seguimiento de prompt. Pero es lento. Kling 2.6 y Seedance son alternativas más rápidas.

Para el aceite usé Seedance. Los planos son bastante estáticos — la mujer camina lento, el fuego se mueve pero la cámara no hace nada loco. Hoy haría planos con más movimiento: un tracking que siga a la mujer, un crane up que revele el fuego. Los modelos de ahora lo permiten.

El prompt de video no necesita repetir lo que ya está en la imagen. La imagen ya codifica el estilo, los sujetos, la iluminación. Solo especificá movimiento de cámara y acciones.

Kling te permite definir no solo cómo empieza el video sino también cómo termina (start/last frame). Es clave para ads: querés que el último frame sea tu producto, tu logo, tu composición final.


Audio

La música del ad fue lo primero que elegí. Antes de generar un solo frame ya sabía qué canción, cuál era el timing. Eso definió la duración de los planos, dónde iban los cortes, el ritmo. Si empezás por la música, los planos se generan con la duración correcta desde el principio.

El ad no tiene diálogo. Y no es casualidad. Cuando lo hice, los modelos de lipsync no daban resultados creíbles. Así que readecué la idea: una pieza puramente visual con música. La limitación se convirtió en una decisión creativa. La mitad de dirigir con IA es entender qué pueden hacer bien los modelos hoy y diseñar alrededor de lo que no.

Hoy la historia sería distinta. Modelos como Creatify Aurora y Fabric generan video con lipsync creíble a partir de una imagen estática y un audio (Convert). Y como tengo todo el proyecto guardado en el tablero, rehacer o expandir una idea vieja es cuestión de abrir el tablero y probar con los modelos nuevos.


El pipeline

Estética. Moodboard con referencias. Juntá imágenes, iterá sin presión.

Imagen madre. Iterá hasta encontrar la imagen y el prompt que definen todo.

Storyboard. Remix imagen a imagen partiendo de la madre. El loop: generar planos → convertir a video → extraer frames buenos → usar como nuevas referencias.

Animación. Convert a video. Movimiento de cámara + acciones. Start/end frames para controlar el punto de llegada.

Audio. Elegir la música antes de generar. "No music" en prompts para controlar la banda sonora en edición.

Reciclar. Dual guarda los inputs de cada generación. Cuando sale un modelo nuevo, volvé al tablero, re-corré planos viejos y compará. Las ideas no caducan, los modelos sí.

El cierre del ad: la botella de aceite de girasol en el pasto

Lo que importa

El ad funciona no porque los modelos sean buenos — que lo son — sino porque antes de generar un solo frame ya existía una idea, una narrativa, una música, y una imagen madre que definía todo. Los modelos ejecutaron. La dirección fue humana.

Hace unos días volví al tablero y re-corrí cada plano en Kling v3. No tuve que repensar nada. El tablero tiene todo: las imágenes madre, los prompts, los parámetros. Solo cambié el modelo y generé de nuevo. Las ideas que tuve hace meses ahora se ven mejor porque la tecnología avanzó, y reciclarlas fue trivial.

Las ideas no caducan. Los modelos mejoran todo el tiempo, y si tu proceso está bien armado, cada mejora en los modelos es una mejora automática en tu trabajo anterior.

Related Articles

Ready to get started?

Join teams using Dual to create amazing content.