Le Veline generate dalla IA, Striscia la Notizia svela il dietro le quinte

Autore: Giuseppe Benincasa ,

Le esibizioni delle Veline sono sempre state una delle parti più attese e amate della televisione italiana. Ma cosa succede quando si unisce il mondo delle Veline al potere dell'intelligenza artificiale? È proprio ciò che è accaduto il 25 settembre, nella puntata di Striscia la Notizia.

Anastasia e Cosmary sono diventate avatar in 3D grazie a Stable Diffusion, una piattaforma capace di generare immagini e video partendo dal materiale fornito. E a svelare i segreti dietro il making of di questa incredibile trasformazione ci ha pensato Francesco Angeli, creatore insieme a Paolo Alberti dello "stacchetto" in una intervista sul sito di Striscia la Notizia.

Angeli ha svelato che dietro questa straordinaria performance c'è stata un'intensa preparazione di due settimane. La chiave di tutto è stata la piattaforma Stable Diffusion, un'IA generativa che ha reso possibile questa trasformazione. Ma come è stato possibile? Francesco Angeli ci ha guidato attraverso il processo.

"È un lavoro che si fa piano piano e si aggiusta il tiro man mano che la macchina lavora," ha spiegato Angeli a proposito del procedimento per realizzare lo stacchetto. La tecnica ha permesso di creare immagini e video partendo dai contenuti forniti a Stable Diffusion.

Come prima cosa abbiamo fatto dei test su alcuni vecchi balletti per vedere cosa funzionava e cosa no, volevamo sapere quali elementi distraevano troppo l'intelligenza artificiale.

Il passo successivo è stato fondamentale: girare un video in studio della performance delle Veline, con caratteristiche pensate ad hoc per agevolare l'IA nel suo compito. "Per esempio, se gli avessi mostrato le persone troppo piccole avrebbe potuto non capire cosa si trovava di fronte o confondersi," ha aggiunto Angeli.

Ma come è stato possibile far sì che l'IA generasse lo stacchetto delle Veline? Il passaggio successivo è stato scrivere i comandi per la macchina, noti come "prompt," che descrivevano il prodotto finale desiderato. Basandosi su queste istruzioni, l'IA ha elaborato la richiesta e ha realizzato il video.

Certo, c'è stata anche una piccola parte di post-produzione, come ha sottolineato Angeli, per rendere tutto più fluido e gradevole:

Abbiamo lavorato sulla color correction, riducendo il contrasto del colore da un fotogramma all'altro e abbiamo usato i blur per ammorbidire l'immagine.

Ma non è stato tutto facile. Angeli ha rivelato che c'è stato un momento in cui la piattaforma non ha riconosciuto un capo d'abbigliamento come tale, pensando che fosse un promontorio di montagna su una persona. "Abbiamo dovuto trovare un modo per spiegare alla macchina cosa fosse in realtà."

In conclusione, Stable Diffusion ha reso possibile un'esperienza televisiva unica, trasformando le Veline in anime giapponesi in modo sorprendente. Grazie al duro lavoro e alla creatività di Francesco Angeli e Paolo Alberti, il futuro delle performance televisive potrebbe essere ancora più innovativo e coinvolgente.

Copyright immagine di copertina: irstone

Non perderti le nostre ultime notizie!

Iscriviti al nostro canale Telegram e rimani aggiornato!

Sto cercando articoli simili...