giovedì, Novembre 21, 2024

Sagans, il collettivo IA che unisce musica, ricerca e video: Coherence, il videoclip

Il collettivo Sagans esattamente un anno fa realizzava un esperimento sul formato videoclip, generando con IA musica, video e immaginario. Il tutto a partire dalla fantasia di Katsuhiro Otomo, modello scelto per imitarne lo stile, verso una trasformazione tra corpo e città oltre le identità di genere

Coherence risale esattamente ad un anno fa. Lanciato nel giugno del 2022 è al momento la sinergia più completa del collettivo Sagans, la cui fondazione sembra gravitare intorno agli ambiti di ricerca dell’IA e alla sua applicazione creativa. Coherence è quindi un risultato laboratoriale molto vicino ad altri esempi del genere e ancora fuori dalle dinamiche e dai flussi che consentono ai committenti di dialogare con un team di sviluppo. Musica, immagini, promozione, ricerca IA promanano dallo stesso collettivo e convergono verso un risultato che ha ancora le caratteristiche del progetto “in vitro”, dove diverse competenze si sovrappongono per puntare ad un risultato che sta in piedi da solo, fuori dal mercato musicale e da quello della videomusica strettamente intesa.

Basato sulla morfologia di una città in costante mutazione, mette al centro una figura umana che deve adattarsi al cambiamento e cercare il proprio spazio nell’agglomerato urbano. Ricerca del senso che viene declinata da una prospettiva umana ma anche da quella della stessa intelligenza artificiale.

Tecnicamente è uno dei primi video ad aver sfruttato modelli di diffusione latente come Stable Diffusion, reti neurali di apprendimento profondo.

Ma come è stata istruita l’IA dai Sagans? Gli è stato dato in pasto lo stile di Katsuhiro Otomo, consentendole di apprendere modalità di sviluppo del disegno, per poi applicare i metodi dell’ingegneria inversa, ovvero tutte le strategie, le funzioni, gli aspetti progettuali alla base di un risultato creativo.
Sono partiti da MetaHuman, creatore di figure umane realistiche, per determinare la fisiologia del personaggio attraverso il loro database di asset. I movimenti del volto sono stati generati con Live Link, un’app disponibile su Apple Store e che può creare espressioni facciali più o meno realistiche interagendo con gli avatar costruiti con MetaHuman. App di animazione e modellazione 3D come Disco Diffusion 5 e Megascans sono state impiegate per ricreare gli ambienti, gli sfondi e i paesaggi cyberpunk del video.

L’animazione basata sulle particelle, generata dai rendering di Niagara e la manipolazione delle luci con Lumen hanno consentito di creare un ambiente dove il personaggio potesse muoversi e cambiare con passaggi successivi ridotti al minimo dal punto di vista tecnico e senza l’impiego di una suite di cattura del movimento, ribaltando così un paradigma che sta alla base di molte produzioni tra CGI e motion capture.

Il risultato ha qualcosa di Otomo ovviamente, ma niente del suo tocco. Rimane in una dimensione di transito dove il sogno, non sappiamo quanto autogenerato dalla macchina, crea ancora approssimazioni formali, metastasi del tratto, bizzarre gemmazioni che preconizzano una realtà fatta di innesti radicali.
Ma è la danza della nostra protagonista che sembra aggregare tutti gli elementi del viaggio tra esterno e interno, come tentativo di cercare un equilibrio tra sviluppo incontrollato e ambiente sostenibile.
Ancora una volta emerge il sogno o l’incubo isolazionista della macchina che rilegge la supposta centralità della presenza umana.

Ma al di là di questo, il territorio del videoclip viene riletto attraverso una sinestesia impura tra mutazione sonora e morfologia della visione. I corpi, la città, le linee costitutive del tratto, le luci e le forme, si sfaldano e si ricompongono secondo un processo che interpreta la musica attraverso i suoi costitutivi armonici, timbrici, aurali, conducendoci verso una trasformazione oltre le identità di genere. Una strada interessante, ma che necessita e necessiterà di maggiore libertà e distacco dal dominio dello strumento stesso.

Coherence, il video creato dal collettivo Sagans con l’Intelligenza artificiale

Michele Faggi
Michele Faggi
Michele Faggi è il fondatore di Indie-eye. Videomaker e Giornalista regolarmente iscritto all'Ordine dei Giornalisti della Toscana, è anche un critico cinematografico. Esperto di Storia del Videoclip, si è occupato e si occupa di Podcast sin dagli albori del formato. Scrive anche di musica e colonne sonore. Si è occupato per 20 anni di formazione. Ha pubblicato volumi su cinema e nuovi media.

ARTICOLI SIMILI

Voto

IN SINTESI

Il collettivo Sagans esattamente un anno fa realizzava un esperimento sul formato videoclip, generando con IA musica, video e immaginario. Il tutto a partire dalla fantasia di Katsuhiro Otomo, modello scelto per imitarne lo stile, verso una trasformazione tra corpo e città oltre le identità di genere

GLOAM SESSION

spot_img

CINEMA UCRAINO

spot_img

INDIE-EYE SHOWREEL

spot_img

i più visti

VIDEOCLIP

INDIE-EYE SU YOUTUBE

spot_img

TOP NEWS

ECONTENT AWARD 2015

spot_img
Il collettivo Sagans esattamente un anno fa realizzava un esperimento sul formato videoclip, generando con IA musica, video e immaginario. Il tutto a partire dalla fantasia di Katsuhiro Otomo, modello scelto per imitarne lo stile, verso una trasformazione tra corpo e città oltre le identità di genereSagans, il collettivo IA che unisce musica, ricerca e video: Coherence, il videoclip