cinema d'animazione 3D: l'orizzonte tecnologico

Page 1

cinema d’animazione 3D

l’orizzonte tecnologico

erika rossi




dichiarazione di originalità

Ho consegnato questo documento per l’appello d’esame del 17/04/2009 del corso di Interaction Design Theory 2 (Telecomunicazioni) tenuto da Gillian Crampton Smith con Philip Tabor alla Facoltà di Design e Arti, Università Iuav di Venezia. Per tutte le sequenze di parole che ho copiato da altre fonti, ho: a) riprodotto in corsivo, inoltre b) messo virgolette di citazione al loro inizio e fine, inoltre c) indicato, per ogni sequenza, il numero della pagina o lo URL del sito web della fonte originale. Per tutte le immagini che ho copiato da altre fonti, ho indicato: a) l’autore e/o proprietario, inoltre b) il numero della pagina o lo URL del sito web della fonte originale. Dichiaro che tutte le altre sequenze e immagini di questo documento sono state scritte o create esclusivamente da me. Erika Rossi

17/04/2009


cinema d’animazione 3D

l’orizzonte tecnologico

Erika Rossi

corso di telecomunicazioni aa 2008 | 2009 Gillian Crampton Smith | Philip Tabor IUAV | clasVEM Facoltà di design e arti



indice

introduzione

1

capitolo #1 | come funzionano queste tecnologie: applicazioni _cel-shading _morph target animation _skeletal animation e rigging _crowd simulation _motion capture (MoCap)

2 4 6 8 14 18

capitolo #2 | MoCap, caso studio significativo: “Il Signore degli Anelli” _gli straordinari effetti speciali de “Il Signore degli Anelli” _ideazione ed animazione del personaggio di Gollum _i personaggi MoCap virtuali hanno un’anima?

24 26 34 40

capitolo #3 | applicazioni future _interazione uomo-personaggio virtuale _vivere virtualmente nella realtà _Fuffy è sempre a portata di mano

42 44 48 50

conclusioni

52

bibliografia

56



introduzione



introduzione

Il termine “animazione” indica un prodotto audiovisivo costituito dalla successione di disegni animati i quali, posti in rapida sequenza, generano una sensazione illusoria di movimento. Questa definizione risulta ormai obsoleta ai più se si considera il periodo storico che va dagli anni ‘90 ai giorni nostri, poichè l’introduzione nell’ambito dell’animazione dei rivoluzionari processi di modellazione 3D, ha reso possibile una straordinaria svolta dell’era cinematografico-televisiva con un conseguente stravolgimento dei canoni finora adottati nella realizzazione del cinema d’animazione. Durante gli ultimi anni il cinema d’animazione, in particolar modo il genere di animazione 3D, è stato soggetto ad un’evoluzione esponenziale in termini di tecnologie informatiche e saperi, i quali hanno consentito di ottenere una resa grafica tridimensionale di personaggi, ambienti e paesaggi di stupefacente realismo. Pioniere dell’era digitale in questo senso è stato il film d’animazione prodotto e realizzato dalla Pixar Animation Studio “Toy Story” (1993). Interamente realizzato in tecnica di modellazione 3D, questo lungometraggio animato ha spianato la strada ad una serie di esempi memorabili che, ormai, costituiscono modelli di riferimento del cinema d’animazione, come: “Alla Ricerca di Nemo”, “Gli Incredibili”, “Cars”, “Ratatouille” e il recentissimo “Wall-e”, ultime creazioni delle geniali menti dello studio Disney Pixar. Nel campo del film fantasy possiamo citare l’incredibile trilogia de “Il Signore degli Anelli”, “La Bussola d’Oro”, “Polar Express” e molti altri. Personalmente, credo che le sofisticate tecniche di modellazione 3D, attraverso l’uso di avanzatissimi software che verranno descritti di seguito, abbiano rivoluzionato la tradizionale visione di questo genere cinematografico e l’idea stessa di animazione, oltrepassando i limiti dell’immaginazione mediante una completa fusione tra mondo reale e mondo virtuale. Un’armoniosa commistione di magia e realtà.

1



#1 come funzionano queste tecnologie: applicazioni _cel-shading _morph target animation _skeletal animation e rigging _crowd simulation _motion capture (MoCap)


In questo capitolo verranno introdotte le ultime tecnologie utilizzate per la realizzazione di lungometraggi di animazione 3D affiancate alle relative specifiche tecniche riguardanti i software impiegati per generare quegli effetti tridimensionali che noi tutti, ormai, siamo abituati a vedere al cinema. Le principali tecnologie che verranno presentate di seguito sono: cel-shading, morph target animation, crowd simulation, skeletal animation e rigging, e, infine, la motion capture alla quale sarà riservata una particolare attenzione nel capitolo successivo. Cel-shading Tra le principali e più recenti tecniche di animazione, troviamo innanzitutto il cel-shading o cel-shaded, una curiosa tipolgia di rendering 3D che consiste nella simulazione di un particolare effetto grafico in grado di far apparire un’immagine, precedentemente realizzata attraverso tecniche di computer grafica e modellazione 3D, come se fosse stata disegnata manualmente. Interessante è l’etimologia della parola “cel-shading”, che deriva dal termine “cel” con cui si indica il foglio di acetato trasparente utilizzato nella tradizione del cinema d’animazione sul quale venivano riprodotti i disegni successivamente animati, e dal termine “shade”, ovvero ombreggiare. La resa grafica che questo strumento offre risulta molto simile allo stile fumettistico delle anime giapponesi e, inizialmente, ha trovato ampio utilizzo nella realizzazione di videogames tra i quali citiamo, “Dragon Ball Z”, “Okami”, e “The Legend of Zelda”. Ora, questa tecnologia trova largo impiego anche nel cinema e nelle serie di cartoni animati televisivi, tra cui i famosissimi “The Simpsons”, in cui è possibile rintracciare i tratti salienti di questa tecnica ovvero, campiture di tinte piatte, ombre nette e contorni neri a delineare le silohuette dei vari personaggi. A mio avviso questa tecnica di animazione risulta molto interessante per la creazione di contrasti di colore molto forti e vivaci che conferiscono alle immagini una dinamicità visiva di estremo impatto.

1 | scena tratta dal film “The Simpsons Movie” (2007) in cui le animazioni sono ricreate in cel-shading


#1 come funzionano queste tecnologie: applicazioni

Per realizzare un oggetto o un personaggio in cel-shading il procedimento inizia con la modellazione 3D dello stesso come avviene per qualsiasi tipo di creazione tridimensionale; successivamente, si compie la fase di rendering in cui, dopo avere adattato in modo ottimale le luci e le prospettive, viene selezionata una ridotta palette di colori principali, in accordo con la resa finale che il modello dovrà avere, in modo tale da rendere l’immagine piatta riducendo ai minimi termini gli effetti di tridimensionalità dati dalle variazioni cromatiche. In una fase successiva vengono ricavati i bordi essenziali delineanti la superficie dell’oggetto attraverso un’inversione cromatica, ottenendo una silohuette nera tridimensionale su cui viene applicata la texture minimale di pochi colori precedentemente selezionati. Infine, avviene la sovrapposizione dell’ombreggiatura che conferirà all’immagine l’aspetto grafico finale.

2 | esemplificazione delle tre fasi principali di cel-shading: griglia nera 3D, texture elementare ed ombreggiatura

Nel caso di scenari leggermente più complessi rispetto ad un singolo oggetto, avvengono dei passaggi intermedi ovvero: viene ricavata una texture di campiture piatte, si realizza un’ulteriore texture 3D che riporti le ombre e i volumi principali, da questa si traggono i bordi neri costituenti le silohuette ed infine quest’ultimo viene sovrapposto alla prima fase di colorazione.

1

3 | le tre fasi sopracitate: 1_texture di colori piatti; 2_ texture 3D; 3_bordi neri; 4_ immagine risultata dalla combinazione di fase 1 e 3

2

3

4 4 5



#1 come funzionano queste tecnologie: applicazioni

Morph target animation L’animazione di personaggi ed oggetti attraverso l’uso di questa tecnica, avviene tramire lo spostamento, frame per frame, dei singoli vertici costituenti il modello 3D del soggetto. Il procedimento per la realizzazione di movimento attraverso la morph target è semplice: viene creato uno scheletro molto dettagliato del personaggio costituito da specifici punti (vertici) posti nelle aree strategiche dedite al movimento, ovvero le giunture principali dei vari arti; successivamente, l’animatore sarà in grado, attraverso i suddetti vertici, di realizzare i movimenti del proprio soggetto posizionandoli e spostandoli, per ogni keyframe dell’animazione, nei modi più opportuni al fine di realizzare il moto desiderato. La presenza di vertici di struttura conferisce al movimento un alto livello di precisione poichè l’animatore non solo ha la capacità di controllare in modo accurato anche microspostamenti, ma può direzionare i singoli vertici anche lungo percorsi prestabiliti in modo tale da ottenere esattamente la traiettoria di movimento voluta. Questa opportunità agevola l’animazione di soggetti molto complicati come, per esempio, abiti, pelle dei personaggi ed espressioni facciali; queste ultime, in particolar modo, richiedono un’elevata precisione nella resa dei dettagli per conferire all’animazione una certa credibilità, la quale difficilmente può essere ottenuta attraverso l’utilizzo di altre tecniche. Tra gli svantaggi nell’uso del morph target troviamo il lungo tempo di lavorazione, derivato della caratteristiche della tecnica stessa poichè il numero di vertici che si viene a creare per ottenere un’animazione realistica è incredibilmente elevato; infine, sovente, la comparsa di distorsioni fastidiose ed innaturali del corpo del soggetto dovute al mancato controllo di certi vertici.

4 | nella pagina a fianco: rendering 3D del protagonista del videogame “Price of Persia” per PS2 (2005) 5 | sopra: fase di morph target del braccio del protagonista del videogame “Price of Persia”

6 7


Skeletal animation e rigging Di seguito verranno discusse due tecniche che, nella maggior parte dei casi, si presentano come un’unica entità nel processo di animazione, cooperando parallelamente: la skeletal animation ed il rigging. La skeletal animation è una tipologia di animazione 3D di personaggi che si basa sulla realizzazione dei movimenti degli stessi attraverso la manipolazione del loro scheletro di strutturazione. Questa tecnica vede la sua più riuscita applicazione nel settore del videogames e del cinema d’animazione ed è tuttora in espansione in altri ambiti come la pubblicità e il settore medicale (simulazione di movimenti, reazioni muscolari, ecc.).

6 | un esempio di rigging facciale. Le espressioni del viso e la conformazione della pelle sono estremamente realistiche

La skeletal animation riguarda principalmente la messa in movimento di personaggi vertebrati, i quali sono costituiti da due parti essenziali: una superficie su cui vengono impressi gli aspetti anatomici caratterizzanti il personaggio, detta “pelle” (o “skin”) e una serie di ossa disposte secondo un ordine gerarchico ai fini dell’animazione, detta “scheletro” (o “skeleton”).

7 | creazione dello scheletro di un personaggio costituito da poligoni e linee mesh


#1 come funzionano queste tecnologie: applicazioni

Ognuna di queste ossa consente la generazione di movimenti in tre dimensioni in base alla loro posizione, dimensione ed orientamento ed è associata ad un certo grado di rilevanza nell’animazione del personaggio al fine di formare la gerarchia precedentemente citata. A seconda, quindi, di come le ossa dello scheletro saranno posizionate, verrà generato il conseguente movimento nell’arto o nella parte del corpo corrispondente. Il personaggio 3D è, nella maggior parte dei casi, realizzato attraverso la costruzione di linee mesh poligonali che rendono il modello più geometrico per agevolare la sua animazione e, di conseguenza, anche le ossa caratterizzanti lo scheletro si adattano a questa strutturazione e vengono associate ad un gruppo di vertici: per esempio se si dovesse muovere l’osso femorale, questo sarebbe associato al gruppo di vertici costituenti il poligono che forma il femore del modello. Viene così a crearsi una mescolanza tra la skeletal animation ed una delle tecniche precedentemente discusse, la morph target animation, infatti le ossa trovano una corrispondenza nei vertici che le generano. Questa coesistenza in certi casi può essere molto utile poiché offre i benefici di entrambe le tecniche presentando una certa versatilità. In conclusione lo scheletro del modello può essere animato o tramite il movimento e lo spostamento di singole ossa, oppure attraverso i molteplici vertici che le formano a seconda delle necessità di precisione dell’animatore.

8 | esempio di scheletro con skin annessa per la creazione di movimento facciale

8 9


In un momento pressochè contemporaneo al procedimento di skeletal animation abbiamo il rigging, una delicatissima fase del processo di animazione che definisce la buona riuscita o meno della resa realistica dei movimenti del personaggio. Questo step consiste nell’unione tra lo scheletro tridimensionale dotato delle principali giunture che rendono possibili i movimenti più comuni e la struttura di curve costituenti la pelle del personaggio da animare. Fino a qualche anno fa la procedura di rigging richiedeva un approccio di tipo manuale in cui l’animatore doveva indicare per ogni punto esatto della superficie statica costituente il personaggio, il corrispondente attacco ad uno specifico osso dello scheletro; tale metodo era dispendioso in termini di tempo, pazienza e dedizione del modellatore, il quale era costretto a spendere ore per animare singole parti. Oggi, invece, esistono degli avanzatissimi software che includono di default alcuni movimenti standard tra i più comuni come la camminata, il salto, la corsa, ecc. Questo metodo, reso possibile da un sofisticato algoritmo all’interno dei vari software, è caratterizzato da due fasi principali, ovvero: il posizionamento corretto dello scheletro e l’attaccamento della superficie esterna ad esso (skinning).

9 | fase di unione tra superficie e scheletro (skinning)

Nella prima fase lo scheletro viene fissato all’interno della struttura costituente il personaggio attraverso una computazione di dati che regola questo inserimento in maniera ottimale al fine di avere una resa realistica ed adeguata dei successivi movimenti; l’attaccamento allo scheletro della pelle esterna avviene attraverso un calcolo computerizzato che associa i punti nodali della superficie da fissare, ai corrispondenti giunti delle ossa interne.


#1 come funzionano queste tecnologie: applicazioni

Questo procedimento automatico ha permesso d velocizzare decisamente i tempi di rigging e di avere un’ottima resa in termini di animazione, inoltre il successo di questo processo è tradotto in tre criteri che vengono qui presentati: -generalità: uno stesso scheletro può essere adottato per molteplici personaggi dotati delle medesime caratteristiche fisiche, per esempio uno scheletro bipede può essere utilizzato per un’operazione di rigging di un umano, di un robot con caratteristiche analoghe, di una qualsiasi figura antropomorfa, ecc. -qualità: queste operazioni di rigging consentono di avere un’ottima resa dell’animazione del personaggio paragonabile ai più attuali videogame. -performance: automatizzando il processo e quindi non necessitando più di procedimenti manuali che richiedevano ore ed ore di tempo, si può realizzare il rigging di un personaggio in un minuto su tutte le più comuni macchine e piattaforme oggi in commercio.

10 | esempio di come uno stesso scheletro possa essere adattabile a più personaggi

Attraverso i programmi di rigging viene, innanzitutto, delineata una struttura interna approssimativa (approximate medial surface) costituita dai punti principali che identificano lo scheletro da animare, successivamente viene effettuato un calcolo della distanza tra questi punti e la distanza che essi hanno dalla superficie del corpo del personaggio mediante la creazione di sfere più o meno grandi a seconda della dimensione delle suddette distanze (sphere packing); infine, i centri delle sfere che rappresentano le zone essenziali del corpo da animare vengono uniti attraverso linee e vertici che creano un grafico finale (constructed graph), punto di partenza dal quale il modellatore inizierà l’operazione di animazione.

11 | le tre fasi sopracitate: approximate medil surface, sphere packing, constructed graph

10 11


Lo scheletro interno cosi ottenuto viene successivamente modificato e rifinito al fine di ottimizzarne la struttura e in seguito a queste fasi di aggiustamento avviene l’attaccamento delle pelle esterna e la realizzazione dei movimenti.

12 | ottimizzazione dello scheletro interno

L’operazione di rigging risulta di complessità proporzionale alla ricchezza di particolari che caratterizzano il personaggio, ma grazie al binomio abilità del modellatore/tecnologia è possibile ottenere risultati di straordinaria efficacia espressivo-realistica.

1

13 | tre immagini rappresentative per la realizzazione di un modello di cane. 1_ossa costitutive dello scheletro; 2_assemblaggio di scheletro e muscoli (notare la struttura viola dello scheletro poligonale); 3_operazione di rigging con la formazione della superficie 14 | a fianco: risultato finale dell’animazione

2

3


#1 come funzionano queste tecnologie: applicazioni

12 13


Crowd simulation La crowd simulation è una tecnica di modellazione 3D che mira alla simulazione dei movimenti di un elevato numero di oggetti e/o persone per la creazione, per lo più, di scene cinematografiche atte a mostrare calca di gente, folla nelle città, battaglie e tutto ciò in cui vengono coinvolti gruppi poiché, altrimenti, l’animazione di singole entità risulterebbe lentissima e poco pratica. Le tipologie di simulazioni che questa tecnica può riprodurre sono tre: movimento di particelle, sociologia e crowd AI. Nel primo caso i personaggi sono rappresentati da punti-particelle che vengono successivamente animate attraverso la simulazione del loro movimento dovuto a vento, gravità, attrazione e collisione. Queste singole entità interagiscono tra loro e non necessitano di essere programmate o controllate dall’esterno ma rispondono automaticamente a determinate situazioni; le principali applicazioni per cui questa tecnica è utilizzata sono la visualizzazione ai fini di prevedere certi fenomeni naturali e apprenderne le reazioni. L’implementazione di questo metodo non è difficoltosa e può essere utilizzato all’interno della maggior parte di software 3D ma presenta un grado di realismo molto basso poiché risulta difficile controllare e gestire individuali entità sempre nel modo opportuno e perché il movimento viene generalmente limitato ad una superficie piana.

15 | le entità rappresentate nella parte superiore dell’immagine sono i punti-particella


#1 come funzionano queste tecnologie: applicazioni

Un’altra interessante applicazione in cui la crowd simulation viene utilizzata è per simulazioni di dinamiche psicologiche di gruppo in ambito medico-sociologico. In questo caso vengono realizzate entità rispondenti a caratteristiche umane a cui viene assegnato un determinato stato ai fine di comprendere il comportamento della massa, l’elemento fondamentale di analisi. Non essendo mirata a scopi di animazione e di resa realistica, l’impatto visivo di questa tipologia di simulazione è mediocre e non ne viene fatta particolare considerazione. Credo che l’applicazione ad ambiti medicali o comunque di studio riguardanti la persona di queste tecnologie, sia l’esempio di come l’innovazione possa essere in grado di incentivare ed agevolare settori di ricerca per il bene della società. Trovo che il binomio ricerca/tecnologia sia in crescente sviluppo grazie anche a queste sperimentazioni ed entrambe le discipline possono godere di una costruttiva coesistenza che coniuga i benefici dell’una e dell’altra al fine di produrre sapere e benessere.

16 | esempio di crowd simulation applicata alla sociologia per capire le reazioni della folla durante le proteste e le manifestazioni

17 | esempio di crowd simulation del flusso di pedoni in circolazione lungo una strada (qui il dettaglio è più curato)

14 15



#1 come funzionano queste tecnologie: applicazioni

Nell’ultimo metodo di crowd simulation, la crowd AI, i singoli elementi denominati agenti, sono dotati di intelligenza artificiale la quale li guida attraverso una o più funzioni, quali vista, udito, emozioni basilari, livelli di aggressività ecc. Alle entità viene quindi imposta una serie di interazioni che le mette in comunicazione tra loro come fossero membri di una reale folla di persone. Gli elementi sono anche spesso programmati per rispondere ai cambiamenti e agli ostacoli che l’ambiente circostante e le strutture li obbligano ad affrontare come: salire le scale, saltare dei buchi, evitare edifici, scalare colline e dossi, ecc. Questo sistema offre una resa molto più realistica rispetto al particle motion ma è molto costoso da programmare ed implementare. I più significativi esempi di simulazioni AI possono essere visti ne “Il Signore degli Anelli” durante le numerose battaglie che coinvolgono migliaia di elementi.

18 | a fianco: esempio di animazione in crowd simulation 19 | sopra: scena di battaglia tratta dal film “Il Signore degli Anelli. Il Ritorno del Re” (2003)

16 17


Motion capture (MoCap) L’ultima tecnologia che viene presentata in questa sezione, e che verrà approfondita nel prossimo capitolo con riferimenti ed applicazioni tra i più significativi, è la motion capture, detta anche MoCap. La MoCap è una tecnica digitale di animazione 3D estremamente avanzata e sofisticata in grado di riprodurre, pressochè istantaneamente, i movimenti, i gesti e le azioni di un attore reale e applicarli, nel corrispondente personaggio virtuale su schermo, tramite appositi sensori di cui viene rilevata la posizione e lo spostamento nello spazio posti nei punti nodali principali del corpo della persona reale, come le giunture e la zona di unione dei muscoli. Questa tecnologia viene, oggi, applicata in svariati ambiti da quello medico a quello videoludico, ma è nel cinema di animazione che trova la sua massima espressione consentendo la realizzazione di capolavori cinematografici, tra cui “Matrix”, la trilogia de “Il Signore degli Anelli” e “Polar Express”.

20 | scena tratta dal film “Matrix Revolution” (2003)

I tradizionali sistemi di MoCap utilizzano punti riflettenti o piccoli LEDs collocati in zone strategiche di busto, arti e testa di una persona: i movimenti e gli spostamenti di questi punti vengono ripresi da una serie di telecamere, e trasmessi su schermo in modo tale da consentire agli animatori di creare uno scheletro virtuale del soggetto identificato che sarà applicato, in una fase successiva, al personaggio 3D elaborato a computer. Generalmente vengono utilizzati tre diversi tipi di MoCap in base alle esigenze dell’animazione: magnetica, ottica ed elettro-meccanica.


#1 come funzionano queste tecnologie: applicazioni

La MoCap magnetica sfrutta la misurazione di un campo magnetico a bassa frequenza generato da una fonte trasmittente in grado di rilevare il movimento dei sensori applicati al corpo riportandolo sullo schermo. Successivamente un’unità di controllo elettronica, a cui sono collegati i sensori e la fonte che trasmette il segnale, mette in relazione i dati di posizione ricevuti all’interno del campo magnetico e li invia ad un computer che, attraverso un software specifico, rappresenta in uno spazio tridimensionale le posizioni e i movimenti sopracitati generando la silohuette dell’attore reale. I sistemi magnetici ricreano i movimenti delle giunture del corpo utilizzando da 6 a 11 (o più) sensori per persona, i quali trasmettono informazioni riguardo alla posizione e alle rotazioni. Un programma specifico interviene nella regolazione degli angoli formati dai movimenti di giuntura al fine di conferire più naturalezza e linearità al movimento ottimizzando le posizione dei sensori rispetto alla loro collocazione leggermente decentrata rispetto al naturale centro delle giunture. Questo programma, però, presenta alcune limitazioni in quanto deve regolare automaticamente le distorsioni e non sempre il risultato è credibile, inoltre esistono altri aspetti negativi tra cui la necessità di eliminare i rumori di fondo dalla registrazione dal vivo e la presenza di un ambiente confusionario nel caso in cui si tenti di registrare contemporanemamente il movimento di due o più persone. Quest’ultimo problema, in particolare, deriva dal fatto che ogni sensore necessita di un proprio cavo protetto e la prossimità di più persone può causare interferenze tra i diversi sensori compromettendo la riproduzione. La MoCap magnetica è, dunque, consigliata per la realizzazione di bozze iniziali che verranno successivamente ottimizzate da altri sistemi di animazione.

21 | screenshot della creazione del modello 3D di MoCap

18 19


Il secondo tipo di MoCap che qui verrà presentata è la MoCap ottica, la quale vede l’impiego di due tecnologie: reflective e pulsed-LED. Come i nomi suggeriscono, queste due tecnologie differiscono per la tipologia di sensori utilizzati per la cattura del movimento, ovvero punti riflettenti o luminosi, i quali, però, possiedono il medesimo comportamento: i movimenti vengono captati tramite telecamere ad infrarossi che catturano la luce riflessa dai punti reflective o emessa dai LEDs e che la trasmettono al computer, il quale rielabora i movimenti tracciando la traiettoria dei punti. Per la cattura delle espressioni facciali si ricorre a sistemi di una o due telecamere, mentre il corpo intero necessita, in genere, da tre a sedici apparecchi. A seconda del tipo di tecnologia utilizzata e delle esigenze è possibile avere o l’immagine di uno scheletro a cui si applica, successivamente, la trama di punti ottenuta, oppure si può ottenere uno scheletro biomeccanico in fase di registrazione che offre l’opportunità di sovrapporre immediatamente i movimenti dell’attore a quelli del personaggio. Nell’uso della tecnica di MoCap ottica possono presentarsi alcuni problemi quali, lo scambio tra punti, dati mancanti o rumorosi e riflessi falsati, ma sono tutti risolvibili con relativa facilità.

22 | le fasi in sequenza di una sessione MoCap: tuta con punti luminosi, ritracciamento dei punti, applicazione allo scheletro, trasposizione dei movimenti al personaggio 3D (in questo caso un robot)


#1 come funzionano queste tecnologie: applicazioni

Il terzo ed ultimo sistema di MoCap è quella elettro-meccanica la quale sfrutta la tuta Gypsy che viene indossata dagli attori per la rilevazione dei movimenti. Si tratta della tecnica più semplice e versatile, in quanto non necessita di condizioni particolari di spazio (come la magnetica, che presenta problemi se c’è molto metallo nell’ambiente, o l’ottica per il controllo delle luci) e può essere facilmente trasportata ed installata in qualsiasi luogo. L’animazione avviene in tempo reale consentendo rapidi tempi di lavorazione e poca manipolazione in post-produzione, inoltre il sistema non riporta errori o spostamenti falsati poichè la cattura dei movimenti non avviene attraverso l’individuazione di punti di giuntura ma tramite l’esatta riproduzione dello scheletro dell’attore.

23 | immagine della tuta Gypsy utilizzata per la MoCap elettro-meccanica 24 | nella pagina seguente: tuta a punti luminosi

Affianco queste rivoluzionare tecnologie di MoCap troviamo anche i cybergloves, dei guanti leggeri dotati di sensori flessibili estremamente sottili che oppongono pochissima resistenza al piegamento e che consentono di riportare con precisione i movimenti di polso, palmo e dita della mano. Secondo la mia opinione, le varie tecnologie sopra descritte presentano un lato rivoluzionario in quanto, grazie a sofisticati strumenti e ad équipe sempre più preparate, permettono di raggiungere, all’interno del cinema d’animazione, ma anche in altri settori dell’intrattenimento e non, risultati straordinari che fanno vacillare l’ormai sottile confine tra realtà e fantasia. 20 21



#1 come funzionano queste tecnologie: applicazioni

Recenti studi incrociati effettuati da Swiss Federal Institute of Technology, MIT e Mitsubishi Electric Research Laboratories hanno consentito lo sviluppo di un nuovo sistema di MoCap che presenta notevoli miglioramenti rispetto a quelli utilizzati finora come, per esempio, la possibilità di essere trasportato e quindi di consentire la rilevazione di movimenti ed azioni di routine quotidiana come la guida, la pratica di sport, ecc., che difficilmente sarebbero replicabili all’interno di un laboratorio. Il progetto prevede la rilevazione del movimento attraverso un sistema costituito da piccolissime sorgenti di ultrasuoni a basso potere captate da microfoni dislocati lungo il corpo dell’attore e tradotti in misurazioni corrispondenti alla distanza dei sensori dal corpo. Per ovviare ai problemi relativi alla precisione del rilevamento di queste misure, ogni sensore è dotato di un giroscopio e di un accelerometro che captano rispettivamente la rotazione e l’accelerazione del movimento in modo tale da fornire un dato il più vicino alla realtà possibile. ultrasonic source (2,5x1 cm)

backpack

microphone gyroscope

25 | schema componenti

pulse

micro controller

USB

microcontroller

sensor (2,5x2,5 cm)

pulse A/D converters generator

drive box (22x22x6 cm)

hardisk

battery

accelerometer

Il comportamento del sistema rispetta le seguenti modalità: il segnale acustico captato dal microfono è amplificato e filtrato dalle sporcature per incrementare la qualità degli impulsi ultrasonici; allo stesso tempo i dati provenienti dai giroscopi e dagli accelerometri vengono codificati da un microprocessore presente nel medesimo sensore ed entrambi i dati, acustico e digitale, vengono formulati e trasmessi in tempi brevissimi al driver, il quale semplificherà l’informazione e la depositerà all’interno dell’hardisk.

combining

pre-amp

band-pass

microphone

scrambling

error coding

sampling

inertial sensors

26 | diagramma

22 23



#2 MoCap, caso studio significativo: “Il Signore degli Anelli” _gli straordinari effetti speciali de “Il Signore degli Anelli” _ideazione ed animazione del personaggio di Gollum _i personaggi MoCap virtuali hanno un’anima?



#2 MoCap, caso studio significativo: “Il Signore degli Anelli”

In questo secondo capitolo verranno descritti i tratti salienti riguardanti l’applicazione delle tecnologie precedentemente descritte che hanno reso la trilogia de “Il Signore degli Anelli” un capolavoro d’esempio per il cinema di animazione 3D e per l’impiego di effetti speciali, sistemi di rendering e software per la realizzazione di realtà virtuale mai sperimentati prima. L’incredibile sfida, vinta dal regista del colossal Peter Jackson, risiedeva nella capacità di dar vita alle migliaia di figure fantastiche, personaggi fiabeschi e paesaggi onirici descritti dalla penna di J.R.R. Tolkien al fine di tramutarli in scenografie tanto suggestive quanto realistiche in grado di ricreare l’atmosfera sognante in cui gli attori, i vari operatori, il regista, ma soprattutto, lo spettatore dovevano immergersi. Questa saga, come altri magnifici esempi realizzati in questo senso tra cui la trilogia di “Matrix”, “Polar Express” e i vari capolavori dello studio Disney Pixar, dimostrano a mio avviso, in che modo l’utilizzo di tecnologie sempre più avanzate non presenti un limite all’espressività artistica degli attori reali, ma, al contrario, fornisca un’opportunità in più per esprimere il proprio talento e le proprie capacità recitative in una sorta di “estensione virtuale” dell’Io dei protagonisti. Gli straordinari effetti speciali de “Il Signore degli Anelli” Per la realizzazione di questo incredibile film, Peter Jackson si avvalse della collaborazione del Weta Workshop Group, un importante studio dedito all’ideazione ed alla produzione di effetti speciali 3D che faceva capo a John Labrie il quale, al momento della proposta di Jackson per la realizzazione della trilogia, non avrebbe mai creduto di riuscire a compiere la simile impresa di dar vita al reame incantato zeppo di personaggi immaginato da Tolkien nel suo libro. La fase iniziale del lavoro (ricordiamo che la lavorazione del film iniziò nel 1996, epoca in cui le tecnologie sopracitate non avevano ancora raggiunto le potenzialità massime che conosciamo oggi) fu, fin dal principio, caratterizzata da interessanti innovazioni in ambito tecnologico.

27 | a fianco: spettacolare panoramica del regno di Saruman, l’antagonista della trilogia 28 | sopra: il personaggio di Elrond in una delle innumerevoli battaglie del primo film (2001)

26 27


Infatti, per la realizzazione nelle innumerevoli battaglie e delle scene in cui compariva una miriade inverosimile di personaggi, l’èquipe della Weta ideò gli animatics, ovvero animazioni 3D a bassa risoluzione che riportavano ogni singola inquadratura del film per agevolare il processo di visualizzazione delle varie scene, altrimenti impossibile da ricreare graficamente mediante il solo utilizzo di storyboard tradizionali. Questa tecnologia consentì quindi alla troupe di avere la possibilità di vedere in anteprima le sequenze semplificate da realizzare successivamente in digitale, al fine di ottenere già in fase di abbozzo della messa in scena una panoramica complessiva degli effetti da realizzare. Gli animatics venivano popolati con tanti soldati e personaggi quanti la scena della battaglia ne richiedeva ed il procedimento era diviso in quattro fasi principali: -innanzitutto, venivano creati i modellini tridimensionali delle figure necessarie scansionando persone reali tramite il FastScan (apparecchio che permette una scansione 3D di uomini ed oggetti al fine di digitalizzarli) e modificandone poi i tratti caratteristici salienti in modo tale da ottenere prototipi fisionomici differenti in peso e altezza;

29 | due immagini a confronto che rivelano la coesistenza tra reale e digitale per la creazione delle scene di battaglia


#2 MoCap, caso studio significativo: “Il Signore degli Anelli”

- secondariamente, è stata creata un’enorme banca dati di movimenti che ogni soldato avrebbe dovuto compiere mediante la motion capture di diversi stuntman, i quali hanno riprodotto le varie azioni per ogni differente tipologia di situazione, ad esempio attacco, caduta, parata del colpo, camminata, ecc.; - durante la terza fase, sono state ideate regole percettive che hanno conferito ai personaggi vista, udito e tatto virtuale, in modo tale da fargli distinguere le varie forme ed ostacoli presenti nell’ambiente; -infine, le comparse digitali venivano munite di un “cervello virtuale” contenente determinate azioni connesse tra loro attraverso migliaia di nodi logici per consentire ad ogni singolo individuo di reagire differentemente dagli altri a seconda del contesto circostante. In questo modo, si diede vita ad uno strabiliante esperimento di intelligenza artificiale (come precedentemente detto nella parte dedicata alla crowd simulation) battezzato Massive, ovvero Multiple Agent Simulation System In a Virtual Environment che permise di costruire veri e propri guerriglieri dotati di intelligenza propria e libero arbitrio in grado di reagire razionalmente a determinate situazioni. I soldati, divisi in buoni e cattivi, vennero programmati per eliminarsi vicendevolmente nel modo che essi ritenevano più opportuno; qui, secondo il mio parere, risiede la rivoluzione attuata dalla Weta in quanto si inizia a parlare di pensare in modo razionale in riferimento a creature completamente virtuali!

30 | a sinistra: due immagini in cui i personaggi 3D vengono programmati per reagire in modi specifici ad eventi prestabiliti a destra: scena del risultato finale delle 4 fasi sopracitate che vede la commistione tra reale e virtuale

28 29



#2 MoCap, caso studio significativo: “Il Signore degli Anelli”

Penso che sia incredibile come in questa saga il mondo reale e quello digitale si fondano a creare un’unico vissuto onirico che noi spettatori fatichiamo a classificare come spazio immaginario. I personaggi fantastici convivono in maniera talmente spontanea e naturale con quelli reali che risulta difficoltoso attuare una netta scissione tra le due realtà. In questa impossibilità risiede la magia di questo capolavoro il quale, grazie all’uso abile di sofisticate tecnologie è stato in grado di cancellare i confini tra tangibile e non. Altre scene che meritano una particolare menzione per il grado di difficoltà e realismo in esse implicito sono: il duello tra Gandalf e i Balrog di Morgoth e l’agguato del troll delle cave di Moria alla Compagnia dell’Anello. Anche per la creazione delle creature protagoniste di questi due episodi, il gruppo Weta ha operato, innanzitutto, una scansione tramite FastScan il quale, essendo dotato di un lettore ottico, due telecamere e un sistema di tracciamento magnetico, ha consentito di ottenere una trasposizione molto precisa delle sculture in creta dei personaggi al fine di digitalizzarli. Successivamente si è provveduto alla sovrapposizione di queste scansioni con lo scheletro 3D, i muscoli e la pelle di superficie costituiti da una serie di poligoni sempre più infinitesimali realizzati in precedenza attraverso i processi di skeletal animation e rigging. Le fiamme che avvolgono Balrog (nell’immagine a fianco) sono state realizzate riprendendo esplosioni reali che sono state, poi, sovrapposte alle particelle 3D costituenti l’animazione ottenute con il particle motion (tecnica citata nel capitolo 1) ricavandone un effetto sorprendentemente realistico. Per la scena del combattimento tra Frodo e il troll di Moria, invece, si è ricorsi ad una rivoluzionaria tecnologia che permette al regista di visualizzare la sequenza prima di girarla attraverso il motion capture.

31 | a fianco: Balrog, una creatura completamente digitale 32 | sopra: il troll di Moria la cui scena è stata ottenuta con sistema MoCap

30 31


Per la realizzazione di questa scena, tutti i movimenti degli attori reali e del troll sono stati ricostruiti e catturati con motion capture tramite le apposite tute munite di punti luminosi. Le suddette riprese sono state montate a bassa risoluzione all’interno di una scenografia virtuale appositamente creata che simulava perfettamente il set reale e, nel frattempo, gli animatori perfezionavano la grafica della creatura digitale precedentemente scolpita al fine di inserirla nella scena assieme agli altri personaggi. Il regista ha, poi, visionato questa bozza mediante occhiali stereoscopici per capire e decidere le inquadrature più idonee da adottare ed è stato proprio in quel momento che si è fatta avanti nella mente degli animatori l’idea rivluzionaria di riprendere anche i movimenti della telecamera attraverso la MoCap. Petere Jackson si è quindi prestato a girare la scena all’interno di una stanza di MoCap tramite un visore 3D dotato di LEDs per la cattura dei movimenti, i quali una volta tradotti in digitale hanno riportato le sue esatte inquadrature.

1

2

3

4

33 | le 4 fasi di rendering subite dal troll di Moria che gli hanno conferito l’aspetto definitivo


#2 MoCap, caso studio significativo: “Il Signore degli Anelli”

Il regista ha potuto, quindi, maneggiare l’innovativa telecamera all’interno del set virtuale decidendo se e come inquadrare il troll o i protagonisti operando come un cameraman presente sul campo di battaglia. Il movimento finale della telecamera è stato poi trasportato sul computer e digitalizzato diventando, così, la sequenza definitiva. Trovo che questa trilogia sia spettacolare dal punto di vista tecnologico poichè integra la maggior parte delle tecnologie 3D descritte nel capitolo 1 estrapolando da ognuna di esse gli aspetti positivi. “Il Signore degli Anelli” dimostra come tecniche di animazione apparentemente molto diverse possano coesistere in modo ottimale per dar vita a scene caratterizzate da effetti speciali sorprendenti. L’utilizzo di determinati sistemi di animazione non preclude l’impiego di altre, anzi, ne giustifica la presenza al fine di aggregare saperi e lati positivi eliminando e compensando le mancanze e le lacune di ogni tecnologia.

34 | scena di battaglia tratta dal film “Il Signore degli Anelli. Il Ritorno del Re” (2003)

32 33



#2 MoCap, caso studio significativo: “Il Signore degli Anelli”

Ideazione ed animazione del personaggio di Gollum Gollum è il primo personaggio interamente digitale realizzato con la tecnica della motion capture. La MoCap si è rivelata la tecnologia più adeguata per la realizzazione di questa creatura in quanto quest’ultima presentava, sin dal libro, una parvenza fortemente antropomorfa in termini sia fisici che psicologici, necessitando quindi di caratteristiche prettamente umane che si avvicinassero il più possibile alla realtà. Il regista Peter Jackson volle, fin dal proncipio, che Gollum apparisse innanzitutto come un personaggio esistente, tangibile e non semplicemente una figura vuota e virtuale e proprio per questo motivo l’attore Andy Serkis, il quale inizialmente si ero reso disponibile soltanto per il doppiaggio di Gollum, accettò di prestargli anche le movenze e gli atteggiamenti. L’aspetto che coinvolse maggiormente Serkis e che lo convinse ad accettare di rendere “vivo” Gollum fu il carattere controverso e psicolabile di questo personaggio il quale, nel corso della trilogia, assumeva un ruolo sempre più imponente ed ambiguo rivelando al pubblico la sua esasperata schizofrenia. Il risultato del lavoro di Serkis fu talmente soddisfacente che Peter Jackson decise di inserire delle scene in flashback in cui l’attore avrebbe dovuto interpretare Smeagol, l’alterego buono di Gollum, mantenendo così la continuità interpretativa del personaggio. La creazione digitale di Gollum non è solamente frutto di sessioni di MoCap con conseguente trasposizione a monitor, ma è il risultato di complesse riprese della medesima scena in differenti modalità per ottimizzare l’inserimento del personaggio nei frame del film. Questo procedimento fu realizzato come segue: -prima fase: la scena veniva girata sul set o sulla location adeguata con tutti gli attori necessari; Serkis indossava una tuta in lycra che lo copriva interamente, fuorchè gli occhi, di un colore adeguato a mimetizzarlo con l’ambiente circostante, in modo da facilitare la sovrapposizione di Gollum alla sua immagine in fase di post-produzione; -seconda fase: in una delle scene in cui dovevano comparire Gollum, Frodo e Sam, Elijah Wood (Frodo) e Sean Astin (Sam) recitavano sul set la stessa scena senza Serkis, in modo da fornire un’immagine completa dello sfondo sul quale Gollum avrebbe dovuto muoversi; -terza fase: Andy Serkis, indossando una tuta MoCap con punti LEDs, recitava di nuovo su uno sfondo key-chrome blu, ovvero uno grande schermo interamente blu che in fase di giustapposizione del personaggio avrebbe facilitato il processo di ritaglio. In questa fase indossava, oltre alla tuta, un visore di realtà virtuale nel quale veniva proiettata la scena girata senza la sua presenza, in modo che egli potesse integrarsi completamente con essa ed avere l’illusione di interagire con i co-protagonisti. 35 | a fianco: Gollum, realizzato totalmente in MoCap, fa la sua prima comparsa nel primo episodio della trilogia (2001)

34 35


Per ottenere le stesse angolazioni ed inquadrature nelle molteplici riprese della stessa sequenza, la squadra operava tramite una cinepresa telecomandata, che permetteva di replicare esattamente la scena le volte successive.

36 | scena risultato delle fasi sopra descritte che presenta i tre attori nell’episodio “La Compagnia dell’Anello” (2001)

Per la ripresa dell’episodio “Le Due Torri” (2002), Andy Serkis indossò una tuta nera su cui erano applicate piccole sfere di riferimento ad alta rifrazione nelle zone principali di estremità e giunture del corpo i cui movimenti venivano rilevati da telecamere appositamente installate ed inviati al computer per ricreare l’animazione del personaggio virtuale. Uno degli aspetti più interessanti, a mio avviso, nel procedimento di cattura dei movimenti di Serkis risiede nel fatto che Jackson per avere la possibilità di dirigere le azioni di Gollum come faceva con qualunque altro attore necessitava che le movenze di Serkis fossero trasposte su Gollum in tempo reale, quindi furono create delle “mappe del personaggio” riportanti i movimenti delle azioni e dei gesti principali compiuti da Gollum, che consentivano di sovrapporre nel modo più adeguato le articolazioni di Serkis a quelle del suo personaggio, ad esempio: la postura in piedi, in ginocchio o a “quattro zampe”. Così facendo, Jackson aveva la possibilità di vedere Gollum muoversi su schermo allo stesso modo in cui, in quell’esatto momento, Serkis si muoveva sul set. Ritengo che soltanto la MoCap avrebbe potuto rendere possibile un progetto tanto ambizioso in quanto, come dichiarato dallo stesso Serkis, “il bello è che le cose accadono fisicamente lì per lì. Un minimo intoppo, un’esitazione, un respiro più profondo,


#2 MoCap, caso studio significativo: “Il Signore degli Anelli”

ogni espressione corporea viene colta e diventa parte della performance, garantendole un grande realismo.”. Questa tecnologia ha aperto le porte ad una serie di sperimentazioni incredibili che fanno auspicare che un giorno chiunque, anche io stessa, potrei avere l’opportunità di crearmi il mio personale alterego virtuale e vederlo muoversi allo stesso modo e nello stesso istante in cui mi muovo io...Non sarebbe fantastico?? Per la ripresa di scene differenti la tecnica di MoCap poteva variare; in certi casi Serkis recitava indossando una tuta blu mentre tre operatori video, posizionati ai tre angoli della zona della rilevazione, registravano ogni inquadratura contemporaneamente. I video fornivano un primo piano, un campo medio e un campo lungo dell’azione di Andy, che servivano come riferimento espressivo per il settore animazione. Inoltre era presente una squadra per il suono che faceva esperimenti di registrazione dal vivo durante il MoCap.

37 | le tre fasi di sovrapposizione di Serkis al personaggio: registrazione movimenti, trasposizione in tempo reale sulla figura 3D, unione del MoCap al render

36 37


Il processo di animazione può, quindi, essere diviso in quattro fasi: -performance sul set, ovvero la registrazione della scena su pellicola 35mm; -motion capture, nonchè rilevazione dei movimenti reali dell’attore e sovrapposizione degli stessi al modello di Gollum creato digitalmente; -ADR (automated dialogue replacement), che consiste nella stesura delle tracce vocali per consentire il montaggio agli animatori; -animazione, quindi sviluppo e rifinitura del personaggio, fotogramma per fotogramma, sfruttando i passaggi precedenti al fine di inserire Gollum nelle scene assieme agli altri attori. La motion capture presenta, come abbiamo visto, moltissimi vantaggi per la realizzazione di personaggi ed oggetti virtuali ma può riservare qualche complicazione, soprattutto per gli attori che si prestano ad utilizzarla per dar vita a creature digitali. Questo perchè risulta molto difficile per questi ultimi recitare su di uno sfondo neutro privi di trucchi, costumi ed ambientazioni adeguati ad immedesimarsi nel personaggio. Nello specifico caso di Serkis, un’ulteriore problematica derivava dal fatto che, a causa di questioni tecniche poichè spesso si presentavano problemi che obbligavano gli operatori dell’animazione a rigirare la scena, era costretto a dover recitare nuovamente sequenze che aveva girato mesi o addirittura anni prima, senza gli altri attori che avevano lavorato con lui in quelle scene. Da un episodio all’altro le tecnologie hanno visto forti progressi ed è per questo motivo che per girare le scene de “Il Ritorno del Re” (2003) le modalità di MoCap

38 | scena tratta dal primo episodio “La Compagnia dell’Anello” (2001)


#2 MoCap, caso studio significativo: “Il Signore degli Anelli”

hanno subito importanti varizioni che hanno reso il processo di animazione più rapido e realistico. Infatti, ci si era accorti che durante la ripresa di alcune scene che presentavano difficoltà sostenute, il corpo di Serkis compiva movimenti che difficilmente riuscivano a sovrapporsi perfettamente alla figura di Gollum ed è per questo che la squadra di MoCap sperimentò, per la prima volta nella storia, un sistema di rilevazione di movimenti sul set. Furono abbandonate le fasi che comportavano più riprese della stessa scena evitando lavoro di post-produzione per lasciare spazio ad una cattura dei movimenti che veniva immediatamente giustapposta al personaggio virtuale. Così facendo si eliminava gran parte del lavoro di post-produzione a vantaggio dei tempi di ripresa e registrazione; Serkis poteva, così, girare la scena una sola volta assieme agli altri attori garantendo, quindi, la massima interazione con essi e nel frattempo i suoi movimenti venivano adattati in tempo reale a Gollum su schermo. Ciò che ha reso possibile questo sviluppo importante sono le nuove telecamere e le luci a infrarossi sviluppate della Motion Analysis, infatti, le nuove sorgenti di luce erano invisibili alle macchine da presa, ma erano abbastanza forti da consentire di collocare le telecamere ad una certa distanza in modo tale che la scena potesse essere ripresa in modo ottimale ma senza interferenze visive da parte delle apparecchiature. La fase di animazione presentò un’ulteriore innovazione, infatti per realizzare Gollum non venne utilizzata esclusivamente motion capture ma si decise di unire le caratteristiche di straordinario realismo che essa permetteva e l’animazione in key frame (vedi morph target animation) per la definizione dei dettagli e delle espressioni facciali, impossibili da ottenere diversamente.

39 | a sinistra: rendering del modello 3D del volto di Gollum 40 | a destra: Andy Serkis in tuta MoCap con sorgenti ad infrarossi

I movimenti dei muscoli del volto di Serkis venivano utilizzati dagli animatori come guida per ricreare una vasta gamma di espressioni e stati emotivi che dovevano adeguarsi ad ogni situazione e, allo stesso tempo, rimanere coerenti con la mimica e la gestualità del personaggio.

38 39



#2 MoCap, caso studio significativo: “Il Signore degli Anelli”

I personaggi MoCap virtuali hanno un’anima? La domanda che dà il titolo a questo paragrafo nasce da una considerazione personale fatta dopo aver letto della candidatura all’Oscar di Gollum, non di Andy Serkis, proposta in seguito all’uscita del secondo episodio della trilogia “Le Due Torri” (2002). Credo che questo avvenimento ponga l’accento su un quesito etico-morale molto importante che nasce dall’utilizzo delle ultime tecnologie sviluppatesi nell’ambito dell’animazione 3D, dalla MoCap al rigging, ovvero: è corretto attribuire ai personaggi digitali nati e vissuti all’interno di una realtà virtuale un’anima? Nel caso specifico di Gollum-Serkis si imposero due scuole di pensiero che vedevano, da un lato gli animatori, sostenitori accaniti della più che legittima candidatura all’Oscar, dall’altro lato si trovavano i più tradizionalisti che ritenevano oltraggiosa una proposta simile. Personalmente credo che il beneficiario di questo prestigioso premio dovrebbe essere Andy Serkis e non perchè io sia una tradizionalista convinta ma perchè penso che Gollum non sia da considerarsi un personaggio interamente digitale, in quanto Serkis non solo ha prestato la stridula voce a questo controverso personaggio, bensì ha compiuto un’opera davvero innovativa e complessa animando ed ideando completamente i movimenti e la gestualità che hanno consentito a Gollum di esternare le proprie sensazioni ed emozioni rendendolo la figura emblematica che oggi noi tutti conosciamo. Tralasciando l’Oscar, la questione che ci si dovrebbe porre è se le tecnologie di animazione e la creazione dei mondi digitali che esse permettono di inscenare possano essere un limite, un ostacolo, una restrizione alle capacità recitative ed interpretative degli attori che li incarnano. Occorre capire se l’attore si sente ancora tale nel momento in cui è chiamato a dar vita ad un personaggio virtuale oppure se prestando il corpo ad una creatura completamente digitale il suo talento non riceve il dovuto riconoscimento e possibilità di espressione. A mio avviso, l’animazione in questo senso va intesa come l’estensione delle capacità della persona reale, in carne ed ossa, che deve sfruttare l’occasione di calarsi in una realtà costruita per dar vita ad un personaggio graficamente perfetto ma altrettanto interessante dal punto di vista della componente umana, emozionale, recitativa (da citare è l’impressionante spessore psicologico posseduto da Gollum già nell’opera di Tolkien, rimasto pressoché intatto nel film). Concludendo, ritengo che la MoCap e le altre tecniche di animazione non debbano essere considerate delle limitazioni all’artisticità degli attori ma, al contrario, delle innovative strade di comunicazione attraverso le quali l’attore può relazionarsi in maniera ottimale al personaggio che interpreta cogliendone sfaccettature inaspettate da trasmettere al pubblico mediante la creazione di nuovi canali esperienziali.

41 | Gollum in una scena tratta dal primo episodio “La Compagnia dell’Anello” (2001)

40 41



#3 applicazioni future _interazione uomo-personaggio virtuale _vivere virtualmente nella realtà _Fuffy è sempre a portata di mano


Nei due capitoli precedenti sono state presentate le ultime, sofisticate tecnologie nel campo del cinema di animazione 3D che rendono possibile la realizzazione di produzioni cinematografiche d’eccellenza, ormai all’ordine del giorno. Questo settore ha visto negli ultimi anni un’evoluzione tale che, ormai, molti altri ambiti relazionati in qualche modo all’animazione, ed alla comunicazione visiva più in generale, hanno potuto usufruire degli straordinari effetti speciali prodotti da queste tecnologie, al fine di rendere maggiormente appetibili e contemporanei i propri prodotti commerciali. In particolar modo, il settore della grafica pubblicitaria televisiva ultimamente ha portato all’attenzione dello spettatore e degli altri media slogan, spot e cortometraggi pubblicitari, dediti a sponsorizzare i prodotti di cui si facevano portavoce, attraverso l’utilizzo di animazione 3D quasi a voler dimostrare come questo linguaggio d’avanguardia sia diventato l’irrinunciabile cordone comunicativo tra media e pubblico.

42 | fasi di skeletal animation per la realizzazione dello spot pubblicitario di una famosa auto Citroën


#3 applicazioni future

Queste premesse sono state necessarie al fine di comprendere quanto le tecnologie decritte in precedenza stiano rivoluzionando non solo il settore del cinema di animazione, ma anche gli ambiti comunicativi ad esso connessi. Il progresso delle tecniche e i continui miglioramenti apportati quotidianamente ai software d’animazione lasciano spazio a possibili future applicazioni ancora oggi inimmaginabili e, in questo capitolo, si proverà ad affronatare l’argomento del prossimo orizzonte tecnologico che queste tecnologie potrebbero incontarare, mediante la rappresentazione di ipotetici sviluppi avvenieristici (del tutto personali!). Interazione uomo-personaggio virtuale Non sarebbe fantastico interagire, o per lo meno percepire visivamente in modo tridimensionale i personaggi, disneyani e non solo, che hanno segnato indelebilmente il nostro immaginario infantile diventando i protagonisti dei nostri sogni di bambini? Ipotizzando l’eventualità che attraverso lo stesso approccio di intelligenza artificiale di cui fa uso, per esempio, la crowd simulation si possa attribuire ad un personaggio virtuale movenze e reazioni a determinate situazioni, allora la risposta alla domanda sovrastante sarebbe sì!

43 | disegno rappresentante un’ipotetica interazione tra una famiglia e Topolino (disegno di Erika Rossi)

44 45


Infatti, se si pensa di poter ricreare un vasto range di comportamenti e stati emotivi per poi applicarli alla figura virtuale, generata in 3D su schermo, che più si preferisce, sarebbe possibile ottenere un personaggio digitale personalizzato che reagisce in modo del tutto autonomo ed indipendente a specifici agenti esterni. Limitando l’animazione soltanto a questa fase, però, avremmo comunque un personaggio caratterizzato da una certa “staticità”, se così si può definire, in quanto il suo raggio d’azione rientrerebbe nei confini del monitor e non permeterebbe nessun tipo di interazione con l’uomo se non attraverso il mouse. Si è quindi ipotizzata l’opportunità di ottenere una proiezione olografica del personaggio la quale, pur mantenendo le medesime caratteristiche del suo corrispondente render su schermo, gli conferisce una componente di concretezza e suggestione che renderebbe l’interazione con l’uomo un’esperienza fortemente coinvolgente. All’interno dei parcogiochi, in occasione di importanti fiere e/o eventi, in spazi appositi ricreati per il divertimento e lo svago sarebbe possibile entrare “in contatto” (le virgolette sono doverose in quanto, comunque, l’olografia, non è tangibile) con i protagonisti di cartoni animati, fiabe e racconti che prendono vita dallo schermo animandosi davanti ai nostri occhi.

44 | rappresentazione ideale del sistema semplificato tra render a schermo-proiettore-olografia (disegno di Erika Rossi)


#3 applicazioni future

Ma questa tecnologia potrebbe essere applicata a qualsiasi creatura 3D dotata di intelligenza artificiale, la quale potrebbe rispondere al nostro saluto, stringerci in un abbraccio, sorriderci se ne fossimo impauriti, ballare assieme a noi e fare tutto ciò che gli viene indicato da comandi e vincoli impostati precedentemente al fine di rendere l’interazione uomo-personaggio un’esperienza di grande impatto. L’unico limite tra realtà e virtuale sarebbe la nostra fantasia nell’imporre i controlli e le reazioni!

45 | vignette esemplificanti 4 possibili comandi di A.I. in reazione a certe azioni: calcio, abbraccio, saluto, ballo (disegno di Erika Rossi)

46 47


Vivere virtualmente nella realtà Il gioco di parole che intitola questo paragrafo vuole porre l’accento sui paradossi e le contraddizioni che le tecnologie di animazione 3D porteranno all’interno della routine quotidiana del futuro. Infatti, la prossima proposta che verrà illustrata riguarda la possibilità che, probabilmente, avremo di compiere le più disparate azioni come, una passeggiata al chiaro di luna sulle rive della Senna, una serata scatenata in discoteca con gli amici, un romantico incontro nel Grand Canyon o una corsa nel parco stando a casa, dentro la nostra stanza! Questa incredibile e paradossale esperienza sarà resa possibile grazie ad un’evoluzione della tecnica motion capture attraverso la quale, indossando la tuta munita di sorgenti ad infrarossi ed un visore di realtà virtuale al fine di avere davanti a noi la scena in cui ci prestiamo ad inserirci, potremmo immergerci nel set digitale che più preferiamo come, per esempio, SecondLife o qualsiasi altro social network a cui siamo iscritti. Incarnando fisicamente il nostro avatar e facendolo muovere come meglio crediamo, non più attraverso il mouse e la tastiera del computer, ma realmente, trasmettendogli in tempo reale i movimenti che intendiamo fargli compiere poichè li stiamo simulando noi stessi in quell’istante, avremo la sensazione di vivere a pieno in un mondo virtuale che stiamo gestendo attraverso gesti reali.

46 | rappresentazione ideale di una persona che, con tuta MoCap e visore virtuale simula una corsa che sta vivendo all’interno della realtà 3D vista attraverso il visore (disegno di Erika Rossi)


#3 applicazioni future

Indossando una tuta MoCap ed un visore speciale dedito alla vista della realtà virtuale prestabilita, l’utente potrà vivere l’esperienza di realtà virtuale mediante il suo avatar, un’estensione digitale della sua personalità, utilizzando un approccio più fisico e tattile per trasporre le sue movenze nell’ambiente virtuale in cui è inserito. Il sistema sarà, quindi, collegato alla rete per consentire alle apparecchiature indossate dalla persona di comunicare con l’avatar presente nel social network ed utilizzerà una connessione di tipo WiFi in modo tale da evitare la presenza ingombrante di fili e cavi di qualsiasi genere, consentendo all’utente di muoversi liberamente all’interno del proprio spazio fisico. Il computer sarà settato al fine di captare gli spostamenti delle sorgenti ad infrarossi della tuta MoCap e li trasmetterà, per mezzo della rete, all’avatar del social network prescelto che, istantaneamente, si muoverà come comandato dal corpo della persona. Credo che una situazione simile potrà essere adottata, all’interno del web, da molteplici enti per la realizzazione di progetti straordinari, per esempio: Facebook, MySpace, e altri siti affini, avrebbero la possibilità di estendere la rete di contatti che rispettivamente gestiscono ad una dimensione 3D virtuale per permettere agli utenti iscritti di creare il proprio alterego e rapportarlo ad amici e conoscenti; gli eventi promossi potrebbero essere vissuti a livello virtuale da migliaia di avatar, oltre che nel mondo reale ovviamente, con un conseguente incremento di sponsor, pubblicità e circolazione di informazioni. Qualsiasi sito avrebbe l’occasione di sfruttare, tramite differenti modalità, questa tecnologia fornendo ai cittadini digitali della rete una nuova tipologia di emozioni, sensazioni ed esperienze in grado di coniugare reale e virtuale.

47 | corrispondente azione virtuale compiuta dal soggetto nella pagina a fianco (disegno di Erika Rossi)

48 49


Fuffy è sempre a portata di mano Il terzo ed ultimo, ma non meno importante, progetto qui porposto che le tecnologie di animazione 3D potrebbero rendere possibile è la creazione di un’interfaccia portatile in grado di rendere tascabile i propri animali domestici. Una sorta di videogame personalizzato che, a differenza di un tradizionale ed asettico Tamagotchi, consente all’utente di mantenere un costante contatto con il proprio animale domestico, monitornadone anche eventuali problemi, attraverso un’interfaccia divertente, semplice e giocosa. Infatti, il sistema di rilevazione dei movimenti dell’animale non sarebbe riprodotto tramite un’immagine fotografica ripresa da videocamera, poichè l’aspetto ludico verrebbe perduto ed il tutto risulterebbe noioso e privo di affordance. L’animale reale verrebbe dotato di appositi sensori, possibilmente poco invasivi, posti nelle giunture del corpo, il cui movimento sarebbe captato da una serie di telecamere collocate nella casa del proprietario. Successivamente, la ripresa verrebbe codificata per rendere l’immagine digitale ed inviata, tramite WiFi, alla console portatile debitamente configurata al fine di riprodurre l’architettura dell’ abitazione posseduta dall’utente. Quest’ultimo, quindi, sarebbe in grado di vedere le azioni compiute dal proprio cane, gatto, canarino ecc. ma limitando il sistema a quest’unica possibilità verrebbe a mancare il coinvolgimento ed il divertimento necessario a rendere il prodotto appetibile ed interessante.

48 | un utente in viaggio gioca con il suo gatto attraverso la sua console (disegno di Erika Rossi)


#3 applicazioni future

Si è quindi pensato di inserire un’interazione dedita all’intrattenimento di entrambe le parte, padrone ed animale, funzionante nel modo seguente: attraverso la penna della console, l’utente potrebbe muovere e spostare a suo piacimento un elemento che, nello schermo del videogame risulterebbe come una sorta di pallina ed il cui parallelo nella realtà altro non sarebbe che una piccola fonte luminosa puntiforme che riprodurrebbe i movimenti dell’elemento sopracitato. Una serie di mini-proiettori dislocati lungo le pareti della casa, dovrebbero rigenerare gli spostamenti della luce puntiforme attuati dall’utente nella propria console, in modo tale che l’animale reale vedendola ne sia attratto e si inneschi una sorta di gioco a distanza tra padrone ed animaletto. Penso che un’idea simile possa avere ripercussioni positive all’interno della società, in quanto, non solo il cliente sarebbe spronato a prendersi cura del proprio animale reale-digitale in ogni momento anzichè di un finto cucciolo (come accade in molti videogames), ma potrebbe divertirsi con lui anche in situazioni in cui il contatto fisico verrebbe certamente a mancare (al lavoro, durante gli spostamenti fuori casa, a scuola, ecc.).

49 | a sinistra: nelll’interfaccia della console l’utente muove la “pallina” per far giocare il suo gatto (disegno di Erika Rossi) 50 | a destra: il gatto a casa vede la ”pallina” di luce, proiettata dal mini-proiettore, muoversi sul pavimento (disegno di Erika Rossi)

50 51



conclusioni



conclusioni

Ritengo che l’excurcus generale effettuato attraverso questa breve ricerca sia risultato molto utile per l’approfondimento delle tematiche riguardanti le ultime tecnologie di animazione 3D, poichè lascia spazio ad una ambivalenza descrittiva teorico-pratica che illustra i procedimenti necessari, dalla A alla Z, per la realizzazione di personaggi virtuali. Lo scopo di questa analisi è quello di rivelare la complessità degli aspetti sottesi al processo di animazione 3D, i quali sono in grado di dar vita a creature digitali e prodotti virtuali estremamente realistici e di forte impatto visivo grazie all’unione dell’abilità dei maestri animatori e delle incredibili possibilità offerte dai software di ultima generazione. Basti pensare alla sterminata produzione dello Studio Disney Pixar che, puntualmente, ogni anno ci regala film d’animazione sempre più raffinati e dettagliati che portano sul grande schermo personaggi antropomorfi dalle caratteristiche comportamentali umano-emotive, come l’ultimo “Wall-e” (2008); oppure, si possono citare gli esaltanti film in bilico tra reale e virtuale come,“La Bussola d’Oro”, “Le Cronache di Narnia”, e molti altri. Credo che questa ricerca possa essere d’aiuto per comprendere al meglio come la tecnologia non debba essere considerata un ostacolo al lavoro di attori e registi ma, al contrario, un’imperdibile occasione di mettere alla prova le proprie capacità rapportandosi ad un mondo sempre più in espansione che oltrepassa i confini dell’immaginazione. Le tecniche avvenieristiche qui presentate, sottolineano come l’unico limite che ci si può trovare ad affrontare sia la propria fantasia nel creare personaggi, reami immaginifici ed atmosfere suggestive originali, innovative ed attraenti dal punto di vista dello stimolo visivo. Personalmente, credo che in futuro queste tecnologie avranno l’opportunità di conoscere campi di applicazioni nuovi, in particolare il trasferimento sul web e l’adattamento in rete a canali comunicativi innovativi, in grado di offrire al pubblico numerose sconosciute esperienze finora inimmaginabili come, ad esempio, quelle descritte nel terzo capitolo. Concludendo, attraverso questo lavoro di ricerca ho potuto analizzare ed approfondire un ambito comunicativo-espressivo molto interessante che conoscevo solo marginalmente, confrontandomi con realtà tecnologiche recenti applicabili anche a settori diversissimi tra loro ed individuare le questioni etico-morali a cui le tecnologie sempre più presenti ed inscindibili dalla nostra quotidianità ci chiedono di risolvere. Sarebbe più opportuno limitare la conoscenza umana nell’investigazione delle possibilità offerte dalla tecnologia, oppure subordinare quest’ultima alla volontà della società al fine di creare una pacifica coesistenza in grado di migliorare molti aspetti della nostra vita? Credo che la seconda affermazioni porterebbe ad importanti progressi.

51 | nella pagina a fianco: Wall-e, ultimo personaggio nato dal genio di Disney Pixar (2008)

54 55



bibliografia


Libri Bigi Daniele e Ceccarelli Nicolò, Animazione 3D, storia, tecniche, produzione, Mondadori Informatica, Milano 2004 GÊnin Bernard, Il cinema di animazione, dai disegni alle immagini di sintesi, Lindau, Torino 2005 Kerlow Isaac Victor, The art of 3D computer animation and effects, John Wiley & Sons, Los Angeles 2003 Osipa Jason, Animazione e modellazione 3D, McGraw-Hill, Milano 2008 Allegato al periodico Ciak, La trilogia, Il Signore degli Anelli, dalle uscite speciali di Ciak, Dietro le quinte dei grandi film, Mondadori, Milano 2003 Web http://academic.evergreen.edu http://frederatorblogs.com http://gopaultech.com http://graphic3d.forumer.it http://isdafanclub.altervista.org http://it.encarta.msn.com http://it.truveo.com http://it.wikipedia.org http://leviathans.wordpress.com http://local.wasp.uwa.edu.au http://mecca.louisville.edu http://people.csail.mit.edu http://portal.acm.org http://recherche.ircam.fr http://renderman.pixar.com http://venturebeat.com www.3d-canvas.com www.3sulblog.com www.absoluteastronomy.com www.andywhiteley.com www.animationartconservation.com www.banniland.com www.cgarena.com www.cgitalia.it www.chrisoat.com www.cinemasterpieces.com www.crowdsimulationgroup.co.uk www.cs.bilkent.edu.tr www.cs.ucr.educ www.cs.wisc.edu www.elikrotupos.com


bibliografia

www.fahrenheitdigital.com www.fantasymagazine.it www.gameplayer.it www.gorilla.it www.grafica3dblog.it www.highly.com www.irtc.org www.joshuadavidbrown.com www.juegos.es www.leocov.com www.lordofthering.net www.mattepainting.org www.maurobaldissera.it www.mit.edu www.n-gate.it www.naturalpoint.com www.noemalab.org www.norwesters.org www.pixar.com www.princeofpersiagame.com www.rdrock.it www.renderglobal.org www.sciweavers.org www.serintage.com www.signoredeglianelli.org www.slashfilm.com www.softimage.com www.softpedia.com www.sogonow.com www.striain.net www.thegtacenter.com www.theonering.net www.tinkering.net www.totalformat.com www.urbanmodellinggroup.co.uk www.uweb.ucsb.edu www.vicon.com www.webdesign.org Crediti fotografici Immagine1 | http://images.allmoviephoto.com/2007_The_Simpsons_Movie/2007_ the_simpsons_movie_006.jpg Immagine2 | http://upload.wikimedia.org/wikipedia/commons/8/8a/Celshading_ teapot_large.png 58 59


Immagine 3.1 | http://upload.wikimedia.org/wikipedia/commons/b/b8/Cel_ shading_no_outlines.png Immagine 3.2 | http://upload.wikimedia.org/wikipedia/commons/7/76/Cel_ shading_normals.png Immagine 3.3 | http://upload.wikimedia.org/wikipedia/commons/9/97/Cel_ shading_edge_detection.png Immagine 3.4 | http://upload.wikimedia.org/wikipedia/commons/a/af/Cel_ shading_composite_final_image.png Immagine 4 | http://www.juegos.es/blog/wp-content/uploads/2008/10/prince-ofpersia.jpg Immagine 5 | http://www.3dvf.com/DATA/PUBLISH/1231/images/Catalyst_skin_ morph.jpg Immagine 6 | http://www.zbrushcentral.com/zbc/attachment. php?attachmentid=100856 Immagine 7 | http://www.cs.ucr.edu/~sorianom/cs134_09win/anim.png Immagine 8 | http://www.lifemi.com/products/LSH/Artist/Art_max_impex_b2.jpg Immagine 9 | http://people.csail.mit.edu/ibaran/autorig.pdf Immagine 10 | http://people.csail.mit.edu/ibaran/autorig.pdf Immagine 11 | http://people.csail.mit.edu/ibaran/autorig.pdf Immagine 12 | http://people.csail.mit.edu/ibaran/autorig.pdf Immagine 13.1 | http://www.maurobaldissera.it/gallery/immagini/originali/ sissitestaossa.jpg Immagine 13.2 | http://www.maurobaldissera.it/gallery/immagini/originali/ sissiXraywEB.jpg Immagine 13.3 | http://www.maurobaldissera.it/gallery/immagini/originali/ sissidorme.jpg Immagine 14 | http://www.maurobaldissera.it/gallery/immagini/originali/sissi.jpg Immagine 15 | http://www.3dm3.com/tutorials/maya/crowd/image_11.jpg Immagine 16 | http://www.cs.bilkent.edu.tr/~gudukbay/crowd_simulation/ protest1.bmp Immagine 17 | http://www.urbanmodellinggroup.co.uk/CSG/ Immagine 18 | http://www.chrisoat.com/images/Froblins.jpg Immagine 19 | http://www.rohirrim.it/downloads/Desktop/Rohan/Riders%20 of%20Rohan.jpg Immagine 20 | http://www.risorseonline.org/sfondi_1024/cinema-27/sfondi_ matrix_revolution_4.jpg Immagine 21 | http://hmi.ewi.utwente.nl/vdancer/mocap_screenshot_1.gif Immagine 22 | http://img124.imageshack.us/img124/3256/figure1ro2.gif Immagine 23 | http://www.naturalpoint.com/optitrack/images/products/largemocapsuit.jpg Immagine 24 | non trovato Immagine 25 | http://people.csail.mit.edu/jovan/assets/papers/vlasic-2007-pmc.pdf Immagine 26 | http://people.csail.mit.edu/jovan/assets/papers/vlasic-2007-pmc.pdf


bibliografia

Immagine 27 | http://www.wallpaperland.net/wp-content/uploads/2008/06/ signore_degli_anelli.jpg Immagine 28 | http://img-nex.theonering.net/images/scrapbook/orig/16249_orig. jpg Immagine 29 | immagine tratta dal libro La trilogia, Il Signore degli Anelli, dalle uscite speciali di Ciak, Dietro le quinte dei grandi film, Mondadori, Milano 2003 Immagine 30 | immagine tratta dal libro La trilogia, Il Signore degli Anelli, dalle uscite speciali di Ciak, Dietro le quinte dei grandi film, Mondadori, Milano 2003 Immagine 31 | http://www.wladca.mocny.com/prince/Balrog_Wallpaper.jpg Immagine 32 | immagine tratta dal libro La trilogia, Il Signore degli Anelli, dalle uscite speciali di Ciak, Dietro le quinte dei grandi film, Mondadori, Milano 2003 Immagine 33 | immagine tratta dal libro La trilogia, Il Signore degli Anelli, dalle uscite speciali di Ciak, Dietro le quinte dei grandi film, Mondadori, Milano 2003 Immagine 34 | non trovato Immagine 35 | http://www.uweb.ucsb.edu/~mstockham/lotr_gollum_342800.jpg Immagine 36 | immagine tratta dal libro La trilogia, Il Signore degli Anelli, dalle uscite speciali di Ciak, Dietro le quinte dei grandi film, Mondadori, Milano 2003 Immagine 37 | immagine tratta dal libro La trilogia, Il Signore degli Anelli, dalle uscite speciali di Ciak, Dietro le quinte dei grandi film, Mondadori, Milano 2003 Immagine 38 | immagine tratta dal libro La trilogia, Il Signore degli Anelli, dalle uscite speciali di Ciak, Dietro le quinte dei grandi film, Mondadori, Milano 2003 Immagine 39 | http://www.fantasymagazine.it/imgbank/NEWS/gollum_model. nb.jpg Immagine 40 | http://www.theonering.com/images/medialibrary/andy%20in%20 his%20mo%20cap%20suit%20enlargement.jpg Immagine 41 | immagine tratta dal libro La trilogia, Il Signore degli Anelli, dalle uscite speciali di Ciak, Dietro le quinte dei grandi film, Mondadori, Milano 2003 Immagine 42 | http://www.videogiochi3d.it/img-esterne/citroen-c4/04-chiusura. jpg Immagine 43 | disegno di Erika Rossi Immagine 44 | disegno di Erika Rossi Immagine 45 | disegno di Erika Rossi Immagine 46 | disegno di Erika Rossi Immagine 47 | disegno di Erika Rossi Immagine 48 | disegno di Erika Rossi Immagine 49 | disegno di Erika Rossi Immagine 50 | disegno di Erika Rossi Immagine 51 | http://fromthegreenroom.files.wordpress.com/2009/01/walle.jpg

60 61





Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.