UNIVERSITÀ DEGLI STUDI DI URBINO “CARLO BO”
Facoltà di Sociologia
CORSO DI LAUREA IN
COMUNICAZIONE PUBBLICITARIA
L’animazione tridimensionale. Analisi funzionale
e applicazioni.
Relatore: Chiar.mo Prof. PIER LUIGI CAPUCCI
Tesi di laurea di: MATTEO PIERINI
ANNO ACCADEMICO 2004-2005
L’animazione tridimensionale. Analisi funzionale e
applicazioni.
Premessa
L’animazione costituisce il modo con cui un’immagine digitale acquisita o creata
con metodi di modellazione e rendering acquista vita. Nel cinema, nei video-giochi, nei
siti Internet, incontriamo sempre più animazioni create con l’elaboratore, o ispirandosi
al lavoro degli animatori tradizionali o con tecniche interamente nuove che solo il
computer permette di usare.
L’animazione, corredata da sofisticati dispositivi di input e output (guanti digitali,
caschi con visori stereo, suono diffuso spazialmente, ecc.) è il cardine dei sistemi di
interazione del futuro, basati sulle realtà virtuali.1
Introduzione
Per analizzare meglio il campo dell’animazione tridimensionale è necessario
introdurre alcuni concetti base sulla Computer Animation. La Computer Animation o
Animazione Digitale, è un termine che designa delle immagini in movimento generate
dal computer (elettronicamente). Tali immagini sono costituite da migliaia di punti
(pixel)2, ottenuti attraverso calcoli matematici. Ogni punto ha una determinata
posizione sullo schermo, e il computer ha immagazzinata nella sua memoria le
informazioni sulla posizione di ogni pixel. Ad ogni pixel possono venir cambiati colore
e luminosità. Il calcolatore utilizza segnali e informazioni di tipo digitale, cioè formate
da impulsi binari, discontinui. Un'immagine digitale è formata da una griglia di pixel
(mosaico elettronico), dove ogni punto ha uno specifico valore. L'animazione digitale è
1
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p.177
2
Pixel: abbreviazione inglese di picture element; è uno dei molti minuscoli puntini che compongono la
rappresentazione di un'immagine nella memoria di un computer. Solitamente i punti sono così piccoli e
così numerosi che se vengono stampati su carta o visti su un monitor appaiono fusi in un’unica
immagine. Colore e intensità di ciascun punto sono usati dal computer per rappresentare una piccola area
dell'immagine. Tratto da: http://it.wikipedia.org/wiki/Pixel
1
caratterizzata da una bassa qualità di visione (risoluzione)3.Tramite il calcolatore si
possono
manipolare
informazioni
di
vario
tipo
come
fotografie,
pellicole
cinematografiche, disegni, etc, prima però ogni materiale dev'essere scannerizzato, per
consentire la digitalizzazione delle varie informazioni, omogeneizzandole sotto l'egida
del pixel. Le animazioni digitali vengono realizzate tramite la Computer Grafica o CGI
(Computer Generated Imagery).
Scopo della computer animation
Il computer permette di creare animazioni bidimensionali (2D) e tridimensionali
(3D), permette di creare nuove immagini (realizzazioni integralmente ottenute al
computer), intervenire con modificazioni su riprese reali o realizzare effetti speciali
(realizzazioni miste)4, e programmare il lavoro di ripresa cinematografica.
Con l'utilizzo della Computer Animation sono stati sperimentati film astratti, inventati
mondi illusori (come nel caso della Realtà Virtuale), create delle evoluzioni
morfogenetiche di forme virtuali (che si evolvono all'interno del computer, sembrando
quasi delle forme organiche).
Le immagini 3D interamente create al computer sono definite "immagini di sintesi".
L'immagine di sintesi è estranea alle diverse forme di rappresentazione della realtà: è la
riproduzione di un'idea, dell'immaginario, non ha come referente la realtà, come invece
accade
per
cinematografo
e
fotografia.
Oggi la Computer Animation viene spesso usata per creare spot pubblicitari, sequenze
per film ad effetti speciali, film d'animazione, grafica per il web, videogiochi. Il suo
impiego nell'ambito della pre-produzione e post-produzione cinematografica è assai
vasto poiché abbassa i tempi ed i costi di lavorazione (costruzione di scenografie
virtuali, studio delle inquadrature, della luce, dei movimenti degli attori) e permette di
realizzare inquadrature originali, fatte da punti di vista inediti. Le immagini prodotte
3
Risoluzione: La risoluzione di un'immagine indica il grado di qualità di un'immagine. Generalmente si
usa questo termine parlando di immagini digitali, ma anche una qualunque fotografia"classica" ha una
certa risoluzione. Parlando di immagini su computer, la risoluzione indica la densità dei pixel ovvero dei
puntini elementari che formano l'immagine. Lo schermo di un computer, infatti, non può mostrare linee o
disegni, ma soltanto, in definitiva, punti: se questi sono sufficientemente piccoli (tali, in pratica, da essere
più piccoli della risoluzione percepita dall'occhio umano), l'osservatore ha l'impressione di vedere linee
anziché punti allineati, e disegni anziché ammassi di puntini distinti. Tratto da:
http://it.wikipedia.org/wiki/Risoluzione
4
Cfr. Pier Luigi Capucci, Realtà del virtuale , CLUEB, Bologna, 1993, p.57.
Tratto da: http://www.noemalab.org/sections/specials/tetcm/2001-02/shrek/definizione.html
2
dal calcolatore spesso mescolano il reale con l'irreale, e vengono utilizzate per
rappresentare visualmente un immaginario fantastico; non hanno come referente la
realtà, quindi non sono soggette alla forza di gravità, possono andare in qualsiasi
direzione, a qualunque velocità, in qualunque momento della sequenza, e ogni pixel è
sempre manipolabile.
1. Storia dell’animazione
L’animazione che conosciamo oggi ha radici antiche, ed è l’evoluzione
dell’illustrazione, di cui troviamo esempi anche nei periodi storici a noi più lontani,
dalle incisioni alle miniature medievali.
Una scena, un racconto, una cronaca reale o immaginaria vengono accompagnate da
immagini che ne illustrano i momenti salienti e la arricchiscono. I vuoti visivi o
narrativi che sussistono negli spazi tra un’illustrazione e l’altra possono venire colmati
dal lettore, che ricostruisce la storia con la propria immaginazione.
Un passo intermedio tra l’illustrazione e l’animazione è il fumetto: qui la storia
viene narrata interamente in forma grafica e trasmessa visivamente. Il testo è limitato
alle sole frasi dei personaggi e la sua funzione è di accompagnamento alle immagini. I
vuoti visivi sono quasi scomparsi e la parte creativa lasciata all’immaginazione del
lettore diminuisce, così come la distanza temporale tra le illustrazioni.
L’animazione dal punto di vista del fruitore finale non è altro che una sequenza di
immagini visualizzate a velocità predefinita, opportunamente costruite in modo da
simulare il movimento.
Ogni immagine della sequenza viene chiamata fotogramma o frame; nel mondo
della produzione televisiva le immagini si susseguono al ritmo di 24 o 25 al secondo.
Questa velocità è tale che l’occhio umano ne percepisce fluidamente lo scorrere, senza
rilevare scatti o momenti vuoti, poiché il segnale visivo permane per un breve periodo
sui fotorecettori.
La visualizzazione di sequenze di immagini ha una storia ricca di tecniche non
informatiche, alcune sofisticate, altre semplici e di facile realizzazione. La più semplice
da realizzare è il libretto animato, nel quale le immagini della sequenza sono stampate o
disegnate una per pagina. Scorrendo velocemente le pagine, la sequenza prende vita.
3
Altri strumenti furono il fenachistiscopio5, il prassinoscopio6 ideato da Athanasius
Kircher alla metà del ’600.
Il cinematografo, termine derivante dal francese cinématographe, venne brevettato
nel 1893 e comunemente abbreviato in “cinema”. Dopo il cinema venne la televisione
che, pur generando anch’essa animazioni visualizzando sequenze di immagini, si basa
su principi tecnologici diversi.7
Per quanto riguarda l’animazione digitale nel 1950 il Servomechanisms Laboratory
of Massachuttes Institute of Technology mette a punto il primo sistema numericamente
controllato: il CAM (computer-aided manifacture), una macchina che, guidata, ripeteva
Fig 1) Fonte: http://chronicle.altervista.org/immagini/fenachistiscopio.jpg
Fig 2) Fonte: http://www.illuweb.it/cinema/prassi01.jpg
5
Fenachistiscopio: Il fenachistiscopio di Joseph Plateau consisteva in due dischi coassiali, ruotanti
solidalmente. Sul primo disco erano riportate diverse posizioni di una stessa figura, mentre nel secondo
erano ricavate delle fessure, attraverso le quali l'occhio dell'osservatore riceveva, guardando attraverso
uno specchio, l'impressione della figura in movimento. Si cimentarono in esperienze di dinamismo,
applicate a figure disegnate su strisce di carta predisposte ad essere animate, anche Simon Stampfer,
creatore dello stroboscopio, William G. Horner, il padre dello zootropio, ed Emile Reynaud, l'inventore
del prassinoscopio. Tratto da: http://www.pavonerisorse.to.it/museocinema/fena.htm
6
Prassinoscopio: Costruendo il prassinoscopio, Emile Reynaud sostituì le fessure del fenachistoscopio
con
un
prisma
di
specchi
da
collocare
al
centro
del
tamburo.
"In questo modo i disegni sulla striscia posta intorno alla circonferenza interna del cilindro si riflettevano
negli specchi, ciascuno dei quali, ruotando, lasciava cogliere all'occhio un'immagine alla volta". In
seguito progettò il prassinoscopio-teatro, inserito in una speciale scatola fatta su misura.
"Le figure in movimento venivano viste attraverso un vetro, incorniciato in un piccolo proscenio. Il vetro
rifletteva l'immagine di una scenografia teatrale in modo tale da far apparire sovrapposte alla scenografia
le immagini in movimento". (dalla Guida alla Mostra “La magia dell’immagine” - Macchine e spettacoli
prima dei Lumière nelle Collezioni del Museo Nazionale del Cinema - Torino, Palazzina della Società
Promotrice delle Belle Arti, Parco del Valentino, 8 novembre 1996 - 31 marzo 1997) Tratto da:
http://www.pavonerisorse.to.it/museocinema/prassi.htm
7
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 178-183
4
semplici lavori. Poi venne il CAD (computer-aided design), un sistema creato per il
disegno tecnico al computer.
In seguito, un tecnico del MIT (Massachuttes Institute of Technology), Ivan
Sutherland, creò il primo programma di grafica computerizzata con cui si poteva
disegnare attraverso il collegamento di un display (tubo catodico) al computer: lo
Sketchpad (1962), e con esso produsse un film avente lo stesso nome.8
Questo sistema permetteva di tracciare disegni bidimensionali lineari e
monocromatici, simili ai grafici dei primi schermi radar, però era un sistema molto
lento e complesso, dove era necessario istruire il computer punto per punto per riuscire
a tracciare una linea.
A quel tempo, le ricerche su questa nuova tecnologia erano finanziate da vari enti
governativi degli USA, che intendevano sfruttarla per simulazioni di volo spaziale e per
lo sviluppo della tecnologia aerea militare.
Alla metà degli anni sessanta fu introdotta la penna ottica, più pratica e veloce, con
cui si può tracciare una linea su una tavoletta e vederla sul display. La penna ottica è
basata su un sistema grafico vettoriale. Ulteriori sperimentazioni vennero condotte al
MIT, ai Bell Laboratories e all'università dello Utah.
Agli inizi degli anni settanta si potevano tracciare immagini al computer tramite
vettori grafici; questo sistema era assai limitato dal punto di vista della resa dei colori e
delle sfumature, anche se potenziato dai frame buffers, una forma di memoria video
digitalizzata che contiene informazioni su ogni pixel che forma un'immagine video.
Questo consentì ai programmatori di pensare alla CGI come aree di sfumature di
colore, invece che come vettori lineari. Questa forma di CGI è chiamata Raster
Graphic, e fu sperimentata da società come la Magi/Syntavision fin dal 1973 per
commercials televisivi.
Robert Abel fondò nel 1971 assieme a Con Pederson la Robert Abel & Associates,
introducendo nel 1972 un software basato su grafica vettoriale (Grafica Wire Frame)
per creare gli animatics, cioè gli storyboard animati.
Con la grafica vettoriale si ottengono delle immagini composte solo da linee, e che
quindi risultano vuote.
Oggi ci sono tre sistemi per ottenere immagini tridimensionali usando il computer:
8
Ettore Pasculli, Il cinema dell'ingegno, Milano, Mazzotta, 1990, pp.221-240.
5
- la memoria del computer contiene informazioni relative a forme tradizionali di
base (coni, sfere, cubi), e l'oggetto viene costruito attraverso forme geometriche.
Sistema della Magi/Syntavision.
- si prepara un disegno schematico dell'oggetto, inserendo le sue coordinate nella
memoria del computer, e poi si costruisce la forma con migliaia di piccoli poligoni.
Spesso i bordi di queste figure solide non sono uniformi, e questo fenomeno detto
aliasing, può essere corretto successivamente. Una volta costruito l'oggetto, gli si
addizionano riflessi e trasparenze.
- si applica il modello procedurale, cioè un metodo in cui le immagini in movimento
vengono create dal computer tramite specifiche equazioni o algoritmi. Il computer crea
le forme non tramite punti, ma tramite particelle, di cui vengono fissati determinati
parametri (colore, aspetto, peso, elasticità, velocità, durata di vita, etc.). Un esempio è
quello dei Frattali, calcoli matematici che permettono di rappresentare forme naturali
irregolari come montagne, alberi, fumo, etc.
Il primo periodo della computer grafica, negli anni sessanta, fu caratterizzato da
un'intensa sperimentazione linguistico-estetica: Ken Knowlton creò il BEFLIX, un
programma per generare immagini a mosaico attraverso una serie di punti con varie
gradazioni di grigio; Micheal Knoll creò i primi film stereoscopici costruiti su regole
matematiche; Larry Cuba, John Whitney e Stan Vanderbeek si dedicarono ai film
astratti.
Negli anni settanta prende avvio l'industria informatica: La Apple di Wozniak e
Jobs nasce nel 1976, come anche la Microsoft di Bill Gates. C'è sempre una maggior
ricerca di realismo, accompagnata dall'evoluzione della tecnologia.
Nel 1981 arrivano i primi videogiochi: Pac-Man della Namco e Mario della
Nintendo.
Nascono le prime fiere del settore: nel 1974 apre i battenti il Siggraph negli USA, e
nel 1982 nasce il festival Imagina a Montecarlo. Jaron Lanier lancia le ricerche sulla
realtà virtuale nel 1985 con VPL, e Myron Krueger lancia Videoplace, un mondo
interattivo digitale.
6
A cavallo tra anni settanta e anni ottanta, la tecnologia aveva fatto notevoli
progressi, ma il computer rimaneva sempre uno strumento scomodo perchè non si
riusciva a produrre forme morbide e movimenti fluidi, come avveniva nell'animazione
tradizionale: l'animazione al computer produceva forme geometriche rigide, il lavoro
doveva essere svolto a contatto con i tecnici e richiedeva computer potenti e grandi
risorse finanziarie.
Nel 1975 Benoit Mandelbrot scrive un libro, A theory of fractal set, dove espone la
sua teoria: i calcoli frattali possono servire per rappresentare paesaggi. Queste teorie
trovano un'applicazione nel primo film della Pixar (ex Lucasfilm): Andrè and Wally B
di John Lasseter (1984), dove viene usata l'animazione tridimensionale al computer
adattata al "carattere animato" (Character Animation), e quindi i personaggi animati
subiscono anche schiacciamenti e deformazioni espressive. Per "Character Animation"
si intende l'infusione di movimento e vita apparente in figurine disegnate o modellate. I
personaggi sono una folla di "Caratteri" avente ognuno una serie di caratteristiche
immediatamente riconoscibili. Nel seguente lavoro di John Lasseter, Luxo Jr (1986),
delle lampade da tavolo prendono vita. John Lasseter introduce nel campo
dell'animazione digitale la regia cinematografica, quindi fa uso di inquadrature variate e
tagli di montaggio significante, riscoprendo il valore essenziale della narrazione. A
questo proposito scrive Riccardo Rizzo: "Domandiamoci cosa renda quelle lampade
così simpatiche, comunicative, uniche. A parte le movenze, sicuramente ben studiate,
Luxo ha un'espressione: … è sinceramente affranto quando il pallone piccolo si
sgonfia… ma le lampade da tavolo non hanno nemmeno una faccia…La postura e i
movimenti ci aiutano, e la mancanza totale di una faccia è stata riempita da noi che
osserviamo la scena e i personaggi."9
Fig 4) PacMan. Fonte: http://www.80smusiclyrics.com/games/pacman/pac.jpg
Fig 5) Luxo Jr. Fonte: http://spider.alleg.edu/dept/art/composition/illus/illus6.11.jpg
9
Riccardo Rizzo, "Linguaggio dei cartoon e grafica computerizzata", in Computer Graphics & Publishing,
n.4, lug-ago 2001, p.18.
7
Negli anni settanta viene sperimentata anche l'applicazione del calcolatore
elettronico all'animazione.
Nel 1987 Nadia Magnenat-Thalmann e Daniel Thalmann tentano di ricreare due
attori virtuali: Marilyn e Humphrey Bogart, ma la strada verso la perfezione nella
verosimiglianza della figura umana è ancora lunga.
Il primo lungometraggio che utilizza immagini digitali in grafica 3D è Tron(1982)
della Disney.
Dalla fine degli anni ottanta esplode l'uso di grafica computerizzata per effetti
speciali di film, e quindi c'è una maggior tendenza verso il realismo.
Nel 1986 nasce la Softimages di Daniel Langlois, una società che sviluppa software
per effetti speciali. Negli stessi anni nasce il dipartimento di computer grafica della
Disney (gli Studios di Burbank), ma solo con Toy Story di John Lasseter (1995) la
Disney realizza in collaborazione con la Pixar, il primo lungometraggio totalmente
sintetico.
Il primo film con effetti speciali digitali è Star Wars del 1977. In quell'anno George
Lucas fondò la Industrial Light+Magic (ILM), proprio per sperimentare l'introduzione
delle immagini di sintesi all'interno del suo film.
Da allora sono nati i nuovi studios di Hollywood: la Digital Domain di James
Cameron e la Dreamworks di Steven Spielberg.
Nel frattempo è nata all'interno della Industrial Light+Magic la Pixar Animation
Studios, specializzata nel campo del cinema d'animazione. La Pixar sperimenterà le
immagini di sintesi nei cortometraggi di John Lasseter.
Naturalmente bisogna notare che lo sviluppo dell'animazione al computer è legata
all'evoluzione della tecnologia, sia software (programmi), che hardware (macchine), e
col tempo i mezzi tecnologici diventano sempre più economici, tanto da permetterne
l'uso anche agli animatori tradizionali, che finalmente possono lavorare con questi
sistemi nel loro studio.
8
Dagli anni ottanta - novanta in poi, lo sviluppo della tecnologia ha permesso di
ottenere effetti sorprendentemente realistici, grazie ad un rendering (resa delle
superfici) tendente alla simulazione del realismo, tant'è vero che per la società di
produzione di effetti speciali di James Cameron, la Digital Domain (fondata nel 1983),
si è parlato di fotorealismo digitale.10
Oggi l'esasperazione del realismo sembra essersi ridimensionata, mentre “acquista
notevole rilievo la qualità narratologica della storia raccontata (le modalità narrative, la
drammaturgia, il montaggio, ecc.).”11
Da Luxo Jr. di John Lasseter in poi, sembra che i tecnici creativi delle immagini
digitali abbiano compreso che gli effetti strabilianti che la CGI può realizzare da soli
non bastano: è la storia che conta, la narrazione e le modalità narrative sono il pilastro
fondamentale di ogni lavoro relativo alla Computer Animation.
1.1 Cosa significa animare
Animare è un processo complesso, le cui fasi sono state sviluppate e perfezionate
negli anni da artigiani e industrie. In un’animazione troviamo una scena ed alcuni
personaggi. Questi elementi sono il risultato della modellazione a cui dedicheremo un
capitolo più avanti. Con scena intendiamo il luogo, reale o immaginario, in cui avviene
l’azione, mentre i “personaggi” sono tutti gli elementi della scena che concorrono
all’animazione. Ogni elemento dell’animazione incluse le sorgenti di luce, i punti di
vista, le dimensioni, i colori, le ombre, va dotato di un movimento, inteso come
variazione di un parametro (es: lo spostamento di un oggetto in una scena è la
variazione di del parametro di posizione).
Una volta quindi individuati e modellati i personaggi e gli oggetti dell’animazione,
occorre renderne percepibile il movimento, generando una sequenza di pose di
10
Cfr. Ferruccio Giromini, Maria Grazia Mattei, "Il Cinema Digitale", in Computer Animation Stories,
Roma, Mare Nero, 1998.
11
Pier Luigi Capucci, Realtà del virtuale, cit., p.58.
Tratto
da:
02/shrek/storia_computer_animation.html
http://www.noemalab.org/sections/specials/tetcm/2001-
9
fotogrammi, nella quale sia espressa visivamente l’energia del movimento, le cui linee
di forza possono essere tracciate o immaginate durante la fase di progettazione
dell’animazione.
1.2 Dall’animazione 2D all’animazione 3D
L’animazione bidimensionale prima dell’era informatica ha una storia ricca di
tecniche e di produzioni, che si è sviluppata fino ad assumere la forma di un’industria
ben strutturata, dotata di figure professionali particolari e che segue fasi di lavorazione
precise, che possono essere riassunte in una sequenza: soggetto/sceneggiatura,
personaggi, storyboard, rullo di prova, animazione, operazioni conclusive.
L’ingresso dell’informatica nel mondo dell’animazione 2D ha portato più di
un’innovazione tecnologica che progettuale. I programmi utilizzati si inseriscono nella
fase dell’animazione, lasciando inalterate le fasi di stesura del soggetto, dello
storyboard e della progettazione dei personaggi.
Il metodo per produrre animazione bidimensionale a computer vede la creazione ed
elaborazione di ogni fotogramma dell’animazione con tecnologie informatiche e quindi
montaggio dell’animazione. Un esempio classico di elaborazione è il chrome key,12
molto utilizzato negli effetti speciali per cinema e televisione. Questa tecnica nasce
dall’esigenza di sovrapporre parti di due o più animazioni di provenienza diversa, in
una sorta di fotomontaggio animato che sfrutta le trasparenze.
Le applicazioni di questa tecnica sono numerosissime e possiamo osservarle
quotidianamente in televisione durante telegiornali e spettacoli di vario tipo, o al
cinema, in cui sono largamente diffuse. Ricordiamo alcuni esempi. I fantasmi di
Ghostbusters II; L’inseguimento su skateboard volante in Ritorno al Futuro III;
numerose scene in La Morte ti fa bella; Forrest Gump (tra cui la famosa stretta di mano
con Kennedy), Matrix e Star War – Episodio 1.
12
Chrome key: Il chrome key permette di unire due sorgenti video, sfruttando un particolare colore
(appunto il "colore chiave") per segnalare alla consolle video quale sorgente usare in un dato momento:
supponendo di avere un video di sfondo e il video di un presentatore che si muove su uno sfondo
uniforme di colore chiave, la consolle video trasmetterà in uscita il video del presentatore soltanto nei
punti con un colore diverso dalla chiave: nei punti del video in cui c'è il colore chiave, invece, la
consolle userà il video di sfondo. In altre parole, il colore chiave viene interpretato dalla consolle video
come "trasparente". La tecnica del chroma key ebbe una prima versione con il Blue Back (alle scene con
gli attori venivano integrate scene girate altrove). Viene realizzata attualmente tramite il cosiddetto
Green screen (in precedenza Blue screen, derivazione del Blue Back). Tratto da:
http://it.wikipedia.org/wiki/Chroma_key
10
11
2. Modellazione
Prima
di
addentrarci
nell’analisi
è
necessario
soffermarsi
sull’origine
dell’animazione. Oggetti e personaggi di una scena infatti sono il frutto dell’operazione
di modellazione.
2.1 Modellazione nel piano
Alla base di ogni elemento troviamo i metodi della modellazione geometrica. Nella
geometria euclidea gli oggetti fondamentali sono punti, linee e piani.
I punti possono essere definiti con una coppia di coordinate. Generalmente si usano
x per l’asse orizzontale ed y per l’asse verticale. Le linee congiungendo i punti
permettono di determinare le proprietà dei punti che si utilizzano per tracciarle. Le
coordinate geometriche di un punto ne individuano la posizione nel piano rispetto ad un
sistema di riferimento scelto liberamente.
Una forma geometrica nel piano può essere raffigurata come una serie di segmenti,
alcuni con gli estremi in comune; in questo modo possiamo costruire dei segmenti e
delle spezzate. Altre forme possono essere descritte con delle funzioni oppure secondo i
metodi della geometria costruttiva, come “luoghi di punti”. I luoghi di punti sono, ad
esempio, circonferenze, rette…: per tracciarli occorre conoscere la proprietà e costruire
delle spezzate, più o meno accurate, che congiungono i punti che soddisfano la
proprietà scelta.
Emergono quindi due questioni: per disegnare forme con l’aiuto dell’elaboratore è
necessario in primo luogo conoscere una serie di punti significativi e, successivamente,
congiungerli per creare segmenti, con i quali potremo disegnare poligoni, funzioni o
curve con determinate proprietà geometriche e con il grado di accuratezza che
desideriamo. La seconda questione riguarda il problema di come trasformare la
conoscenza delle coordinate geometriche dei punti e dei segmenti, in conoscenza
relativa alla posizione materiale della penna meccanica sul foglio di lavoro – o di quel
pixel sullo schermo debba venire attivato per raffigurare il pixel o il segmento.
In ogni caso, questa metodologia è il pilastro della modellazione geometrica per la
creazione di immagini sintetiche.
Gli elementi del disegno sono organizzati in oggetti, ogni oggetto è composto da
segmenti e ogni segmento da una coppia di vertici: qualche segmento può avere vertici
12
in comune con altri segmenti e qualche oggetto può avere segmenti in comune con altri
oggetti. In questo modo si evitano duplicazioni di informazione.
2.1.1 Rasterizzazione
Gli elementi geometrici sono anche chiamati primitive grafiche perché possono
essere direttamente tracciati sullo schermo sfruttando operazioni elementari. Il
procedimento che permette di raffigurare queste primitive viene chiamato
rasterizzazione13 o scan conversione. Il problema da risolvere consiste nel decidere
quali pixel devono essere attivati per raffigurare un segmento (Es: Dato un segmento
tracciato obliquamente è necessario stabilire quali pixel vanno attivati per continuare
a tracciare il segmento). Il procedimento quindi consiste nel valutare quali variabili è
opportuno attivare. I criteri di decisione sono molti, il più usato è quello di J.E.
Bresenham. Consiste nel valutare se il punto ha superato la mezzeria tra la linea
superiore e quella inferiore. Questo metodo evita calcoli inutili ed il risultato sarà che al
variare della pendenza, segmenti di uguale lunghezza avranno una densità di pixel
variabile. In conseguenza di ciò le linee di diversa pendenza avranno luminosità
diverse: massima per le verticali e le orizzontali e minima per quelle di 45°. Una
tecnica per attenuare l’effetto seghettato delle linee più pendenti è quello di ricorrere
all’anti-aliasing14
13
Rasterizzazione: La rasterizzazione è il lavoro di convertire un’immagine bidimensionale descritta da
vettori (in grafica vettoriale), in un’immagine raster o bitmap, ovvero formata da pixels. Questo lavoro è
effettuato sia per ottenere un’immagine proiettabile su dispositivi video, come i monitors, sia per la
stampa. Tratto da: http://it.wikipedia.org/wiki/ Rasterizzazione
14
Anti-aliasing: L'antialiasing (delle volte abbraviato con AA) è una tecnica per ridurre l'effetto aliasing
(scalettamento) quando un segnale ad alta risoluzione viene mostrato a bassa risoluzione. L'antialiansing
ammorbidisce le linee smussando i bordi e omogeneizzando l'immagine. Tratto da:
http://it.wikipedia.org/wiki/Antialiasing
Fig 5) Fonte: http://rhein-zeitung.de/on/98/09/17/magazin/news/gump_kennedy.jpg
Fig 6) Fonte: http://www.richleader.com/images/Pulse/bargainbin/bargain_bin_review/anti-aliasing.png
13
2.1.2 Clipping
Il clipping è il procedimento che risolve il problema di mostrare o stampare
porzioni di un disegno che cadono al di fuori dell’area scelta. Per risolvere ciò si
suddivide il piano in 5 regioni, di cui una è l’area di disegno stessa e le altre quattro
sono i semi piani esterni, delimitati dalle quattro rette che passano per i contorni
dell’area di disegno, che chiamiamo finestra. Il clipping classifica ogni punto di ogni
segmento rispetto a queste rette, decidendo a quale semipiano appartiene. Questo
metodo è molto efficiente poiché non richiede calcoli complessi.
2.1.3 Trasformazioni
Una volta disegnato l’oggetto, può essere utile e necessario eseguire alcune
modifiche su di esso. Le modifiche vengono chiamate trasformazioni geometriche e
sono: la traslazione, la rotazione e la trasformazione di scala.
-
per traslare un punto o un’intera figura basta sommare alle coordinate di ogni punto la
quantità desiderata e ridisegnare l’intera figura.
-
per trasformare in scala è necessario invece moltiplicare o dividere la figura o solo
una sua parte
-
per la rotazione invece è obbligatorio traslare la figura all’origine del sistema di
riferimento, ruotarlo a nostro piacimento modificando le variabili angolari e traslandolo
nuovamente nella posizione di partenza o un’altra posizione.
14
Esistono poi le trasformazioni anamorfiche che considerano il piano come un
insieme infinito di punti posti in corrispondenza di numeri complessi traendo il
vantaggio di semplicità, eleganza e maggiore varianza.
Tra le trasformazioni anamorfiche troviamo le trasformazioni di Möbius chiamate
anche trasformazioni omografiche.
Altra tecnica di trasformazione interessante e di notevole rilevanza è il morphing
ovvero la deformazione. Un esempio di questa tecnica si incontra in numerosi effetti
speciali del cinema di intrattenimento, ricordiamo ad esempio il braccio dell’androide
trasformato in una lama d’acciaio nel film Terminator 2.15
2.2 Modellazione nello spazio
I concetti che abbiamo appena visto si possono generalizzare allo spazio
tridimensionale nel quale sono descritte forme geometriche che rappresentano superfici
non piane e volumi complessi. Anche in questo caso la primitiva di base è il punto,
descritto ora da 3 coordinate reali x, y, z e ancora troviamo la primitiva segmento
composta da due punti in relazione tra loro.
Una scena è composta da un insieme di oggetti di forma poliedrica, ovvero costituiti
da facce piane. Queste sono le figure più semplici che possiamo costruire con un
sistema grafico. Un poliedro permette di rappresentare con una buona approssimazione
anche oggetti costruiti da superfici curve (sfere, cilindri ecc.). Gli oggetti possono
essere pieni o privi di alcune facce, e in tal caso la struttura che abbiamo definito poco
Fig
6)
Terminator
2.
The
http://www.gruponemesis.com/fx/efect/morph/morph02.jpg
15
Judgement
Day.
Fonte:
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 64-80
15
sopra contiene tutta l’informazione necessaria a decidere se ci troviamo di fronte a un
volume pieno oppure no.
La forma di rappresentazione più semplice che si adotta per descrivere modelli
geometrici solidi è il triangolo. Descrivere infatti un solido attraverso la triangolazione
o tassellazione, comporta un vantaggio importante: poiché per tre punti nello spazio
passa uno e un solo piano, una faccia triangolare definita dai suoi tre vertici evita il
rischio di creare facce non piane. Se le facce fossero descritte con dei quadrangoli non
avremmo la certezza che i loro quattro vertici giacciano tutti su un medesimo piano.
Il problema sta nell’individuare il giusto numero di triangoli. L’accuratezza di
descrizione dell’oggetto cresce aumentando il numero dei triangoli. Se però il numero
cresce eccessivamente, la complessità di calcolo necessaria ad elaborare la figura
diventa intollerabile. Occorre quindi trovare un equilibrio tra accuratezza ed
efficienza.16
2.2.1 Schemi di rappresentazione
Il principale metodo di costruzione di modelli geometrici tridimensionali si fonda su
un’approssimazione poliedrica delle superfici. La conoscenza accurata della superficie
dei modelli geometrici è indispensabile affinché questi siano visualizzati con sufficiente
realismo visivo e con sufficiente efficienza, giungendo persino ad una visualizzazione
che può essere modificata in tempo reale.
Dal punto di vista matematico gli schemi di rappresentazione per le superfici sono
di due classi: i poliedri e le superfici parametriche.
2.2.2 Poliedri
Un poliedro è uno schema di rappresentazione molto appropriato per rappresentare
oggetti composti da superfici piane, ad esempio una stanza o un edificio. Indispensabile
è la scelta del piano di lavoro poiché occorre indicare al programma su quale piano si
sta operando. Nella modellazione 3D si adottano almeno tre piani principali che si
identificano come i piani associati al sistema di riferimento principale.
Sulle facce degli oggetti costruiti in questo modo si possono applicare le
trasformazioni di traslazione, rotazione o scala per spostarli, ruotarli e rilasciarli nel
16
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 86-89
16
modo desiderato e rispetto al piano di lavoro scelto. Un insieme di oggetti è chiamato
volume. Per costruire un volume è necessario aggregare gli oggetti selezionandoli e
costruendo con quell’insieme un oggetto con un determinato nome e con determinate
proprietà.
2.2.3 Superfici Parametriche
In lingua inglese per denotare queste forme si usa il termine spline che in italiano
significa dima o sagoma. Si tratta dello strumento che i disegnatori chiamano curvilineo
e che permette di tracciare curve con raggio variabile mettendo insieme diversi tratti.
Negli anni ‘60 P.Bézier riprese questi concetti per sviluppare un metodo innovativo
per il disegno di carrozzerie di autoveicoli, un metodo che prese il suo nome: curve e
superfici di Bézier. Alla base del metodo di Bézier si trovano due esigenze e un’idea.
La prima esigenza è che la curva deve poter essere descritta matematicamente in modo
da poter calcolare le coordinate spaziali di ogni punto su di essa; la seconda esigenza è
che la curva deve poter essere modificata liberamente, conservando però alcune
proprietà fondamentali: deve essere smussata e dev’essere continua, ovvero priva
d’interruzioni. L’idea è che una linea curva nello spazio può essere controllata con
pochi punti, per cui modificando questi pochi punti si modifica l’aspetto generale della
curva.
Il limite principale di questo metodo è che le funzioni parametriche di Bézier così
costruite permettono di disegnare curve aperte e non consentono di disegnare l’infinita
varietà di forme che desideriamo. Per fare ciò esiste una condizione: che il punto finale
di una curva coincida con il punto iniziale della successiva.
17
Anche per le superfici di Bézier valgono le proprietà delle curve: continuità,
smussatezza, tangenza agli estremi. Modificando la posizione dei punti di controllo
modifichiamo la forma della superficie.
Un’importante generalizzazione delle curve sono le NURBS (Non Uniforms
Rational B_Splines), adottate in tutti i più moderni sistemi di modellazione geometrica
sia per il CAD (Computer Aided Design), sia per applicazioni creative. Attraverso le
NURBS possiamo modificare anche i pesi delle varie funzioni accrescendo la libertà e
la flessibilità della modellazione.17
Anche per le superfici NURBS esistono diversi approcci e uno dei più utilizzati è
l’unione di patch. Le patch sono superfici NURBS quadrangolari che in successione
vengono agganciate fino ad ottenere la forma desiderata. Uno dei grandi vantaggi delle
superfici parametriche è la possibilità di decidere l’accuratezza geometrica nella fase di
rendering.
17
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 96-102
Fig 7) Superfici Parametriche. Fonte: http://psycho.usr.dsi.unimi.it/~spa/corso9798/f513a.gif
Fig 8) NURBS. Fonte: http://www.etereaestudios.com/worksweb/tutankhamon/tutankh_nurbs.jpg
18
2.2.4 Costruzione di superfici per trascinamento
Un vasaio dà forma al vaso facendo ruotare attorno a un asse la massa di creta e
modellandola con le mani o con sagome di legno: le mani e le sagome di legno
generano curve che possiamo approssimare con curve di Bézier; la rotazione genera
una superficie trascinando per rotazione sia i punti di controllo del poligono iniziale sia
qualunque punto sulla curva. Questa tecnica è chiamata sweep (trascinamento) di
rotazione, e permette di creare forme dotate di simmetria assiale, come appunto un
vaso.18 In pratica, occorre disegnare la sezione (profilo) del modello, scegliere l’asse
attorno al quale la sezione dovrà essere interpolata e i gradi di rotazione.
Il lofting invece, consente di interpolare fra loro un numero arbitrario di sezioni e
può essere usato per ottenere una qualsiasi forma tridimensionale.19 Il “metodo loft”
può risultare comodo per costruire ad esempio una piramide, dove ogni strato è una
sezione che verrà poi interpolata computazionalmente dal software per dargli l’aspetto
solido e non più piano.
2.2.5 Superfici di Suddivisione
Le superfici di suddivisione (suddivision surface) stanno per diventare lo standard
nell’ambito dei film d’animazione 3D e degli effetti speciali. Esistono differenti
18
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 103-104
19
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 140
Fig 9) Trascinamento. Fonte: http://www.tipus.uniroma3.it/DCaad/CAAD-04/lezCAAD_LS/immagini/sweep.jpg
19
tipologie di superfici di suddivisione ma la più diffusa è la Catmull-Clark, ideata nel
1978 con l’estensione di Tony D.DeRose del 1998.
Ed Catmull è stato uno dei fondatori della Pixar e dal 2001 ne è presidente.
Superfici Catmull-Clark sono state testate in produzione per la prima volta nel
cortometraggio Geri’s Game20 prodotto dalla Pixar e successivamente usate nel film A
Bug’s Life (A Bug’s Life: megaminimondo) prodotto da Disney/Pixar nel 1998.
Pur essendo matematicamente differenti sia dai poligoni che dalle superfici
parametriche, uniscono il vantaggio della flessibilità d’uso dei poligono con la
precisione delle NURBS. Inoltre queste superfici possono essere generate da una forma
poligonale arbitraria ed è possibile definire per ogni spigolo della geometria il grado di
smussatura. Per il modellatore, l’approccio è identico alla modellazione per poligoni.21
2.3 Modelli Avanzati
È possibile creare modelli geometrici, piani o spaziali non solo con metodi
interattivi o per conversione tra schemi di rappresentazione, ma anche con metodi
matematici, tra i quali un ruolo di grande rilievo hanno i frattali. I modelli geometrici,
infatti, possono anche essere il risultato del calcolo di modelli matematici di processi
chimici, fisici, biologici. In questi ultimi casi spesso la rappresentazione geometrica ha
20
Al Siggraph '98, la Pixar inaugurò un cortometraggio intitolato Christened Geri’s
Game, che vinse l’Academy Award ed ebbe numerosi riconoscimenti "la storia di un anziano un poco
strambo, a cui piace giocare a scacchi nel parco contro se stesso". Tale cortometraggio non fu solo
artisticamente sbalorditivo, ma era anche tecnologicamente avanzato. Il filmato servì come veicolo per
dimostrare l’evoluzione della Pixar nella realizzazione di particolari superfici basate su schemi conosciuti
come subdivision surfaces. Tratto da: http://www.visingenii.com/pagine/varie/subsurf/sub.htm
Fig 10) Geri’s Games. Fonte: http://visindavefur.hi.is/myndir/geris_game_110103.jpg
21
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 142
20
un valore metaforico in quanto mezzo di rappresentazione intermedio a un processo di
raffigurazione, chiamato visualizzazione scientifica.
2.3.1 Modelli frattali
Negli Anni ’80 fecero grande impressione immagini create studiando il
comportamento di particolari trasformazioni nel piano dal punto di vista grafico-visivo,
tra cui l’insieme di Mandelbrot, studiato da B.B. Mandelbrot come soluzione di
un’applicazione ripetuta di una trasformazione quadratica dal piano complesso.22
I frattali erano già noti ai matematici intorno al ventesimo secolo, ma solo nel 1982
Benoit Mandelbrot, ricercatore dell’IBM, pubblicò un libro dal titolo Fractal Geometry
of Nature e introdusse così il legame tra i frattali e una descrizione matematica di forme
naturali.
Successivamente altri matematici e programmatori pubblicarono testi e scrissero
software che aumentavano le possibili applicazioni, nel 1993 venne presentato il
software MojoWorld.
Un frattale può essere descritto in diversi modi: un oggetto complesso, la cui
complessità deriva dalla ripetizione di una forma a scale differenti, o una forma
geometrica che è ripetuta a differenti scale per ricreare una nuova forma o superficie
che non può essere rappresentata da una classica geometria. Questa ripetizione è
chiamata self-similary. Un frattale è infatti simile, in scale diverse, alla sua forma
originale; per questa caratteristica di scalabilità i frattali sono impiegati per la
simulazione di forme naturali. Se infatti pensiamo ad una fotografia di una roccia, è
possibile non capirne le dimensioni reali e confondere la porzione di una parete di una
montagna con la superficie di un sasso. Anche alcuni fenomeni celesti, come le
galassie, possono apparire di forma del tutto simile a una nuvola di fumo di pochi
centimetri.23
22
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 134
23
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 145-146
Fig 11) Frattali. Fonte: http://www.marcostefanelli.com/subliminale/mandelbrot.jpg
21
I frattali, inventati da B. Mandelbrot nel 1975, costituiscono una categoria di
modelli geometrici molto particolare: come già detto, hanno la caratteristica di poter
rappresentare con grande accuratezza forme naturali, come il profilo di montagne, le
coste di un’isola, la distribuzione di rami di un albero. Alcune di queste forme hanno
caratteristiche casuali, altre corrispondono a leggi e proprietà regolari; tutte hanno però
in comune almeno una delle proprietà fondamentali dei frattali: l’autosomiglianza e
l’erraticità. Il nome stesso, ideato da Mandelbrot, derivato dal latino fractum, indica il
carattere di elevata frastagliatezza di queste forme.
L’autosomiglianza è la proprietà che possiede ad esempio una foglia di felce,
composta da elementi che riproducono l’intera foglia nel suo insieme e così via fino a
un limite determinato. Autosimile, dal punto di vista matematico, significa che una
struttura geometrica è simile a se stessa o a parti di sé a meno di una trasformazione di
scala. In altre parole, se ingrandiamo o rimpiccioliamo una forma frattale ritroviamo nei
particolari, o nell’insieme, la medesima forma.
Frattali nel piano
Un esempio classico di forma autosimile è la curva di Von Kock, una spezzata
costruita in modo che ogni suo segmento riproduca l’intera spezzata ad ogni ardine di
scala possibile.
22
L’erraticità è una proprietà più complessa da descrivere; indica in che misura la
forma varia le proprie caratteristiche, se lo fa in modo più o meno casuale e se tale
variazione è più o meno evidente. Per appoggiare l’intuizione, pensiamo al profilo di
una montagna o al profilo di una collina: il primo, di solito, è molto più irregolare del
secondo. Le colline sono smussate e hanno profili morbidi, le montagne alternano
guglie a valli alte e profonde. Diciamo che il profilo collinare è meno erratico di quello
montano.
Questa proprietà può essere caratterizzata matematicamente con grande precisione,
ed è legata alla dimensione frattale della superficie o della forma che stiamo
considerando. Per dimensione in generale intendiamo il numero di gradi di libertà o di
variabili indipendenti necessarie ad individuare ogni punto nell’insieme considerato. Se
si tratta di una linea sarà sufficiente una variabile, per una superficie avremo bisogno di
due variabili, per un volume ne occorreranno tre. Questa nozione di dimensione dà
origine a valori strettamente interi: 1,2 o 3 rispettivamente.
Nel caso di forme frattali ci troviamo di fronte a una dimensione che non è intera,
ma assume un valore frazionario; in altre parole: per caratterizzare pienamente
l’erraticità di un frattale è necessario un numero di gradi di libertà non intero,
frazionario, e quindi una dimensione non intera.
Supponiamo di avere una superficie che modifichiamo progressivamente
cambiando l’altezza di una serie di punti scelti a caso e con valori molto variabili.
All’inizio la superficie è molto smussata, dopo un poco incominciano ad apparire picchi
e valli sempre più ripidi e più fitti, fino ad arrivare ad un punto in cui non si riconosce
più una superficie ma un volume completamente pieno di picchi e valli. In questo caso,
per individuare la posizione di un punto, all’inizio ci bastano due coordinate, ma alla
fine ne abbiamo bisogno di tre, in quanto il fitto alternarsi di picchi e valli ha
interamente riempito il volume. In questo procedimento ci troviamo a un certo punto a
23
metà strada tra una dimensione a 2 e una dimensione a 3, con una dimensione non
intera: siamo quindi in presenza di un frattale.
Superfici frattali
La situazione è un po’ diversa se abbiamo a che fare con superfici anziché con
curve. In generale le forme frattali si prestano molto bene, come detto, per
rappresentare superfici naturali, paesaggi, piante ecc. per un modello del terreno si usa
creare un DEM, Digital Elevation Model, ovvero una superficie poliedrica, in generale
a facce triangolari, in cui ogni vertice ha una determinata altezza sul livello del mare.
Un modello geometrico di questo genere può essere approssimato da un frattale, pur di
conoscerne la dimensione non intera, che ne determina il grado di erraticità.
Supponiamo di voler approssimare in modo frattale i dati di elevazione di una zona
di terreno nota; dobbiamo prima di tutto calcolarne la dimensione frattale ricorrendo a
una stima approssimata. Un modo per approssimare la dimensione frattale è la
dimensione del box counting. Supponiamo di voler ricoprire la superficie con tante
scatole via via più piccole che la racchiudono in ogni punto (questo procedimento
equivale, in due dimensioni, a inseguire un contorno con un righello misurandone ogni
tratto e sommando i risultati così ottenuti).
Una volta nota la dimensione del frattale, possiamo utilizzarla per modificare i dati
originari del modello del terreno costringendolo ad avere un’erraticità corrispondente
alla dimensione frattale appena stimata. Questo passaggio si compie in molti modi, il
più semplice è chiamato mid point displacement:
presi due punti contigui del DEM originario si genera un nuovo punto intermedio
tra i due spiazzato rispetto ad essi nelle tre direzioni di una quantità proporzionale alla
dimensione frattale desiderata. Questo procedimento può essere ripetuto più volte per
24
ogni coppia di punti, raffinando così il DEM che approssima in modo frattale il
paesaggio.24
Sistemi di Lindenmeyer
La modellazione è un processo che richiede molto tempo; per ricreare la forma di
un corpo umano attraverso poligoni, NURBS o suddivision surface, il modellatore può
impiegare diversi giorni: dovrà muovere ogni parte della geometria nella posizione
spaziale corretta, e in alcuni casi questo approccio “manuale” può risultare altamente
inefficace. Ad esempio pensare di modellare un albero o un prato con l’ausilio di
poligoni, NURBS o suddivision surface è teoricamente possibile, ma di fatto
impraticabile per questioni di tempo. In questi casi vengono usati sistemi di
modellazione procedurali i quali consentono di modificare la superficie attraverso una
serie di parametri ognuno dei quali è legato a diverse funzioni matematiche.
Uno dei più noti sistemi procedurali per la generazione di elementi naturali è l’Lsystem, dal nome del biologo Aristide Lindenmeyer che nel 1969 lo ideò: l’idea che sta
alla base dell’L-system è la ripetizione di una regola che si modifica ad ogni
duplicazione.25
Diamo dell’L-sytem una nozione intuitiva basata sulla cosiddetta geometria della
tartaruga (si immagina una tartaruga che porta legata alla coda una penna che può
alzare e abbassare; la tartaruga può muoversi in avanti o ruotare a destra e a sinistra di
un angolo qualsiasi).
Una qualsiasi curva di Von Kock, può essere descritta, al primo livello, come una
successione di ordini alla tartaruga del tipo: abbassa la penna, avanza di un passo, ruota
a sinistra di 60°, avanza di un passo, ruota a destra di 120°, avanza di un passo, ruota a
sinistra di 60° avanza di un passo. Questa serie di istruzioni può essere codificata con
una sequenza di simboli: con il simbolo F denotiamo il comando “avanza con la penna
abbassata”, con il simbolo f il comando “avanza con la penna alzata”, con il simbolo +
Fig 12) Curva di Von Koch. Fonte: http://www.matematicamente.it/immagini/curva_di_koch.jpg
Fig 13) Mid Point Displacement. Fonte: http://www.lighthouse3d.com/opengl/terrain/mpd5.jpg
24
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 129-136
25
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 142
25
indichiamo il comando “gira a destra di un dato numero di gradi”, con – “gira a sinistra
di un dato numero di gradi”. Con questi simboli gli ordini per tracciare il primo livello
del fiocco di neve sono, supponendo che la rotazione sia di 60°:
F-F++F-F
Per ottenere la curva frattale completa occorre aggiungere una regola che ad ogni
ripetizione sostituisce un simbolo con una nuova sequenza di simboli (che chiamiamo
stringa). Nel nostro caso la regola, indicando con “→” l’operazione di sostituzione,
sarà:
F → F-F++F-F e la lunghezza del passo dovrà essere ridotta di 1/3. Ciò significa
che ogni passo del livello precedente viene sostituito dalla serie di passi base accorciati
opportunamente. Questo procedimento cattura il carattere intrinsecamente ricorsivo che
hanno le forme frattali.
Dal punto di vista matematico, un metodo come quello descritto corrisponde alla
definizione di una grammatica, in cui deve essere presente un assioma, ovvero una
stringa e una regola di produzione, ovvero come deve essere rimpiazzato ogni elemento
della stringa iniziale ad ogni passo di iterazione necessario alla generazione di una
frase. A questo principio si possono aggiungere moltissime varianti: la regola di
produzione può essere applicata sia ad un singolo passo sia ai vertici creati durante
un’iterazione precedente, la rotazione a destra o a sinistra potrebbe essere variabile
secondo qualche regola oppure può essere un valore scelto casualmente durante
l’esecuzione del compito. Si possono inoltre definire più regole di produzione che
sostituiscono ad uno stesso simbolo stringhe diverse secondo una probabilità associata a
ciascuna delle regole, in modo che ad ogni iterazione venga scelta una delle regole di
sostituzione secondo il proprio valore di probabilità.
I risultati che si possono ottenere sono infiniti. Per modellare le ramificazioni di un
albero o di una pianta sarà sufficiente riconoscere la regola generale che sta alla base
del processo di formazione. Lo scheletro della forma così vincolata potrà in seguito
essere “vestito” e abbellito con effetti grafici di maggiore o minore realismo.
Per raffigurare forme nello spazio si possono estendere le regole di produzione alla
terza dimensione, associando trasformazioni di rotazione, traslazione e scala ai vari
passi del procedimento fino ad ottenere una struttura a scheletro tridimensionale
26
completa, che in seguito verrà utilizzata per associare attributi di apparenza visiva che
portano al grado di realismo desiderato.26
Nel 1984 Alvy Ray Smith applicò l’L-system ad un software grafico e, nel 1990,
Lindenmeyer e Prusinkiewicz scrissero un sistema completo di funzioni per la
generazione geometrica di piante, alberi ed erba. Molti altri matematici e sviluppatori
hanno poi contribuito a perfezionare questo sistema aggiungendo sistemi stocastici per i
diversi attributi al fine di simulare con maggiore precisione le forme naturali.
Attualmente tutti i programmi di modellazione 3D implementano moduli per la
modellazione procedurale e alcuni di questi, come il programma Houdini della Side
Effect, consentono l’accesso diretto al linguaggio di programmazione L-system.27
2.4 Modelli solidi
La distinzione tra modelli solidi e modelli “non solidi” è rilevante non solo nel
contesto degli utilizzi tecnico professionali – quali ad esempio il CAD, ma anche per
usi diversi legati, ad esempio, all’intrattenimento, come i videogiochi o le animazioni
cinematografiche. Infatti un modello tridimensionale solido presenta caratteristiche che
interessano maggiormente gli aspetti costruttivi del modello. Se conosciamo anche la
26
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 136-138
27
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p.143
Fig 14) Forma naturali ottenute per mezzo di frattali. Fonte:
http://innovis.cpsc.ucalgary.ca/3DWeb/projects/PlantswithHairs/smallpoppyRendering.jpg
27
struttura interna di un solido siamo infatti in grado di calcolarne proprietà importanti,
quali la massa e il peso, e possiamo calcolarne anche le proprietà dinamiche. La
conoscenza accurata della superficie dei modelli geometrici è indispensabile affinché
questi siano visualizzati con sufficiente realismo visivo e con sufficiente efficienza,
giungendo persino a una visualizzazione che può essere modificata in tempo reale.
Per quanto riguarda i modelli solidi, gli schemi di rappresentazione principali sono
tre: la geometria solida costruttiva, la rappresentazione per contorni e la
rappresentazione per suddivisione spaziale.28
2.4.1 Geometria solida costruttiva - CSG
Il primo schema di rappresentazione di modelli solidi è quello della geometria
solida costruttiva, sinteticamente indicato con la sigla CSG (Contructive Solid
Geometry). In questo approccio le forme vengono costruite a partire da una famiglia di
volumi elementari: parallelepipedo, sfera, cilindro, cono, toro e prisma a base
triangolare. Per poter quindi costruire volumi complessi a partire da volumi elementari
occorre disporre di operazioni per unirle o separarle. Somma, sottrazione e scelta delle
parti comuni corrispondono alle classiche operazioni (booleane) di unione, differenza e
intersezione della teoria degli insiemi.
28
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 105
28
Questo procedimento può essere descritto in modo sintetico con uno schema,
chiamato albero CSG: ad ogni foglia dell’albero corrisponde una forma elementare, ad
ogni nodo corrisponde un’operazione base che unisce due rami, fino a giungere al
tronco dell’albero che individua la forma finale. Un programma di modellazione CSG
conserva al proprio interno una rappresentazione simbolica della forma basata
sull’albero CSG, e il file stesso di modello dovrà conservare queste stesse informazioni.
Il CSG dovrà inoltre consentire al disegnatore di definire ogni singola forma elementare
indicandone i parametri fondamentali; il valore delle tre dimensioni per il
parallelepipedo; il raggio di base e l’altezza per il cilindro e così via. Però ogni oggetto
verrà definito nell’origine del sistema di riferimento assoluto, per posizionare gli
oggetti elementari correttamente il disegnatore dovrà applicare a ciascuno di essi le
trasformazioni di rotazione e di traslazione necessarie.
2.4.2 Rappresentazione per contorno
La rappresentazione per contorno, chiamata anche brep o boundary representation,
descrive un volume a partire dalle facce, dai vertici e dagli spigoli che lo delimitano. È
importante considerare la formula di Eulero:
numero_facce = numero_spigoli – numero_vertici + 2
Se questa relazione non è soddisfatta, quello che crediamo essere un solido in realtà
può essere una scatola priva di una faccia o addirittura una figura inconsistente, con
segmenti o punti isolati che non contribuiscono al contorno di alcuna faccia.
Un solido rappresentato per contorno può essere composto mettendo assieme altri
solidi seguendo la logica della CSG: in tal caso il risultato di un’operazione booleana
tra due solidi rappresentati per contorno consiste in una nuova struttura dati che
contiene nuovi spigoli, nuove facce o nuovi vertici che sono il risultato delle operazioni
di intersezione tra i due volumi.
2.4.3 Suddivisione dello spazio: i voxel
In questo caso si suddivide il volume che contiene l’oggetto che si desidera
modellare in una griglia tridimensionale di posizioni e in ogni posizione si determina la
29
presenza o assenza di materiale. Con questa tecnica possiamo descrivere un volume
composto da materiale uniforme ma anche un volume composto da materiali diversi e
disomogenei; in questo caso ogni cella conterrà un valore numerico che rappresenta, ad
esempio, la densità o il tipo di materiale che essa contiene. Questo elemento di volume
viene chiamato solitamente voxel, ovvero pixel di volume.
Una struttura a voxel può essere costruita in due modi distinti: partendo da una
descrizione geometrica di una forma si può analizzarla variando con un passo regolare
le tre coordinate x, y, z e valutando passo passo se nel punto considerato c’è o non c’è
volume. L’altra modalità consiste nel creare un volume di voxel a partire da un
procedimento di digitalizzazione. Quest’ultimo è il caso relativo alla TAC o alla
risonanza magnetica nucleare (NMR).
L’elaborazione di questi dati consiste in primo luogo nella classificazione dei voxel
ovvero nell’attribuzione a ciascun voxel di una tipologia. Ad esempio nel campo
medico occorre decidere a quale tessuto appartiene un determinato voxel. La scelta del
metodo di classificazione consente di associare a ogni voxel un colore o un grado di
grigio che apparirà nella fase successiva di visualizzazione.
Un problema riguarda l’elevata complessità computazionale della qualità
dell’immagine che si ottiene con queste tecniche di visualizzazione di volumi.
2.4.4 Primitive grafiche per gestire forme poliedriche
Elaborando la geometria tridimensionale con un sistema grafico computazionale
conviene utilizzare primitive grafiche più evolute, che consentono di risolvere con
grande efficienza, e quindi velocità, i procedimenti di visualizzazione delle forme
30
modellate. Si tratta delle strisce di triangoli o delle maglie di quadrilateri (chiamate
mesh), con cui rappresentiamo un poliedro qualsiasi o con cui approssimiamo superfici
curve.
Considerare come primitiva grafica una striscia di triangoli ha interesse soltanto dal
punto di vista computazionale. Il vantaggio consiste nella semplificazione dei calcoli
necessari a raffigurare queste strutture. Innanzi tutto ogni vertice appartiene a due
triangoli, quindi lo dobbiamo registrare una sola volta. In secondo luogo la colorazione
sfumata di una superficie che vogliamo far apparire curva e non spigolosa viene attuata
con maggiore semplicità passando da un triangolo all’altro lungo la striscia. Analoghe
considerazioni valgono per le maglie di quadrilateri.29
2.5 Trasformazioni nello spazio
Una trasformazione è una funzione che trasforma punti (o vettori) nello spazio 3D
in punti (o vettori) sempre nello spazio 3D. Un modo immediato per generalizzare le
traslazioni, rotazioni e trasformazioni di scala dal piano allo spazio 3D potrebbe essere
quello di estenderle semplicemente alla terza coordinata z, tuttavia non permette di
cogliere i vantaggi sopra citati.
Occorre quindi considerare uno spazio a 4 dimensioni, chiamato spazio delle
coordinate omogenee, i cui punti rappresentano i punti 3D, a meno di un fattore si
scala. Per applicare le trasformazioni a un oggetto tridimensionale occorre in primo
luogo convertirne i punti in coordinate omogenee 4D, applicare ad ogni punto, visto
come vettore, le trasformazioni necessarie, ritornare alle coordinate 3D applicando la
divisione di ogni componente con la quarta. Questa sequenza di operazioni costituisce il
nucleo di una sequenza di operazioni via via più complesse che svilupperemo in seguito
e che viene chiamata pipeline di visualizzazione. Il senso di questo nome richiama
l’idea che le operazioni necessarie a visualizzare una scena o un oggetto geometrico
Fig 15) L’immagine esplica chiaramente le tre operazioni booleane riassumibili in unione, intersezione e
differenza. Il primo riquadro in alto a sinistra mostra l’unione tra la sfera verde ed il cubo grigio. La
seconda immagine in alto a destra, mostra invece l’intersezione dei due solidi. Il risultato è
l’eliminazione di tutte le parti non intersecanti tra loro. Nel riquadro in basso a sinistra viene eseguita
l’operazione di differenza della sfera dal cubo mentre nell’ultimo riquadro in basso a destra la differenza
è
svolta
per
opera
del
cubo.
Fonte:
http://www.linuxgraphic.org/section3d/articles/ArticAyamCSG/CSGTV.png
Fig 16) Voxel. Fonte: http://www.effectware.com/download/images/efx_voxel2.jpg
29
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 105-112
31
sono scomponibili in fasi successive e possono essere eseguite in una sequenza
preordinata.
2.5.1 Modellare con le trasformazioni
In generale le trasformazioni necessarie a istanziare più volte un oggetto sono
traslazioni, rotazioni e, qualche volta, trasformazioni di scala. L’ordine con cui le
trasformazioni devono essere eseguite è però importante: prima si esegue la scala, poi
la rotazione e infine la traslazione; essa deve essere lasciata per ultimo allo scopo di
ruotare l’oggetto attorno al proprio centro. Per compiere queste trasformazioni si usano
le matrici.
Un aspetto importante è che le trasformazioni possono essere applicate più volte.
Ciò si rende necessario, ad esempio, quando si desidera trasformare una struttura per
creare un’animazione. Pensiamo ad esempio a una figura come un manichino: ad ogni
istante dell’animazione le braccia, le gambe, la testa, il tronco modificano la loro
posizione mediante rotazioni applicate ai singoli giunti. Queste rotazioni vengono
applicate ad ogni giunto della struttura articolata, perciò la rotazione della mano
avviene in una configurazione che ha già dato luogo alla rotazione del braccio e prima
ancora a quella della spalla. Questa catena di trasformazioni si attua attraverso
successive applicazioni di matrici di rotazione agli elementi della struttura geometrica.
Alla fine di questa catena incontriamo la trasformazione generale che trasla o ruota
l’intera struttura.
Per gestire la catena di informazioni di trasformazioni i programmi di animazione
mantengono memoria delle varie matrici attraverso una struttura che organizza i dati
come una pila di piatti, chiamata stack.30
30
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 112-116
32
3. Animazione Tridimensionale
Anche l’animazione tridimensionale ha una storia, antecedente l’era del computer,
ricca di produzioni e tecniche. Come per il 2D, una conoscenza delle metodologie di
produzione non informatiche ci aiuta a comprendere meglio i meccanismi ed i motivi
che hanno portato all’attuale animazione 3D a computer.
Sia l’animazione tradizionale che quella 3D iniziano in modo simile il processo
della pre-produzione. In entrambi i casi viene creato il design 2D per personaggi,
ambienti e oggetti; le parole della sceneggiatura sono visualizzate sullo storyboard, e
anche la produzione dell’animatic è molto simile. È il layout 3D che segna la prima
differenza tra le due tecniche.
Nell’ambito delle due dimensioni i fotogrammi si ottengono fotografando la pila di
livelli (reali o informatici); nel 3D i fotogrammi si ottengono fotografando lo stato della
scena soggetto dell’animazione. L’animazione tridimensionale, in tal modo, diventa un
filmato bidimensionale, su pellicola o su file.31 Elementi principali di una scena sono
l’ambientazione (enviroment), gli oggetti (prop) che vi sono contenuti, i personaggi
(character) che vi si muovono, le luci (light) che la illuminano e i punti di vista
attraverso cui la si osserva e fotografa. Fondamentali sono anche il design delle
ambientazioni, gli sfondi (background) e le illustrazioni colorate. Tutti questi elementi
sono raccolti nella style guide, una guida stilistica creata raccogliendo tutto il materiale
realizzato nella fase di modellazione e design.32
3.1 Elementi
Ambientazione
Le ambientazioni sono i luoghi o i set materiali e/o virtuali in cui la scena si
svilupperà.
31
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 193
32
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 109
33
Oggetti
Gli oggetti di una scena sono tutti gli elementi che la compongono e soprattutto che
la animano. Dal punto di vista dell’animazione gli oggetti sono elementi dello sfondo o
personaggi. Fanno parte dello sfondo tutti quegli oggetti che non variano né vengono
spostati durante l’animazione. A seconda della scena e dell’animazione possono far
parte dello sfondo alberi, rocce, palazzi, strade, arredi, oggetti di varia natura. Gli
oggetti sono creati dal disegnatore del prop. La style guide comprende tutte le
proiezioni ortogonali degli oggetti, la dimensione rispetto ai personaggi e alle
ambientazioni e le linee guida che descrivono il funzionamento degli stessi.
Dal punto di vista tecnico, la tipologia di oggetto dipende dal programma di
modellazione utilizzato; in ogni caso l’oggetto è dotato di una certa quantità di
parametri che ne definiscono la posizione e l’orientamento nello spazio, la dimensione,
il colore, la trasparenza, il tipo di reazione alla luce, la ruvidità, il peso, l’elasticità, la
morbidezza, la relazione con gli altri oggetti, e così via.
Ogni parametro può variare nel tempo e quindi può essere animato. Fanno parte
dello sfondo invece tutti quegli oggetti che non variano durante l’animazione.
Personaggi
Un personaggio è un oggetto della scena che si modifica durante l’animazione. In
base al tipo di scena e di animazione, i personaggi possono essere alberi, rocce, palazzi,
strade (Es: durante la simulazione di un terremoto), attori (reali o virtuali), arredi,
agenti atmosferici e altro. I personaggi che popoleranno l’animazione vengono studiati
e progettati, fino a produrre una serie di tavole (model sheet)33 che descrivono per
ognuno di essi forma, dimensioni, colori e nel caso di esseri animati, fisionomia,
posizioni, posture ed espressioni particolari, che servirà come riferimento durante la
fase di animazione.
La creazione del personaggio richiede un approfondito studio anatomico e
caratteriale. Il primo ha lo scopo di costruire una struttura cinematica portante che ne
consenta movimenti realistici (rispettando i gradi di libertà ed i vincoli delle
articolazioni), e di modellarne l’aspetto esteriore in modo realistico e riconoscibile
33
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 110
34
(rispettando i rapporti massa/volume, l’anatomia reale, l’armonia tra movimento ed
aspetto esteriore come nel caso del contrarsi dei muscoli e così via).
Lo studio caratteriale tende a riportare nel movimento il carattere del personaggio
tramite l’impostazione della velocità, della forza, delle movenze e delle gestualità
tipiche, in relazione agli avvenimenti dell’animazione.34 In base alle scelte compiute
durante la fase di analisi e progetto, viene costruito il modello, generalmente con una
descrizione geometrica della sua struttura primordiale. Dopo questa fase i personaggi
devono essere preparati al movimento attraverso la creazione del rigging. In base al
tipo di cinematica adottata per l’animazione, è possibile dotare il modello di una
struttura articolata portante, simile ad uno scheletro. Lo scheletro digitale diventa lo
strumento attraverso il quale il character potrà essere messo in posa. La superficie del
personaggio è agganciata allo scheletro attraverso lo skinning, in modo che la geometria
possa deformarsi seguendo correttamente i movimenti delle ossa digitali sottostanti.
Successivamente vengono definite le proprietà estetiche attraverso il texturing e lo
shading.
Design
Il design delle ambientazioni rappresenta il modo in cui i personaggi sono immersi.
La guida stilistica include design dagli esterni agli interni da diverse prospettive, una
mappa schematica di tutti i set, disegni che indicano la fonte e la direzione della luce
(light shot).
Luci
Animare le luci (lights) è essenziale per dare verosimiglianza allo svolgersi nel
tempo dell’animazione: il variare della luce prodotta da una fiamma, l’orientarsi del
fascio prodotto da un faro, l’alternarsi di chiari e scuri in un bosco, il movimento delle
ombre nell’arco della giornata. Nella cinematografia tradizionale il controllo delle luci
è un compito di un direttore delle luci e del suo staff. Anche le luci, come gli oggetti
della scena, possono essere considerate come attori virtuali o luci di sfondo. Le luci di
una scena sono generalmente di tre tipi:
34
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 198
35
- luci puntiformi (point light)
- luci direzionali (directional light)
- faretti (spot light)
Per ogni tipo di luce è possibile assegnare determinati valori a parametri quali la
posizione, il colore, l’intensità, la larghezza del cono prodotto, l’area di penombra ed
altri, il cui numero varia a seconda del programma di modellazione utilizzato. La
variazione nel tempo di ognuno di questi fattori determina l’animazione della luce.
Sfondi
Colorando gli sfondi si previsualizza l’atmosfera che si vorrà dare. La funzione di
queste illustrazioni è stabilire il tono e lo stile di ogni sequenza.
Illustrazioni
Il direttore artistico seleziona le scene chiave che, per ogni sequenza, passeranno
alla fase di coloritura. In questa fase si creano le illustrazioni colorate che raffigurano i
personaggi e gli oggetti, si definiscono i colori per tutti gli elementi: dai costumi, alla
pelle, ai capelli dei personaggi. Inoltre viene anche studiato l’aspetto cromatico in
relazione a fonti di illuminazione diverse, stabilendo una palette colore per la notte, per
il giorno, per la luce artificiale. Successivamente vengono realizzate tavole che mettono
in relazione i colori degli ambienti con quelli dei personaggi e degli oggetti per cercare
di trovare un’armonia tonale fra tutti gli elementi che comporranno il film. In questa
fase vengono realizzate anche texture di riferimento, che in aggiunta allo studio dei
materiali, consentiranno di ottenere l’immagine finale.
Punti di Vista
Il punto di vista è la posizione della telecamera con cui vengono effettuate le
riprese. L’animazione dei punti di vista segue le stesse regole della regia dei movimenti
e degli stacchi di camera in un set dal vivo. All’interno della scena è possibile
posizionare telecamere virtuali, delle quali possiamo definire distanza focale,
36
orientamento e posizione, simulando il funzionamento di una telecamera reale.
Chiamiamo punti di vista queste telecamere con cui gli algoritmi di rendering
genereranno i fotogrammi dell’animazione.
Ogni parametro delle telecamere può essere animato, seguendo le stesse regole di
scelta dei movimenti di camera delle riprese nel mondo reale. L’animazione dei punti di
vista equivale alla regia dei movimenti e degli stacchi di camera in un set reale, e ne
segue le stesse regole. Per ognuno dei parametri animati in una scena, viene creata dal
programma di animazione una curva di animazione che descrive l’andamento nel tempo
del valore del parametro.35
3.2 Processo di produzione
Il processo di produzione di filmati di animazione 3D è simile a quello per il 2D:
concept, stesura del soggetto/sceneggiatura, progetto dei personaggi, storyboard,
animatic, layout 3D, animazione, rendering, montaggio e post produzione.
3.2.1 Soggetto/sceneggiatura
La chiave per il successo in ogni film d’animazione è una buona storia, se la storia è
mediocre le possibilità di avere successo sono molto scarse. Il concept è la prima
organizzazione razionale di un processo mentale irrazionale. L’autore cerca di
organizzare i pensieri e di dare loro un legame logico.
Dal concept si inizia ad estrapolare una breve storia, che costituirà il soggetto del
film. Il soggetto è la base su cui si costruiranno le fasi successive della scrittura del
film: il trattamento e la sceneggiatura.
La trasformazione delle idee e delle azioni, da testo a piano organizzato in diverse
scene, si definisce trattamento. Il trattamento del soggetto diviene una sequenza di punti
a numerazione progressiva, nei quali si descrivono in ordine temporale i passaggi
essenziali e importanti del soggetto. Ognuno di questi punti viene definito nei suoi
elementi costitutivi fondamentali come la definizione del luogo, dell’ambiente interno o
esterno, delle azioni, dei personaggi, dei dialoghi, degli effetti sonori e delle musiche.
Ne risulterà una lista schematica di fatti e azioni.
35
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 194- 198
37
In questa fase è opportuno scrivere, sia pure in modo approssimativo, i dialoghi dei
protagonisti, indicare la musica e gli effetti onomatopeici e quindi i rumori da inserire
nei punti critici, particolari inquadrature ecc.
La sceneggiatura è un testo tecnico/letterario e rappresenta la scomposizione
analitica del racconto nei suoi particolari, dagli elementi dell’inquadratura a ogni parola
del dialogo; non è altro che la descrizione dettagliata delle immagini che si prevede
appariranno al pubblico.
Una storia, un racconto, un’idea vengono adattati e trasformati in sceneggiatura per
l’animazione, in modo del tutto simile a quanto accade per soggetti teatrali, televisivi o
cinematografici. Anche nel caso dell’animazione l’adattamento tiene conto del pubblico
cui essa è destinata, sia per fasce d’età sia per tipologie sociali e culturali. La
sceneggiatura di animazione è in più ricca di azione e ha meno dialoghi rispetto alla
sceneggiatura di un film dal vivo.
3.2.2 Storyboard
Lo storyboard è il punto intermedio tra sceneggiatura e animazione. Per ogni punto
saliente dell’animazione viene realizzato un disegno, a cui si accompagna una
descrizione dello stato delle luci, dei punti di osservazione della scena,
dell’accompagnamento sonoro e del dialogo, e qualche nota di commento. La
lunghezza e la complessità dello storyboard dipendono dalle azioni previste per
l’animazione. La qualità dei disegni può variare da semplici schizzi a immagini molto
curate.
Il regista ha così moltissime possibilità di progettare e modificare velocemente ogni
aspetto del film. È molto importante comprendere innanzitutto quale sia il concetto di
storyboard: è necessario pensare ad esso come allo schizzo del film.
Lo storyboard non è utilizzato solo nell’animazione; registi di film live,
sceneggiatori ed esperti di effetti speciali lo usano regolarmente come strumento per
esternare le loro idee. Spesso per l’autore è molto difficile spiegare con chiarezza una
storia immaginaria e può essere molto complicato descrivere un progetto ricco di
elementi fantastici; lo storyboard può aiutare anche in questo passaggio critico.
Questa è una fase in cui vengono investite molte risorse per evitare di dover
risolvere eventuali problemi in fasi più avanzate della produzione. Se ci sono
38
incompatibilità, difficoltà ed ogni altra sorta di problema è qui che bisogna
accorgersene ed intervenire.
Le funzioni dello storyboard sono molteplici:
-
La prima è quella di concettualizzare il progetto. Lo storyboard è uno
strumento per lavorare alla struttura e all’idea del film. Quando tutte le nozioni che si
hanno in mente appaiono dettagliate e complete, disegnarle aiuta a renderle concrete. Il
processo che consente di visualizzarle aiuta a trovare nuove soluzioni e stimola nuove
intuizioni consentendo di individuare possibili problemi e di risolverli.
-
Altra funzione dello storyboard è quella di rappresentare tutti i momenti
chiave del film.
-
Lo storyboard è utile anche per comprendere due elementi strutturali
ingannevoli. Il primo è l’ordine o la sequenza delle scene individuali: è necessario
capire se il pubblico sarà in grado di seguire il fluire della scena senza esitazioni e se
l’enfasi è posta nel momento giusto. In secondo luogo è necessario capire se le
transizioni tra le diverse scene siano corrette.
-
A volte lo storyboard è utile anche per comprendere quanti dettagli è
necessario inserire nell’immagine finale. Ogni disegno dello storyboard può essere un
semplice schizzo in bianco e nero o un disegno ricco di dettagli: dipende dalla
possibilità di tempo e budget di produzione, ma ogni schizzo dello stesso storyboard
necessita di essere disegnato allo stesso livello. Per ottenere una qualità omogenea, una
volta completati tutti i disegni, è necessario revisionarli e se necessario correggerli,
aggiungendo o togliendo dettagli.
-
Lo storyboard deve infine permettere di capire, anche dal punto di vista
pratico, se è possibile realizzare il film. Esaminandolo, il regista, il produttore e il team
artistico devono capire se ci sono tutti gli strumenti tecnici e le capacità necessarie, se si
devono sviluppare nuovi software, quali saranno i costi e i tempi di produzione
effettivi.
Lo storyboard è scomponibile in tre fasi: piccoli schizzi (thumbnail), schizzi (rough
pass) e pulizia dei disegni (cleanup). Nella prima fase gli artisti creano sullo stesso
pannello molte piccole illustrazioni per rappresentare l’azione. Una volta che il regista
ha visionato e approvato i thumbanil, si passa alla seconda fase, il rough pass, in cui
vengono creati dei pannelli più grandi nei quali gli artisti possono disegnare i
39
personaggi e gli ambienti in modo più dettagliato. Se non ci sono cambiamenti da
apportare, lo storyboard è pronto per l’ultima fase: il cleanup. In quest’ultima
lavorazione i pannelli sono ridisegnati a grandezza piena, per poter inserire i dettagli
necessari a completare ogni scena.
Successivamente si realizzerà una copia digitale dei pannelli che verranno uniti
cronologicamente in modo da creare un flipbook.
La copia originale resta al dipartimento storyboard mentre copie dei flipbook sono
distribuite ai montatori, al direttore artistico e al produttore.
Lo storyboard è in grado di fornire molte indicazioni sull’aspetto grafico di una
sequenza e sullo svolgersi di un’azione, ma una volta digitalizzato, sarà completato da
un altro importantissimo elemento: la durata. Questo è il fattore principale che
trasforma lo storyboard in animatic e, con l’aggiunta dell’audio, in leica reel.36
3.2.3 Animatic
Creato dopo i pannelli dello storyboard e prima dell’animazione finale l’animatic
rappresenta una fase intermedia nella realizzazione di un film. In una prima fase i
pannelli dello storyboard vengono digitalizzati attraverso l’uso di software. I file
vengono temporizzati, cioè ad ogni scena viene assegnata una durata necessaria allo
Fig 17) Storyboard. Fonte: http://www.danhausertrek.com/AnimatedSeries/Storyboard.gif
36
Il nome Leica Reel deriva dalla fotocamera tedesca Leica utilizzata per filmare i disegni a matita,
pencil test. Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo
Mondatori Editore p. 110-121
40
svolgimento dell’azione. La temporizzazione prosegue con l’ausilio di un sistema di
montaggio. Le tracce audio precedentemente registrate vengono anch’esse digitalizzate
e collocate nella giusta posizione temporale.
L’animatic è utilizzato con un piano di partenza del progetto: il regista ha la
possibilità di focalizzarsi sulla temporizzazione di ogni scena osservando sia i disegni
che la traccia dei dialoghi modificando o eliminando le parti insoddisfacenti.
Solitamente l’animatic include movimenti di camera e i personaggi possono essere
animati attraverso due tecniche diverse: tagliati fuori (cutout) o pose grezze (rough
pose); queste modifiche vengono solitamente eseguite utilizzando software di motion
2D.
Nel cutout gli sfondi e i personaggi vengono separati e collocati su layer diversi; i
personaggi saranno poi animati attraverso semplici traslazioni, rotazioni e scalature.
Con il rough pose si disegnano invece più pose intermedie del personaggio per ogni
scena, e tanto più numerose saranno le pose intermedie, tanto maggiore sarà il senso di
fluidità delle azioni.37
3.2.4 Layout 3D
Il layout si può definire come un’animatic a tra dimensioni. Nel momento in cui una
sequenza dell’animatic è approvata, viene inserita nella fase di produzione. Il primo
passo in questo processo è la creazione del layout 3D, che costituirà la prima versione
tridimensionale del film. Mentre nell’animatic 2D i movimenti di camera sono
tipicamente limitati a carrellate o zoom in e out, nel layout 3D è possibile ogni tipo di
movimento. In questa fase l’enfasi è sulla temporizzazione, sulla rappresentazione e
sulla composizione d’insieme. La creazione di un layout è costosa e lunga ma è uno
strumento in grado di previsualizzare molti aspetti del lungometraggio e permette di
risolvere in anticipo potenziali problemi. Per la sua realizzazione vengono create bozze
dei modelli, delle ambientazioni; si definiscono le posizioni dei personaggi, le azioni e
interazioni grezze, posizioni e movimenti di camera, angoli di ripresa, tipo di lente,
situazioni di luce e così via.
Una volta che una sequenza è approvata, è possibile utilizzare il layout come
strumento di verifica per capire cosa sia necessario fare per migliorare ogni scena.
37
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 116-123
41
Diversi artisti attingono al layout per avere una traccia del lavoro che devono svolgere:
i modellatori possono costruire i set partendo da quelli indicati nel layout; gli animatori
lo studiano per capire il posizionamento dei personaggi in riferimento al background,
alle azioni e ai tempi. Il layout può essere sfruttato anche dai lighter artists (artisti della
luce) per determinare il posizionamento e la tipologia della luce da utilizzare. Spesso in
molti studi vengono realizzati diversi layout e l’ultimo è sempre più dettagliato del
precedente. Si inseriscono geometrie definitive degli ambienti, si sostituiscono gli
spostamenti dei personaggi con le animazioni finali. Dopo che il regista ha dato le sue
istruzioni per il completamento di ogni scena, i supervisori ne valutano la complessità. I
membri dello staff coinvolti nell’analisi della complessità sono solitamente il regista, il
produttore, il coordinatore artistico e il supervisore del layout.
3.3 Processo di Animazione
Storyboard e layout 3D vengono utilizzati quindi, come riferimento per costruire
tutta l’animazione. Nella prima fase viene analizzato il movimento di ogni elemento e
si tracciano i movimenti salienti e le linee di energia. Inizialmente, gli elementi da
animare venivano scomposti nelle loro parti e fotografati in posizioni successive
differenti, come in una sorta di collage, andando dalla posizione iniziale alla finale,
seguendo le traiettorie appena impostate.
Nasce in questo modo il concetto di estremi di movimento. Per ogni sequenza di
animazione vengono individuati un momento iniziale, un momento terminale e una
quantità variabile di momenti intermedi più o meno salienti. Gli istanti intermedi
vengono costruiti come interpolazione degli estremi e dei momenti salienti (keyframe).
L’animatore è colui che determina gli estremi dell’animazione, mentre gli istanti
intermedi sono generati dagli intercalatori (inbetween).
Durante l’animazione tridimensionale entra in gioco la progettazione del
movimento di camera: non basterà più disegnare il frame come da storyboard, dovremo
configurare tutti gli elementi della scena (telecamere comprese) in modo tale che, ad
ogni frame, la ripresa fornisca esattamente l’immagine desiderata.
Il passaggio su pellicola avviene impilando i fogli trasparenti sui quali sono tracciati
gli elementi da animare e fotografando ogni istante dell’animazione con una macchina
fotografica montata in modo da riprenderli verticalmente. Una volta costruita
l’animazione, la pellicola viene trattata in sala di montaggio per il montaggio del
42
sonoro. Diversamente dal cinema, le animazioni non necessitano di una fase di taglio e
montaggio: i tempi e i contenuti delle scene sono stabiliti a priori.38
Un fenomeno basilare è l’illusione del movimento. Sullo schermo cinematografico
vengono proiettati 24 fotogrammi al secondo (fps). I fotogrammi sono istantanee
fotografiche fisse, nel caso del cinema d’animazione, sono immagini di singoli disegni.
Nelle proiezioni cinematografiche il movimento viene quindi scomposto in 24 parti per
ogni secondo, tuttavia percepiamo un movimento fluido e continuo e non distinguiamo
minimamente la successione delle istantanee. Questo è dovuto a una caratteristica
fisiologica del nostro occhio: la persistenza dell’immagine sulla retina.
L’immagine che si forma sulla retina vi permane, in condizioni normali, per circa
un decimo di secondo. Questo intervallo di tempo è relativamente lungo se confrontato
con la frequenza dei fotogrammi proiettati sullo schermo. È chiaro come l’occhio non
sia in grado di percepire separatamente tutte le 24 immagini proiettate nell’intervallo di
un secondo. Ogni fotogramma riflesso dallo schermo cinematografico stimola gli occhi
dello spettatore e si sovrappone all’immagine precedentemente percepita, creando
l’illusione.39
3.3.1 Carattere dei personaggi
Non è possibile descrivere in termini geometrici o fisici il comportamento di un
attore virtuale che simula un personaggio umano; occorre un linguaggio nuovo e
diverso.
Distinguiamo due tipi di comportamento in un attore virtuale: un comportamento
automatico (esecuzione di gesti del personaggio, compiuti in modo non ragionato) e un
comportamento intelligente, (insieme di azioni e gesti compiuti con uno scopo e basati
su conoscenza e ragionamento).
Il comportamento automatico di un personaggio può essere programmato ed
eseguito automaticamente dall’attore virtuale. Un insieme di gesti automatici attribuiti
da attori virtuali si trova spesso in ambienti di realtà virtuale in cui gli avatar,40 nei
38
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 186-187
39
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 156-157
40
Avatar: Presso la religione Induista, un Avatar è l'assunzione di un corpo fisico da parte di Dio, o di
uno dei Suoi aspetti. Questa parola deriva dal Sanscrito, e significa "disceso"; nella tradizione religiosa
43
momenti in cui non viene loro richiesta alcuna azione particolare, compiono
costantemente piccoli gesti (dondolarsi, guardare l’ora, muovere i piedi, guardarsi
attorno,…) allo scopo di dare l’impressione di non essere semplicemente oggetti-statue.
Il comportamento automatico consiste quindi in un insieme di piccoli gesti ripetuti,
chiamati gesti elementari, che possono essere tipici di tutta la persona o solo del volto e
delle mani e la cui quantità può variare a scelta dell’animatore. L’animazione del volto
è particolarmente importante, se consideriamo che le espressioni sono un complemento
fondamentale della comunicazione orale. Un volto animato ma impassibile non ci
fornisce informazioni, se non quella che si tratta di un viso sintetico. Come per il
movimento della figura intera, anche nel caso del volto dobbiamo innanzi tutto studiare
l’anatomia del modello che vogliamo animare (sia esso umano, animale o di fantasia)
ed il modo in cui i suoi movimenti influiscono sulla comunicazione. Le espressioni, la
loro intensità e durata, possono comunicarci dati sulla personalità ed il carattere del
personaggio, sul suo umore, sulla sua sincerità, o aiutarci a comprendere il significato
delle sue parole in presenza di rumore.
Il movimento del volto viene ricomposto generalmente a partire dal controllo dei
movimenti elementari della muscolatura, per realizzare le espressioni principali ed i
movimenti della bocca e (più raramente) della lingua durante il parlato. L’animazione
del volto può essere estremamente complessa o estremamente semplice, a seconda del
grado di realismo del personaggio e delle scelte registiche .
Nel caso di un’animazione semplice generalmente guance e fronte non si muovono.
Le sopracciglia si alzano e si abbassano senza mutare forma, mentre le palpebre
sbattono ad intervalli regolari automatizzati. L’attenzione è concentrata sulle labbra,
che assumono un numero limitato di posizioni di base, a seconda che il personaggio stia
tacendo, ridendo, urlando o parlando, pronunciando consonanti o vocali.
Quanto più aumento il livello di realismo, tanto più l’animazione si fa complessa e
tanto più aumenta la difficoltà di attribuire credibilità al volto, a causa dell’importanza
che nella comunicazione hanno i piccoli segnali degli occhi e delle labbra durante
l’interazione tra esseri umani: al crescere del realismo cresce l’aspettativa verso questo
tipo di movimenti.
induista consiste nella deliberata incarnazione di una divinità in un corpo fisico al fine di svolgere
determinati compiti. Nella realtà virtuale come nei videogiochi (come i famosi RPG, giochi di ruolo),
Avatar identifica il personaggio controllato dal giocatore o un’immagine che lo identifica. Nei
programmi d’instant messaging e nei forum Avatar indica un'immagine (come una foto o un disegno) che
identifica un'utente insieme al proprio nick name. Tratto da: http://it.wikipedia.org/wiki/Avatar
44
I metodi di animazione più utilizzati sono basati sul movimento di gruppi di
controllo o su interpolazione tra forme di riferimento.
Nel primo caso dividiamo idealmente in zone il volto (mento, labbra, guance,
zigomi, occhi, sopracciglia, fronte,…). Questo significa che i punti del modello di una
stessa zona si muovono assieme. Lo spostamento combinato delle zone dà luogo
all’animazione. Questo metodo è in realtà piuttosto grossolano e sicuramente inadatto
ad animazioni sofisticate. Viene utilizzato per personaggi da cartone animato o
comunque privi di realismo. Il metodo però può venir migliorato se la relazione tra le
diverse zone segue regole che riproducono il comportamento della muscolatura umana,
con le sue caratteristiche di elasticità.
Nel secondo caso, costruiamo numerose versioni del modello del volto: a riposo, ad
occhi aperti, a bocca aperta, con le sopracciglia alzate o aggrottate e così via.
Chiamiamo shape di espressioni di base ognuna di queste versioni: le loro diverse
combinazioni ci permetteranno di creare ogni espressione possibile. Per ogni
espressione composta, individuiamo quanta parte di ogni espressione di base è
coinvolta (ad esempio, il 70% dell’aggrottare delle sopracciglia, il 30% del
sollevamento degli zigomi ed il 45% dell’arricciamento delle labbra), e diamo
istruzioni al programma affinché visualizzi un modello generato come loro
interpolazione pesata. L’animazione è quindi adesso data dal variare delle percentuali
d’uso delle espressioni di base.
Una terza modalità sfrutta i sistemi di controllo interattivi, come i guanti digitali o i
sensori posizionati sul volto di un attore reale. In tal caso il controllo dei vertici delle
diverse zone è attuato da un essere umano e si possono raggiungere gradi di realismo
molto elevati.
Anche il
movimento delle mani
riveste un ruolo fondamentale nella
caratterizzazione dell’attore virtuale. Come nel caso del volto, quanto più aumenta la
45
complessità della struttura articolata della mano e del tipo di gesti che deve compiere,
tanto più aumenta la complessità dell’animazione relativa e la verosimiglianza richiesta.
In una situazione di questo genere dobbiamo individuare i movimenti elementari di
ogni singola articolazione e definire successivamente le posizioni base che la mano
virtuale può assumere, corrispondenti a significati particolari quali, ad esempio,
contare, esprimersi nel linguaggio dei sordomuti o compiere movimenti di afferrare,
ruotare, spostare.41
3.3.2 Cinematica Diretta e Inversa
Si parla di cinematica diretta quando la posizione nello spazio di ogni elemento
della catena cinematica dipende a cascata dalla posizione dei precedenti. La posizione
del primo segmento dipende dalla posizione della radice della catena e dell’angolo che
l’asse principale del segmento forma rispetto agli assi dello spazio.
La posizione del secondo segmento dipende dalla posizione dell’estremità finale del
primo segmento (facilmente calcolabile conoscendo posizione della radice, l’angolo
formato dal segmento stesso e la sua lunghezza) e dall’angolo tra gli assi del primo e
del secondo segmento. La posizione dei segmenti successivi dipende dalla posizione
dell’estremità finale del segmento precedente e dall’angolo formato con esso.
In sintesi, il calcolo cinematica diretto consiste in tre passi principali:
•
Specificare il movimento locale di ogni segmento
•
Concatenare le trasformazioni di rotazione dei segmenti rispettando l’ordine
gerarchico della catena
•
Posizionare correttamente nello spazio ogni segmento in base alla lunghezza e
posizione dei precedenti
Lo studio della cinematica e della dinamica di strutture articolate viene ambientato,
dal punto di vista geometrico, in uno spazio di coordinate omogenee a 4 dimensioni. Le
Fig 18 a) Face tracking 1. Fonte: http://www.lysator.liu.se/~eru/research/c001.jpg
Fig 18 b) Face tracking 2. Fonte: http://www.lysator.liu.se/~eru/research/c131.jpg
Fig 18 c) Face tracking 3. Fonte: http://www.lysator.liu.se/~eru/research/c070.jpg
41
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 199-201
46
trasformazioni che interessano sono, come si è già detto, rotazioni e traslazioni, che
abbiamo già visto nel capitolo sulla modellazione.
La possibilità di applicare una serie si trasformazioni concatenata da un giunto al
successivo permette di trattare in modo numerico la cinematica diretta che descrive il
movimento di un manichino articolato. In altri termini, conoscendo la traiettoria di ogni
giunto in ogni istante di tempo si può calcolare in ogni istante anche la configurazione
assunta dal manichino stesso durante il movimento. Nel contesto dell’animazione di
personaggi virtuali la posizione del modello in un dato istante viene chiamata posa e
può quindi essere descritta matematicamente tramite l’elenco dei valori degli angoli,
espresso sotto forma di vettore (vettore di posa).
Di maggiore complessità è il problema della determinazione delle configurazioni
inverse.
Nel caso in cui la posizione nello spazio di una struttura dipenda dalla posizione dei
suoi estremi (radice), il calcolo degli orientamenti dei segmenti intermedi richiede
operazioni di cinematica inversa, le cui equazioni devono rispettare i vincoli cinematica
(lunghezza dei segmenti, grado di libertà agli snodi, …).
Data quindi la posizione nello spazio di un segmento particolare (solitamente
l’effettore), occorre determinare le configurazioni che devono assumere gli altri
segmenti, mantenendo le relazioni tra gli elementi della struttura. Questo problema è
noto come problema della cinematica inversa e, a differenza del primo, può avere una,
nessuna o infinite soluzioni. Infatti posizioni non raggiungibili dalla struttura articolata
possono rendere insoddisfacente il problema, oppure una posizione dell’effettore può
corrispondere a innumerevoli posizioni dei segmenti intermedi della catena.
La soluzione del problema consiste nel calcolare la configurazione di ogni
segmento (arto) date le posizioni degli estremi della catena (giunti), cioè nel fare
l’operazione inversa alla precedente, in cui la posizione dell’effettore era il risultato del
calcolo diretto delle posizioni di ogni segmento.
3.3.4 Tecniche d’animazione tradizionale
La progettazione dei personaggi richiede di studiare approfonditamente le
caratteristiche anatomiche degli attori da animare, con un procedimento più complesso
di quello richiesto per personaggi bidimensionali. Le animazioni tridimensionali,
47
inoltre, richiedono la costruzione della scena e di tutti i suoi elementi e la produzione
del movimento di ogni elemento della scena.
Animare luci, camere e personaggi non articolati consiste semplicemente nello
spostarli nelle posizioni stabilite, fotogramma per fotogramma. Animare i personaggi
richiede tecniche più complesse, di cui le due più diffuse sono lo stop motion e i
modelli automatizzati.
Stop Motion
Lo stop motion consiste nell’animazione manuale passo passo di un modello
articolato snodabile. In genere i modelli sono costruiti in un materiale plastico e duttile
(gomma, pongo), montato su un supporto di sostegno di fili di ferro, o un insieme di
pezzi in materiale rigido (plastica, legno) assemblati in modo tale da poter ruotare tra
loro rispettando i vincoli ed i gradi di libertà della struttura cinematica. Ad ogni frame
l’animatore fa assumere al modello la posizione desiderata, e viene scattata la
fotografia. Il modello viene spostato per il fotogramma successivo e così via. Nel caso
di interazione tra un modello animato in stop motion ed attori umani, si fanno prima le
riprese dal vivo, in base alle quali si adatta il progetto dei tempi dell’animazione, a sua
volta collegato alla colonna sonora. Possiamo poi montare le due o più riprese con le
tecniche di maschere animate e chroma key.
Modello Automatizzato
48
Un modello automatizzato invece è costituito da una struttura portante articolata e
dotata di attuatori del movimento, cioè di un insieme di leve, pistoni e motori che ne
consente il movimento telecomandato. Sulla struttura viene posizionato un rivestimento
(gomma, tessuto) che riproduce l’aspetto esteriore del modello da animare. La struttura
articolata viene fatta muovere in tempo reale, eventualmente interagendo con attori
umani, e ripresa con le tecniche tipiche delle riprese dal vivo.42
Timing
Il timing (regolazione dei tempi) rappresenta la temporizzazione dell’animazione. Il
timing è la parte dell’animazione che dà significato al movimento. Nell’animazione il
movimento in sé è di secondaria importanza: l’elemento vitale è come l’azione
manifesta le fondamentali cause del movimento. Relativamente agli oggetti inanimati
queste cause potrebbero essere le forze naturali, in genere la gravità, o forze derivanti
dall’interazione con altri oggetti. In un personaggio, oltre alle medesime forze esterne
debbono essere considerate anche le forze interne: forze psicologiche, umori, volontà e
istinti del personaggio, che lo porteranno ad agire in un certo modo e richiederanno
Fig 19) Stop Motion. Fonte: http://www.screen-novelties.com/press/page1/images/bottom.jpg
Fig 20) Modelli Automatizzati. Fonte: http://www.animatedideas.net/t-rex-mechy-composite.jpg
42
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 194-195
49
quindi un certo tipo di timing. Deve sempre esistere una ragione psicologica o
motivazionale che accompagna l’azione di un personaggio.
Le pause e i momenti tranquilli rappresentano il pensiero, rendono espressivo il
soggetto. Le interruzioni dei movimenti permettono agli spettatori di notare una posa o
di focalizzare l’attenzione su un elemento importante della scena. Questi cambiamenti
di ritmo e di tempo renderanno l’animazione convincente.
I software 3D danno la possibilità di produrre immagini fotorealistiche. Si può
simulare il marmo, la gomma, il metallo o qualsiasi altro materiale, ma creare un
oggetto in movimento che sembri di marmo o di gomma ha poco a che fare con
l’estetica. L’importante è come l’oggetto viene animato; è l’animazione che assegna le
proprietà fisiche. Più di qualsiasi altra cosa, è il timing a definire il peso: due oggetti,
identici per forma e dimensioni, possono apparire diversi per peso intervenendo sul
timing. Un corpo pesante è più difficile da accelerare di uno leggero, ma a sua volta
acquista velocità, tende a mantenerla; quando si animano oggetti pesanti, è necessario
imprimere loro molta forza per sostare, mutare e fermare il loro movimento. Gli oggetti
leggeri hanno molto meno resistenza al cambiamento di movimento e perciò occorre
molta meno energia per farli muovere. Il modo in cui un oggetto si comporta sullo
schermo dipende soprattutto dall’intervallo tra le pose chiave e non dalle pose stesse.43
Squash and Stretch
Si deve pensare al concetto di squash and stretch come ad un cambiamento di
forma. Quasi tutte le azioni richiedono compressione ed estensione. In alcuni casi, la
variazione di forma potrebbe essere molto esplicita e accentuata, in altri così leggera da
essere difficilmente percepita. Una proprietà del tessuto vivente e di molti altri materiali
comuni consiste nell’essere flessibile e deformabile sotto la spinta del moto.
Tutti gli oggetti, tranne quelli duri e molto densi, mostrano forme di compressione
ed estensione. Se consideriamo una palla da bowling e una di gomma, osserviamo che
la prima, dura e pesante, rimbalza poco dopo l’impatto sul terreno, non si deforma e al
contrario, date le sue caratteristiche, può deformare il suolo stesso; la seconda, morbida
43
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 171
Fig 21) Squash&Stretch. Fonte: http://mag.awn.com/issue8.01/8.01images/beck0304_findingNemo.jpg
50
e leggera, rimbalza comprimendosi (squash) al contatto con il terreno, ed estendendosi
(stretch) nell’ascesa successiva.
Un altro approccio a compressione ed estensione concerne le figure composte da
giunti, ovvero costituite da più parti legate tra loro gerarchicamente; in questi casi, oltre
ad una leggera compressione ed estensione totale della figura, la tecnica dovrà essere
applicata alla posizione dei giunti, che modificheranno radicalmente la postura del
personaggio. Un esempio è il salto in lungo: la prima fase di piegamento delle gambe
sarà una compressione, seguita dall’estensione del salto e conclusa dalla compressione
dell’atterraggio.
Nella fase di deformazione, una regola ferrea è mantenere costante il volume
dell’oggetto. Quando una forma viene compressa su un asse, si dovrà espandere lungo
gli altri due per ristabilire il volume iniziale.
Anticipation
L’anticipation (anticipazione) è un’azione preliminare che imposta un’azione
principale. In molte azioni del movimento umano o animale è riscontrabile
l’anticipazione.
Uno dei trucchi che un animatore deve conoscere è come attrarre al momento giusto
l’attenzione del pubblico; l’utilizzo di questa tecnica è di primaria importanza per non
far perdere allo spettatore azioni importanti e la trama della storia.
51
Immaginiamo che ci sia una scena con molti oggetti statici, e improvvisamente uno
di questi inizi a spostarsi; gli occhi dello spettatore saranno attirati immediatamente
dall’oggetto in azione. Se tuttavia verrà fatto un movimento preliminare a quello
principale, ad esempio portare indietro il piede prima di calciare, l’attenzione di chi
guarda sarà attratta dal piede stesso, prima ancora che esso diventi protagonista
dell’azione. Questo assicura che il gesto verrà percepito in modo completo e chiaro.
L’utilizzo di questa tecnica permette di mostrare animazioni molto veloci, che
risulterebbero incomprensibili se animate senza anticipazione.
L’anticipazione non è solo un “trucco”, in molti casi è importante sfruttarla per
simulare in modo corretto un certo tipo di movimento, come l’azione di un calciatore
nell’atto di colpire il pallone.
Azioni sovrapposte
Le azioni sovrapposte rendono più credibile un movimento animato; l’applicazione
di tale tecnica viene in aiuto soprattutto per l’animazione dei personaggi, ma può essere
applicata anche in altri ambiti.
Non tutto avviene nello stesso tempo. Osservare dei filmati al rallenty può servire
ad analizzare la sovrapposizione di movimenti che avviene nello spazio di frazioni di
secondo. Se per esempio si deve animare un braccio di un personaggio, che partendo da
una situazione di riposo deve afferrare un bicchiere, un aspirante animatore potrebbe
cadere nell’errore di generare dei keyframe per la posa iniziale (braccio appoggiato) e
per quella finale (braccio alzato e mano chiusa intorno al bicchiere). Tale metodo
produrrebbe un’animazione mediocre che sarebbe percepita come errata; la sequenza
corretta richiede che la parte superiore del braccio si muova prima, poi l’avambraccio
ruoti, seguito dal movimento all’indietro del polso ed infine che la mano si apra e poi si
chiuda ad afferrare il bicchiere. Ciascuno di questi movimenti deve cominciare prima
che quello precedente sia terminato, fornendo così la sovrapposizione di gesti realistica
che il pubblico inconsciamente percepisce come corretta. Il movimento si avvia dalla
spalla e si diffonde fino alla punta delle dita. Nell’animazione tradizionale questa
tecnica è anche chiamata rottura successiva dei giunti, perché il movimento è
rappresentato dalla rotazione intorno alle articolazioni che si liberano dalla posizione di
riposo.
52
Azioni primarie e secondarie
Fondamentalmente esistono due tipi di azioni note come primarie e secondarie.
L’azione primaria è causata dalla volontà del personaggio di agire: saltare, correre,
esultare e così via, mentre l’azione secondaria causata dall’azione primaria (reazione ad
un’azione primaria) e non è necessariamente voluta o controllata dal personaggio.
Un’azione secondaria potrebbe essere il movimento oscillatorio della coda di un
personaggio che sta fuggendo o il fluente movimento di un vestito provocato dai passi
di danza di una ballerina. L’animatore deve sempre dare maggiore importanza alle
azioni primarie, sono infatti queste ultime ad informare gli spettatori sui principali
accadimenti della storia. Le azioni secondarie devono essere sempre animate dopo le
azioni primarie e non dovranno distrarre il pubblico. Persino una buona animazione
secondaria non sarà mai in grado di coprire i difetti visibili nell’azione primaria.
Staging
Lo staging (messa in scena) è connesso più alla composizione della scena che
all’animazione, tuttavia l’animatore che controlla lo staging potrà avere delle
indicazioni che lo aiuteranno a migliorare la recettività della sequenza. Il concetto che
sta alla base della messa in scena è che gli oggetti in movimento debbano essere
facilmente rilevabili e comprensibili. Un errore diffuso è collocare un’azione dove non
può essere osservata, per esempio davanti ad un oggetto interessante che distoglie
l’attenzione del pubblico.
A volte lo stesso personaggio può coprire i suoi stessi movimenti, se osservato da
un’angolazione sbagliata. Se un pugile nell’atto di boxare, viene ripreso frontalmente, i
suoi colpi appariranno poco dinamici e veloci; se l’inquadratura coglie i movimenti
lateralmente, la stessa animazione risulterà più veloce e chiara, sarà quindi messa in
scena correttamente.44
3.3.5 Tecniche d’animazione 3D
Sistemi fisici
44
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 156-166
53
Fenomeni come la previsione del tempo, lo studio delle correnti e delle maree, lo
studio di strutture celesti di grande complessità, lo studio della portanza di un’ala di un
velivolo o di un alettone di un veicolo di Formula 1, come anche lo studio dei flussi
finanziari che giornalmente si spostano da un paese all’altro, non sono che alcuni dei
tanti possibili esempi in cui l’enorme massa di dati prodotta dal calcolo non può venire
interpretata che attraverso un’immagine. La visualizzazione scientifica si è costituita
come campo di applicazione che traduce i dati prodotti da programmi numerici, come
quelli appena indicati, in figure, illustrazioni che tentano di comunicare all’osservatore
il significato del fenomeno studiato.
La visualizzazione scientifica si sviluppa come luogo di incontro tra una cultura di
carattere fisico-matematico e una cultura di carattere creativo: la cultura dell’illustratore
aveva lo scopo di mostrare al grande pubblico o allo scienziato l’anatomia umana, o i
colori degli uccelli. Ma già Leonardo Da Vinci aveva ben compreso che lo studio dei
fenomeni naturali passa anche attraverso la loro raffigurazione.
Oggi utilizzando programmi più sofisticati, il ribollire di una cascata e l’effetto di
un’esplosione si simula con immagini di sintesi. Per ottenere questo tipo di immagini,
oltre ad applicare la procedura di calcolo adeguata, occorre decidere quale forma di
raffigurazione adottare per mostrare i risultati. Per descrivere il modello del risultato
finale del calcolo sono state individuate una serie di tipologie principali alle quali
riferirsi. Esempi tipici di stili di rappresentazione scientifica sono, come visto, le linee
di flusso rappresentate da filetti o piccoli vettori orientati; possono essere linee di
livello, che indicano le zone in cui un determinato valore rimane costante (usate ad
esempio in cartografia o in meteorologia per denotare altitudine o pressione). A
ciascuno stile corrisponde una tipologia di dato.
Un insieme di dati (dataset) per la visualizzazione scientifica è costituita da una o
più celle; i tipi di celle principali sono vertice, poli vertice, linea o segmento, spezzata,
triangolo, striscia di triangoli, quadrilatero, pixel, poligono, tetraedro, esaedro, voxel.
Forme più complesse possono venire scomposte in celle: ad esempio una piramide a
base rettangolare si può scomporre in due tetraedri, un cuneo in tre tetraedri ecc.
Ad ogni cella vengono associati attributi che corrispondono ai parametri fisici che
si desiderano calcolare e visualizzare. Ad esempio se il problema consiste nello studio
di un fluido, esso può essere decomposto in voxel e ad ogni voxel si possono associare
valori di velocità o di temperatura. I possibili attributi di una cella sono: scalare un
54
singolo valore, vettore lunghezza e direzione, normale direzione, tessiture (texture),
tensore matrice quadrata. I possibili attributi non sono molti e sono strettamente legati
al tipo variabile o di parametro fisico che si sta analizzando. Lo scalare indica un
valore numerico (ad esempio la pressione atmosferica in un punto); un vettore è ad
esempio la velocità di un fluido in una determinata posizione, mentre la normale indica
l’orientamento di una faccia di una struttura poliedrica; le tessiture solitamente
permettono di associare ad una forma geometrica una distribuzione di valori scalari (ad
esempio il campo di pressione sulla superficie di un contenitore potrebbe essere
rappresentato inizialmente come una distribuzione regolare di valori scalari,
successivamente “mappati” come una texture sulla superficie del contenitore). Le
matrici tensoriali sono utilizzate usualmente per il calcolo di proprietà in volumi
tridimensionali.
Una volta definita la struttura dati, questa può essere utilizzata sia per il calcolo sia
per la visualizzazione. Tuttavia la definizione di questi tipi di dati non sarebbe completa
se non indicassimo anche quali sono le operazioni principali che possiamo applicare su
di essi. Ovviamente possiamo trattare questi elementi di modello come già abbiamo
indicato, e quindi applicare ad essi le trasformazioni geometriche; tuttavia possiamo
definire anche operazioni specifiche. In particolare le celle possono essere suddivise o
aggregate, e ciò permette di variare la risoluzione con cui si risolve il problema
matematico e con cui avverrà la visualizzazione finale del calcolo.45
Particle system
I Particle System (sistemi particellari) possono essere utilizzati sia per simulare
fenomeni naturali, come fumo, acqua, fuoco e pioggia, sia per modellare come
precedentemente accennato, ma anche per controllare una moltitudine di oggetti, come
uno sciame d’api o uno stormo di uccelli.
L’idea di ispirarsi alla fisica delle particelle per creare modelli per la sintesi di
immagini risale a W.T. Reeves che, nel 1983, mise a punto una tecnica di
visualizzazione per simulare il comportamento di un fuoco. La tecnica venne utilizzata
per la produzione della scena della genesi del pianeta nel film Star Trek II – L’ira di
Khan.
45
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 139-143
55
Il riferimento alla teoria delle particelle elementari della fisica nucleare è
naturalmente solo parziale, anche se da essa proviene l’idea che ogni particella debba
possedere alcune proprietà che ne caratterizzano il comportamento. Un insieme di
particelle si sviluppa in un ambiente caratterizzato da un campo di forze che agiscono
sulla massa di ciascuna particella. Le particelle vengono create con una velocità
iniziale, descritta sia come direzione sia come valore assoluto, che dipende da una
probabilità che ne determina la variazione all’interno di un intervallo di valori possibili.
Se vogliamo ad esempio modellare con la tecnica dei sistemi di particelle un getto
d’acqua emesso da una fontana, potremo descriverlo come un insieme di gocce d’acqua
che vengono emesse da un ugello a una determinata velocità iniziale e con una
determinata direzione. Ogni goccia è soggetta alla forza di gravità e percorrerà una
traiettoria parabolica, ogni goccia ha una vita media, superata la quale scompare
(evapora); durante la sua vita può urtare altre gocce e fondersi o rimbalzare, può urtare
un ostacolo e fermarsi creando una pozza d’acqua o può rimbalzare in funzione della
velocità dell’urto. Ognuna delle proprietà sopra elencate viene calcolata dal programma
che simula l’insieme di particelle risolvendo le equazioni del moto per ciascuna
particella. Anche questi eventi sono regolati da leggi probabilistiche come quella sopra
citata.46
46
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 156-166
Fig 22) Particle System. Fonte: http://www.caffeineoverdose.net/cod/3d_art/ima_3Dmark03_12.jpg
56
In tutti questi casi l’animazione, basata su keyframe, risulterebbe così laboriosa da
essere inapplicabile; nessun animatore riuscirebbe a gestire, in tempi ragionevoli, il
movimento di centinaia, a volte migliaia o milioni di elementi.
I sistemi particellari sono composti da un emettitore e dalle particelle, ognuno di
questi elementi può essere controllato attraverso molti parametri che definiscono la
quantità di particelle, la direzione, la velocità, l’accelerazione, il peso, l’inerzia, la
turbolenza, il tempo di vita, l’aspetto delle singole particelle e così via.
Una volta approvato il comportamento di un sistema particellare, è possibile
assegnare ad ogni particella un oggetto geometrico, che a sua volta può avere
un’animazione propria. Con questa tecnica è possibile quindi animare uno sciame d’api
o la lotta di un esercito di guerrieri. Negli ultimi anni questi sistemi sono stati sviluppati
moltissimo e attualmente esistono software specifici per le animazioni di massa. Si
pensi ad esempio alle innumerevoli scene di battaglia presenti in pellicole come Il
Gladiatore, Troy, Il Signore degli Anelli, Alien vs Predator, Star Wars dove sarebbe
stato impossibile ricreare realmente orde di personaggi attivi attraverso l’uso di
comparse e stuntman in carne e ossa. Questi nuovi software non solo permettono di
controllare l’animazione di un insieme di personaggi ma dinamicamente ne cambiano il
comportamento in relazione a certi eventi che accadono; per questo sono anche definiti
Al system, sistemi di intelligenza artificiale. Uno dei più diffusi è Massive della
Massive System, usato per le sequenze di guerra nella produzione della trilogia The
lord of the ring (Il Signore degli Anelli).47
47
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 143-144
Fig 23) Massive System. Fonte: http://accad.osu.edu/~waynec/history/images/two-towers.jpg
57
Modelli deterministici
Mentre i sistemi di particelle si prestano a modellare fenomeni in cui c’è una
significativa dipendenza da fattori probabilistici, quando un fenomeno può essere
descritto in modo deterministico si preferisce ricorrere alla soluzione numerica delle
equazioni che lo descrivono. È questo il caso, ad esempio, dei fluidi oppure dei sistemi
meccanici, come un robot o un veicolo.
Nel caso dei sistemi meccanici, la modellazione geometrica ricorre ai metodi già
illustrati nei paragrafi precedenti, con in più l’introduzione di condizioni di vincolo. Nel
caso di sistemi non meccanici il modello verrà descritto come un insieme di dati per la
visualizzazione scientifica e, a seconda del tipo di fenomeno, si utilizzeranno i punti
non strutturati usati per i sistemi di particelle o altre celle strutturate più adatte.
La presenza di vincoli in un modello geometrico introduce un ordine di complessità
maggiore nella modellazione e nei successivi passi per la simulazione grafica. Infatti,
oltre a descrivere la geometria delle forme, occorre indicare in modo esplicito se le
singole parti dipendono dalle altre, e in quale modo, o se sono soggette ad altri vincoli
particolari.48
Dinamica
La scelta di percorrere un data traiettoria con una determinata legge oraria non
tiene conto delle caratteristiche fisiche e meccaniche degli attuatori, né tiene conto
della massa e della forma della struttura articolata stessa. In effetti non è sempre
possibile che un dato corpo rigido possa muoversi con una determinata accelerazione e
velocità. Un approccio diverso e più rigoroso alla definizione di legge oraria del moto
consiste nel risolvere il problema della dinamica della struttura articolata.
La dinamica consente di ottenere animazioni senza l’utilizzo dei keyframe.
Si assume in questo caso la conoscenza delle proprietà meccaniche degli attuatori,
delle proprietà di volume di ogni link della struttura (massa o momenti di inerzia) e,
sulla base di questi elementi, imponendo condizioni iniziali o al contorno, si risolvono
le equazioni dinamiche del sistema calcolando conseguentemente traiettoria e legge
oraria. Più precisamente, il problema dinamico diretto consiste nel calcolare le
48
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 145
58
accelerazioni dei giunti (e quindi integrando rispetto al tempo, le posizioni e le velocità)
conoscendo le forze o le coppie applicate ai giunti, mentre il problema di dinamica
inversa consiste nel calcolo delle forze o delle coppie da applicare agli attuatori a
partire dalla conoscenza delle posizioni e delle velocità oppure delle accelerazioni dei
giunti.
Un metodo iterativo derivato dalle equazioni di Newton-Eulero richiede la
soluzione di una serie di equazioni differenziali di ogni giunto, naturalmente
distinguendo se si tratta di un giunto di rotazione o di traslazione.
Utilizzando programmi che consentono la dinamica diretta, le strutture cinematiche
devono essere animate muovendo ogni segmento in base ai precedenti, come se si
stesse muovendo nel mondo reale un modellino di gomma e fil di ferro con un metodo
di stop motion. Tuttavia sistemi di questo genere sono ancora a uno stadio di prototipi.
Programmi che calcolano la cinematica inversa consentono invece di animare le catene
utilizzando il paradigma della marionetta, in cui il movimento del soggetto è dato dalla
tensione nei fili e dal movimento della mano del marionettista. In tal caso l’animatore
muove l’effettore e il sistema risolve la configurazione dell’intera catena cinematica.49
La principale applicazione della dinamica è quella di controllare, attraverso
l’impostazione di field (campi di forza), i sistemi particellari. È possibile creare delle
entità che simulino la gravità, il vento e la turbolenza. Questi elementi, una volta
collegati alle particelle, ne influenzano il moto.
La dinamica può essere anche applicata a oggetti geometrici per automatizzare
animazioni complesse. Una semplice applicazione potrebbe essere l’animazione di una
palla da bowling che impatta contro i birilli. Utilizzando il sistema basato su keyframe,
dovremo animare lo spostamento di ogni singolo birillo; attraverso la dinamica è
sufficiente assegnare alla pista l’attributo di essere un oggetto dinamico passivo, in
grado quindi di interagire con altri oggetti dinamici senza modificare il suo stato,
mentre ai birilli e alla palla si assegna la proprietà di oggetti dinamici attivi, ossia
capaci di subire delle alterazioni di movimento al contatto con forze esterne o derivanti
da altri oggetti. Successivamente dovremo “spingere” la palla usando un campo di
forza; sarà poi necessario determinare la massa di tutti gli elementi, il loro grado di
elasticità e di frizione. Avviando la simulazione, il software considererà tutti gli
attributi e genererà automaticamente l’animazione.
49
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 215-216
59
Questo approccio all’animazione è usato in casi molto complessi in cui
difficilmente l’animatore può lavorare attraverso l’impostazione dei keyframe per ogni
oggetto; a volte questo sistema è utilizzato anche per velocizzare animazioni che non
necessitano di particolare espressività e che quindi non hanno bisogno dell’estro
creativo degli animatori. Questa metodologia ha lo svantaggio di essere difficilmente
controllabile dal punto di vista artistico: il software calcolerà con precisione le forze in
campo e le interazioni, ma sebbene il risultato possa essere fisicamente corretto,
potrebbe rivelarsi comunque inaccettabile per le esigenze della scena.
Attualmente molte case che sviluppano software stanno implementando dei sistemi
ibridi che consentano agli animatori di impostare movimenti di base che il simulatore
dinamico considererà come vincoli nella fase di calcolo. Un sistema simile è stato usato
per animare i capelli di Fiona, uno dei personaggi nel film d’animazione Shrek della
PDI/Dreamworks SKG, uscito nelle sale nel 2001.50
Motion Capture
Il motion capture, detto anche mocap, è una tecnica di registrazione computerizzata
di movimenti, che può essere applicata anche ad oggetti, ma comunemente viene usata
per catturare movimenti umani. Nello specifico è il procedimento di acquisizione di dati
relativi al movimento di un soggetto nel mondo reale e di attribuzione di tali dati ad un
modello computerizzato. Chi esegue il movimento di controllo è detto performer ed è
spesso un essere umano, ma talvolta può essere costituito anche da un elemento del
corpo (volto, mano, piede…) o da un animale, una telecamera, un macchinario e così
via. Con il motion capture si misurano, durante la sessione di acquisizione, i dati
relativi alla posizione e all’orientamento del soggetto nello spazio di acquisizione: il
volume fisico all’interno del quale il sistema di acquisizione riconosce il performer ed i
suoi movimenti. Una volta che i dati sono stati registrati dal sistema, gli animatori
possono utilizzarli per controllare il movimento dei personaggi della scena, in differita
o in tempo reale.
50
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 174-175
60
Prima di utilizzare il mocap per animare un modello occorre analizzare il
movimento da acquisire. È indispensabile compiere uno studio anatomico sia del
performer sia del modello, in modo da pianificare i movimenti che saranno acquisiti.
Per alcuni sistemi di acquisizione, inoltre, occorre stabilire i punti di acquisizione
(joint) in base al tipo di movimento, all’anatomia dell’attore ed alla struttura cinematica
del modello, e costruire quindi lo schema di acquisizione.
Il motion capture fornisce curve di animazione ricche e complete, ma in genere non
è mai l’unica fonte di dati utilizzata. Le traiettorie prodotte sono solitamente elaborate
in modo da essere adattate al modello e all’animazione desiderata tramite programmi o
plug-in appositamente costruiti.
Il problema principale al momento dell’utilizzo dei dati provenienti dal motion
capture è rappresentato dalle differenze fisiche tra il performer e il modello da animare,
in particolare per quanto riguarda le proporzioni. Se ad esempio il performer ha le
braccia più lunghe del modello computerizzato, raggiungerà i punti dello spazio
circostante in momenti diversi da quelli del modello virtuale, che necessita ad esempio
di un gesto più lungo e ampio per afferrare un oggetto. Oppure, se il performer ha le
gambe più lunghe o più corte del modello, in proporzione al corpo, si avrà quasi
certamente il problema dello slittamento (skating), tipico delle animazioni prodotte con
motion capture senza correzione: il modello cammina slittando sulla superficie
d’appoggio.
61
I dati acquisiti devono quindi essere elaborati in modo da accelerare, rallentare o
comunque adeguare il movimento al modello che deve eseguirlo ed all’ambiente in cui
deve muoversi.
Esistono varie tecnologie capaci di rilevare il movimento; le principali sono quella
magnetica e quella ottica. Quest’ultima è quella più usata e si basa sull’impiego di
telecamere che rilevano oggetti riflettenti. Viene fatta indossare al performer una tuta,
su cui sono agganciati marker, piccoli oggetti fluorescenti dislocati in punti chiave, che
dovranno corrispondere ai joint dello scheletro nel software 3D; l’attore dovrà poi
muoversi dentro un campo a raggi infrarossi, come stabilito dal copione e le telecamere
andranno a tracciare automaticamente il movimento di ogni marker.
I marker sono sfere, semisfere o dischetti di dimensioni variabili (da 5 mm a 5 cm
di diametro), ricoperti di materiale catarifrangente, che vengono applicati sui punti di
acquisizione del soggetto, il quale non è quindi vincolato nei movimenti da cavi o altri
impedimenti fisici. Il numero di marker varia in genere da 15 a 30. L’acquisizione dei
dati viene eseguita da un insieme di telecamere che rilevano il campo di luce infrarossa
riflessa dai marker e lo registrano, a seguito di uno speciale adattamento alla luce
infrarossa.
Tutti i dati vengono registrati in un software e successivamente esportati per essere
applicati al personaggio virtuale. Il sistema comprende un insieme di dispositivi
hardware che consentono una prima analisi dei dati, il cui risultato viene inviato a un
PC. Prima di effettuare la sessione viene costruito lo schema della struttura cinematica
di cui si vuole acquisire il movimento, semplicemente costruendo con un piccolo editor
3D la struttura articolata e definendo i punti corrispondenti ai marker. Il computer, dato
questo schema del modello da acquisire, ricostruisce le posizioni nello spazio di ogni
marker durante un processo detto di tracking, grazie all’associazione del rilevamento di
ogni marker con il punto corrispondente sullo schema.51
Fig 24) Mocap 1. Fonte: http://www.agirlsworld.com/rachel/hangin-with/pix/polarex1.jpg
51
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 222-225
Fig 25) Mocap 2. Fonte: http://www.cs.washington.edu/homes/zoran/mocap/mocap-front.jpg
62
Con questa procedura è possibile anche registrare le espressioni di un attore reale e
trasportarle sul volto di un attore digitale. Il motion capture è sicuramente uno
strumento avanzato tuttavia include molte limitazioni e imperfezioni che ne vincolano
l’applicazione. Il mocap registra movimenti di attori reali; questi dati sono perfetti per
muovere un modello dalle sembianze umane, ma inefficaci se usati per personaggi di
fantasia, che appariranno limitati. Molto spesso la posizione dei marker viene rilevata
con degli errori di posizionamento, perciò l’animazione che si ottiene è difficilmente
editabile e gli animatori dovranno spendere molto tempo per pulire le curve di
animazione che risulteranno in molti punti sbagliate. Per l’animatore che gestisce dati
di motion capture, una delle principali difficoltà è la variazione delle curve
d’animazione: il mocap registra uno o più keyframe per ogni frame d’animazione
rendendo molto laboriosa la modifica dei valori, inoltre il mocap registra solo i
movimenti principali dell’attore; tutte le animazioni secondarie, come quelle di vestiti,
capelli o collane, dovranno essere eseguite con tecniche tradizionali. È indispensabile
quindi valutare la necessità di utilizzo della tecnica ed eventualmente pianificare con
cura la sessione di registrazione dei movimenti e il setup della geometria 3D, che dovrà
essere studiata in relazione alle procedure di acquisizione dei dati.
Negli ultimi anni l’avanzamento tecnologico dei sistemi di rilevamento dei marker
ha portato ad un aumento considerevole dell’utilizzo di questa tecnica; nei film
d’animazione molti studi non ne fanno uso più per problemi artistici che tecnici. In
Final Fantasy: the spirits within, uscito negli Stati uniti nel 2001, il mocap è stato usato
63
ampiamente in combinazione con tecniche tradizionali impiegate per le espressioni
facciali, in questo film, per tutti i personaggi umani, lo studio Square ha scelto la
tecnica del motion capture proprio per avvicinarsi il più possibile allo stile di un film
live e all’approccio fotorealistico visibile in tutta la pellicola.52
Motion Capture Elettromagnetico
I sensori utilizzati nel mocap elettromagnetico sono costituiti da un piccolo dipolo,
collegato via cavo all’unità centrale del sistema. Il performer si muove all’interno di un
campo elettromagnetico generato da una o più sorgenti, interagisce con i sensori e
permette al sistema di registrarne la posizione e l’orientamento. La presenza dei cavi di
collegamento tra i sensori ed il sistema di elaborazione limita i movimenti del
performer.
Il sistema magnetico opera generalmente in tempo reale e permette di osservare
direttamente l’animazione inviata al modello virtuale. I dati acquisiti dal sistema
vengono passati al software di animazione tramite un driver apposito. Il numero dei
sensori varia in media da 10 a 20 e dipende dal tipo di movimento analizzato. In base al
numero di sensori ed al modello è possibile acquisire da 15 a 120 campioni al secondo,
dove con campione intendiamo i dati relativi ai 6 gradi di libertà di ogni sensore (le tre
52
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 176-178
64
rotazioni e le tre coordinate di posizione). Questa limitata frequenza di campionamento
può dare luogo a fenomeni di aliasing.
La presenza di oggetti metallici o di altre fonti elettromagnetiche nelle vicinanze del
volume di acquisizione può inoltre alterare i dati.
Altri Metodi di Acquisizione
I dati numerici per l’animazione possono provenire anche da fonti esterne
comunemente non classificate come metodi di motion capture, ma non per questo meno
valide.
•
Segnali
L’elaborazione di segnali è una fonte vastissima di dati per l’animazione. Pensiamo
ad esempio alle immagini di simulazione dello spostamento delle nubi determinate in
base ai dati provenienti da satelliti e centraline di rilevamento alle loro successive
elaborazioni.
•
Analisi del Parlato
Un esempio interessante è l’animazione del volto basata su dati provenienti
dall’analisi del segnale sonoro rilevato durante il parlato. Se dobbiamo far parlare il
nostro attore virtuale, dobbiamo far si che il movimento delle sue labbra segua i suoni
effettivamente prodotti come uscita sonora durante l’animazione.
Se conosciamo già il testo da animare, possiamo registrarlo ed analizzarlo,
riconoscendo i punti dove devono essere pronunciate le diverse parti dell’alfabeto
fonetico e produrre una sorta di storyboard del parlato a cui faremo corrispondere le
corrette configurazioni del volto.
Sono in fase di sperimentazione metodi di analisi automatica in tempo reale del
parlato, che riconoscono le vocali, alcune combinazioni di consonanti e l’energia del
suono emesso e che generano in uscita codici numerici stabiliti per ognuna di esse. Con
questi sistemi, possiamo programmare il nostro sistema di animazione del volto in
modo da visualizzare la corretta posizione di labbra, guance zigomi, sopracciglia in
65
base ai dati numerici prodotti dal riconoscitore audio, ed ottenere così un’animazione
del modello che segue in tempo reale il testo pronunciato da uno speaker.
•
Virtual Set
Un metodo di rilevamento del movimento molto particolare e di grande importanza
permette di acquisire i dati di cambiamento di stato di una telecamera reale. Durante le
riprese di una scena, i parametri della telecamera variano nel tempo; essi vengono
registrati e riutilizzati per guidare la camera durante una o più riprese successive.
Questa tecnica è indispensabile per la produzione di animazioni con effetti speciali
in cui sia ad esempio necessario riprendere la scena con gli attori, senza gli attori, o con
diversi gruppi di attori, per poter poi montare le sequenze con le tecniche di chroma
key.
Guidare la telecamera in base a sequenze di dati ci permette di ripetere esattamente
la stessa ripresa più volte, senza possibilità di errori, ma anche di attribuire gli stessi
dati ad una telecamera virtuale, in modo da produrre, per la scena virtuale, una ripresa
identica e quella effettuata nel mondo reale, e poter poi montare in una sequenza unica
immagini reali e virtuali, prive di discrepanze nella messa a fuoco o nel punto di vista. I
teatri di posa in cui è possibile compiere queste operazioni vengono chiamati virtual
set; in essi l’allestimento scenografico è del tutto virtuale.
•
Sistemi meccanici e misti
I sistemi di motion capture meccanico acquisiscono i dati relativi al movimento
tramite dispositivi meccanici di varia natura. Un primo esempio di metodo meccanico è
il guanto. In corrispondenza di ogni dito della mano sono posizionati sensori di varia
natura in grado di trasmettere dati relativi al grado di tensione e flessione nel tempo. I
metodi di rilevamento dei dati sono in genere di due tipi: ottici ed elettromagnetici.
In ogni guanto basato su metodo ottico, un tubo opaco è posizionato su ogni dito e
collega un LED posto ad un’estremità con un fotorecettore posto all’altra. La quantità
di luce registrata dal fotorecettore è proporzionale al grado di flessione del dito.
Un altro guanto ottico è basato sull’uso delle fibre ottiche. Lungo ogni dito è posta
una fibra ottica trattata in modo da disperdere una parte della luce trasmessa. Anche in
questo caso, un fotorecettore registra la quantità di luce generata da un LED all’altra
66
estremità della fibra. La differenza tra luce emessa e quella registrata fornisce il grado
di flessione del dito. Un esempio di metodo elettromagnetico si basa su sensori ad
effetto Hall53 e sui campi elettromagnetici generati da piccole calamite, mentre un
quarto tipo di guanto per il mocap usa sensori che hanno la caratteristica di variare, in
funzione al grado di deformazione, la resistenza opposta al passaggio di corrente.
I dati registrati sono in ogni caso trasmessi tramite cavo all’unità di calcolo. Se il
motion capture è fatto allo scopo di animare un modello accurato di mano, il sistema
interpreta i dati e attribuisce la corretta posizione di ogni falange del modello virtuale.
Se l’acquisizione è fatta per permettere la telemanipolazione di un altro sistema, i dati
vengono analizzati e tradotti nei segnali opportuni. Un esempio di motion capture di
questo tipo è l’animazione di un volto virtuale tramite movimenti della mano, nel quale
ad ogni espressione è associata una serie di movimenti: l’indice controlla l’apertura
degli occhi, il pollice la bocca, il medio le sopracciglia, e così via.
Un altro metodo di motion capture meccanico è il DID (Direct Input Device), detto
anche manichino posizionabile o Poseable Mannequin, il cui principio di
funzionamento è simile allo stop motion.
La struttura cinematica del modello virtuale da animare viene costruita in scala
opportuna tramite un insieme di sbarrette giuntate tra loro e in grado di compiere i
movimenti previsti per il modello. Le parti flessibili della struttura sono collegate
tramite sensori all’unità di calcolo, che ne riconosce la posizione. Per ogni frame
dell’animazione il modello viene riposizionato a mano dall’animatore e la sua posizione
viene registrata dal sistema e aggiunta alla curva di animazione generata.
Questo metodo permette agli animatori in stop motion di continuare ad animare la
tecnica già nota, che per molti aspetti è anche una forma d’arte, data la difficoltà di
creare animazioni credibili e realistiche.54
Fig 26) Mocap 3. Fonte: http://www.vuse.vanderbilt.edu/~bobbyb/images/linda.jpg
53
Effetto Hall: Tramite l'effetto Hall si può dimostrare che la forza di Lorentz agisce anche sulle cariche
di conduzione. Si nota che in una sottile striscia di metallo, immersa in un campo magnetico, e in cui
scorre una corrente, si misura una differenza di potenziale detta tensione di Hall. L'effetto prende il nome
dal fisico Edwin Hall che per primo lo scoprì nel 1879. Tratto da: http://it.wikipedia.org/wiki/Hall
54
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 226-230
67
Traiettorie e Keyframing
Come abbiamo visto, animare in 3D con metodi informatici significa attribuire
variazioni ai valori assunti dai parametri che descrivono l’aspetto e lo stato di un
oggetto nella scena tridimensionale, cioè di costruire le funzioni di variazione del
parametro in base al tempo.
Il variare dei parametri viene descritto con la curva di animazione. La curva di
animazione di un parametro può essere trattata come una normale funzione continua
(ad esempio, sotto forma di una traiettoria ed una legge oraria), o discreta, tramite la
definizione di punti chiave (keyframe) ed interpolazioni.
In base al tipo di personaggio, curve di traiettoria o keyframe possono essere
sufficienti a descrivere il movimento o, nel caso di una struttura articolata composta di
catene cinematiche, interagire con le descrizioni cinematiche del modello.
Con traiettoria e legge oraria intendiamo un percorso e il modo con cui il percorso
viene seguito, cioè come variano la velocità e l’accelerazione. Una traiettoria non è
altro che una qualsiasi curva nello spazio che può essere descritta con una funzione
parametrica dove le coordinate x, y, e z indicano lo spazio (s) e la variabile t il tempo:
s(t) = (x(t), y(t), z(t))
Il problema che si pone è quello di creare traiettorie legittime, ovvero che siano
effettivamente percorribili senza che si urtino ostacoli, e che vengano percorse con
naturalezza e scioltezza, senza scatti improvvisi, ma con accelerazioni graduali,
adeguate al contesto in cui l’animazione viene a svolgersi.
Il primo problema è noto come problema della collision detection e collision
avoidance: rilevare ed evitare una possibile collisione con ostacoli. Si tratta di un
problema di elevata complessità computazionale, che può venire risolto con due
approcci distinti: un approccio euristico e uno sistematico. A titolo di esempio, gli
approcci euristici approssimano gli oggetti di una scena con forme più semplici, per le
quali il test di collisione è fortemente semplificato. Questi approcci sono soddisfacenti
quando non è richiesto fortemente un grado elevato di precisione e il requisito maggiore
è la velocità di esecuzione. Quando viceversa si richiede un’elevata precisione, si
adottano i metodi sistematici, tra i quali il più noto è quello dovuto a T. Lozano Perez.
68
Si tratta di un metodo che schematizza l’oggetto in movimento con un punto e
ridefinisce gli ostacoli della scena con poliedri che rappresentano il luogo dei punti
vietati al punto in movimento. Con questa semplificazione i test di collisione sono
ridotti a confrontare un punto con una famiglia di poliedri. Un altro metodo, dovuto allo
stesso autore, affronta il problema ambientandolo nello spazio delle configurazioni dei
giunti e individuando in tale spazio le limitazioni cui sottoporre i valori che possono
assumere gli stessi giunti. Altri metodi derivati da quelli sopra citati consentono di
affrontare il problema anche per scene molto complesse, composte da poliedri non
convessi, tipici di scenari in cui devono muoversi attori virtuali.
Le prime animazioni a computer, e molte animazioni prodotte per videogiochi,
erano caratterizzate da una velocità molto elevata, da movimenti bruschi, cambiamenti
di punto di vista immediati. Si trattava di animazioni molto spettacolari ma poco
realistiche, il risultato di esperimenti in cui l’esperienza cinematografica era tenuta in
poco o nessun conto. In seguito sono stati messi a punto metodi che permettono di
creare animazioni molto più naturali, che sfruttano leggi orarie di percorrenza delle
traiettorie in cui l’accelerazione varia con gradualità e in modo non banale.
Oltre a ciò, un ulteriore problema è dato da un inizio o una fine del movimento
brusca. Anche questo è un effetto innaturale: sia i movimenti degli oggetti o degli attori
sia quelli della telecamera hanno un avvio lento, raggiungono una velocità massima e
prima di fermarsi rallentano riducendo gradualmente la velocità. Questo effetto si
chiama in gergo ease-in – ease-out. Per ottenerlo si interviene nella funzione dell’arto
del modello che vogliamo animare, rendendola meno brusca. Alla variabile tempo (t)
sarà applicata quindi la “formula ease” che in generale viene scelta come un tratto di
sinusoide, calibrando l’animazione in modo uniforme.
La frequenza con cui la posizione deve essere calcolata dipende dalla precisione che
si vuole ottenere nel moto. Nel caso di sistemi robotizzati essa dipende dalle
caratteristiche meccaniche degli attuatori, che possono essere motori continui o a passo
singolo. Nella simulazione di attori virtuali la frequenza di campionamento della
posizione è legata alla capacità di realizzare animazioni in tempo reale o in tempo
differito. Nell’animazione a computer la frequenza deve permettere di generare almeno
25 fotogrammi al secondo; se si tratta quindi di movimenti naturali, la frequenza di
campionamento sarà 25 al secondo. Naturalmente la scala dei tempi può essere
modificata liberamente, realizzando moti rallentati o accelerati come nella
cinematografica scientifica.
69
Un altro metodo di generazione di una curva di animazione è il keyframing.
Il movimento viene descritto solo in base ad alcune posizioni chiave, dette
keyframe. Le posizioni intermedie sono generate automaticamente dal programma di
animazione, che interpola i valori di due keyframe in sequenza sull’intervallo di tempo
che intercorre tra il primo ed il secondo.
Il tipo di interpolazione può essere lineare, parabolico, cubico, con spline o altro, in
base alle possibilità offerte dal software di animazione ed alla scelta dell’animatore.
L’interpolazione lineare darà luogo a movimenti a scatto mentre interpolazioni
quadratiche o cubiche permettono variazioni morbide e graduali tra un tratto e il
successivo. I keyframe possono essere generati anche automaticamente in seguito ad
elaborazioni di dati di vario tipo, ed acquisiti come valori numerici ad esempio
interfacciando direttamente il software di animazione con un sistema di rilevazione
della posizione.55
L’utilizzo dei keyframe potrebbe essere paragonabile a quello dell’animazione
tradizionale. Nell’animazione 2D, si lavora sulle posizioni base della scena, disegnando
55
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 217-222
Fig 27) Keyframe. L’immagine fornisce un buon esempio di keyframing. Nella finestra in
sovrimpressione, all’interno della tabella gialla, si notino gli elementi da animare e i parametri da
applicare alle animazioni. La linea del tempo, costituita da tutti i frame che compongono l’immagine e
quindi l’animazione, serve poi ad individuare e selezionare i punti chiave (in rosso). Fonte:
http://www.euclideanspace.com/mjbWorld/userGuide/animation/keyframe/timeline.gif
70
le pose del personaggio in modo che l’azione possa essere sviluppata con un numero
minimo di disegni. Ultimate le pose, vengono creati i cosiddetti disegni inbetween per
terminare l’azione. Nell’animazione 3D, i keyframe sono valori dati a certi frame per
controllare le articolazioni di un modello geometrico, solitamente organizzato in una
gerarchia; il computer calcola i valori degli inbetween automaticamente attraverso
medie relative ai valori assegnati nei keyframe.
Il primo approccio è quello di creare dei keyframe nelle posizioni chiave
dell’azione, lasciando calcolare al computer i fotogrammi di itercalazione. Quando il
software 3D calcola le posizioni intermedie tra i valori dei keyframe, crea una curva per
ogni attributo di movimento (rotazione, traslazione, scalatura). Le curve rappresentano i
valori per ogni attributo in ogni frame, e la modifica di tali curve porta ad accelerazioni
e decelerazioni nel passaggio tra due keyframe. Le curve d’animazione possono essere
modificate a piacimento, ma presentano delle limitazioni che sono insite nella loro
struttura matematica.
In molti casi è quindi necessario intervenire tra i fotogrammi di intercalazione creati
dal software e inserire altri keyframe per ottenere l’effetto voluto. Un secondo
approccio possibile consiste nell’impostare pose chiave (keyframe) per ogni frame
dell’animazione (tecnica detta a passo uno). Lavorare a passo uno consente di avere un
controllo totale della posizione di un oggetto in ogni istante dell’animazione.
I due metodi possono essere sfruttati nella stessa animazione per risolvere problemi
specifici. Solo una pianificazione preventiva della scena da animare potrà portare
all’applicazione corretta delle due metodologie.
71
4. Il Rendering
La scienza moderna, nel perseguire l’obiettivo della spiegazione dei fenomeni e dei
processi naturali, adotta sistematicamente i metodi della simulazione. Mediante modelli
matematici sempre più accurati, si cerca di descrivere un sistema naturale allo scopo di
prevederne il comportamento. La previsione del comportamento del sistema viene
messa a confronto con il sistema reale e costituisce sia uno dei metodi di verifica delle
ipotesi sperimentali sia uno dei metodi fondamentali per perfezionare il modello stesso.
La previsione è determinata dallo stato in cui si trova il sistema a un dato istante
iniziale o dal modo in cui variano le condizioni al contorno. Quanto più il modello
matematico è accurato tanto più precisa sarà la previsione del comportamento del
sistema simulato, e l’evoluzione nel tempo di ogni variabile che descrive il sistema
potrà essere calcolata con la necessaria precisione.
Oggi, con la diffusione dei sistemi e delle tecniche per la creazione di immagini
fisse e in movimento, il concetto di simulazione si è arricchito. I casi più rappresentativi
sono quelli della simulazione visiva e della simulazione di personaggi animati. Anche
se affonda le sue radici metodologiche nelle scienze fisiche, la simulazione visiva ha
avuto i maggiori impulsi da motivazioni tanto commerciali che scientifiche, tra le quali
l’intrattenimento e il gioco.
4.1 Simulazione Visiva e Foto-Realismo
Plasmare e dar vita ad un essere animato, costruire e rendere attivo un automa, è
sempre stato per l’essere umano, un mito potente, che ricorre con frequenza nelle più
diverse culture. Ricordiamo il mito di Prometeo, che ruba agli dei il fuoco e la sapienza
per donarli agli uomini, o il rabbino Lœw di Praga, che plasma il Golem e gli infonde la
vita pronunciando parole magiche, il cui significato, riposto nei Testi Biblici, può
essere scoperto solo dai grandi saggi.
Nel secolo dei Lumi, l’ambizione di imitare la vita con l’automa spinge a creare
macchine che cantano, suonano, giocano a scacchi e hanno le sembianze di manichini
antropomorfi. Più recentemente tutta la cultura meccanica moderna tende a ricreare
porzioni del corpo umano o di esseri viventi per realizzare macchine capaci di compiere
lavori pesanti o ripetitivi. Il nome stesso robot, che si attribuisce ai sistemi di
72
produzione automatica, deriva dal vocabolo céko robota, il cui significato è quello di
lavoratore asservito.
Il tema dell’automa e della simulazione del comportamento ha quindi radici solide
sia nel campo delle scienze informatiche sia nella storia della cultura umana e delle
tecnologie non informatiche. Sia nell’epoca contemporanea sia nel passato,
l’intendimento è sempre stato quello di simulare, in un’accezione che si è però via via
modificata: agli inizi simulare era sinonimo di ingannare, oggi è piuttosto quello di
riprodurre, di imitare, anche se l’inganno è sempre presente, come effetto di una
costruzione così accurata da essere indistinguibile dal reale, a patto, a volte, di accettare
una sospensione temporanea di incredulità.56
Il termine «simulazione» contiene un’ambiguità semantica, nota Gianfranco
Bettetini: «simulare significa imitare, rappresentare, riprodurre, ma significa anche
fingere, ingannare, mentire. Così come l’arte della “simulazione” comporta l’abilità
esecutiva del ritratto, della statua, della rappresentazione dell’idea; ma anche quella del
saper fingere, dello stratagemma».
Quanto meglio la struttura percettiva realizzata nella rappresentazione si avvicina al
modello percettivo che costruiamo nel conoscere e nel ricordare l’oggetto mediante la
sua esperienza reale diretta, tanto più la simulazione risulta efficace, convincente,
«verosimile».57
La simulazione visiva, nell’arco di poco più di vent’anni, ha avuto un progresso
impressionante sia per la capacità di raffigurare anche in modo dinamico sistemi,
processi, modelli, personaggi sia per il grado elevatissimo di verosimiglianza che ha
saputo raggiungere. Tutto ciò è raccolto nel programma del foto-realismo, che ha
raggiunto risultati eccellenti. In molti casi è davvero difficile riconoscere se
un’immagine che compare sul display dell’elaboratore sia una fotografia digitale o il
frutto di un programma di simulazione visiva.
Non possiamo considerare il foto realismo come un fatto puramente tecnico,
dobbiamo in primo luogo chiarire cosa si debba intendere per realismo, in particolare
realismo visivo, anche per comprendere quando e perché questo sia necessario o
opportuno.
56
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 231-232
57
Pier Luigi Capucci, Realtà del virtuale, cit., p.41 e p 42
73
Il ruolo del realismo nelle arti figurative, nelle varie epoche, si è continuamente
modificato, ed è stato a volte positivo e a volte negativo, spostando alternativamente
l’enfasi sugli aspetti iconici o su quelli simbolici della raffigurazione artistica. Una
definizione operativa di realismo, spesso adottata nelle arti, si correla alla nozione
d’iconicità della raffigurazione, cioè alla sua capacità di riprodurre con accuratezza il
reale, ovvero il grado di somiglianza tra la rappresentazione figurativa e il mondo reale
raffigurato.58
Il segno iconico, secondo Eco, stimola «una struttura percettiva “simile” a quella
che sarebbe stimolata dall’oggetto imitato». Ancora: «Se il segno iconico ha proprietà
in comune con qualcosa, le ha non con l’oggetto, ma con il modello percettivo
dell’oggetto». Tale modello percettivo è determinato da un’esperienza acquisita dal
soggetto osservatore, che concerne aspetti sia fisiologici che culturali.59
Quindi, tanto maggiore è il grado di iconicità di una raffigurazione, tanto maggiore
risulta il suo realismo. Questa nozione apparentemente semplice, in realtà nasconde un
grosso problema: infatti il grado di iconicità non è un dato assoluto, è piuttosto un fatto
convenzionale che ogni cultura attribuisce ad un proprio sistema di raffigurazioni
simboliche; di conseguenza quello che a noi appare realistico può apparire del tutto
astratto o addirittura profano ad un aborigeno dell’Amazzonia.60
La fotografia esautora l’azione fisica sostituendola con una serie di processi
automatici e irreversibili, relegando la manualità ai margini dell’azione generativa, ad
una sorta di intervento secondario, dopo che l’immagine è stata inesorabilmente fissata.
Nell’immagine fotografica figurazione e «talento manuale» sono definitivamente
separati. La fotografia è in grado di produrre una figurazione realistica e ad elevata
definizione, versatile, convincente, facilmente adattabile al linguaggio degli altri media
della comunicazione (grafica, stampa, editoria). La fotografia può congelare il
movimento, per indagarlo al di là delle capacità dirette della percezione visiva. Con la
fotografia, l’immagine, indefinitamente riproducibile e iterabile, ad un tempo copia e
58
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 233
59
Pier Luigi Capucci, Realtà del virtuale, cit., p.43.
60
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 233
74
originale, si libera dal crisma dell’assoluto, dell’unicum, dell’autenticità, rinunciando ad
un’aura in quanto «apparizione unica di una lontananza».61
Oggi il realismo visivo non è più soltanto un fatto di accuratezza della
raffigurazione, ma anche di accuratezza della riproduzione del comportamento, della
funzione, delle trasformazioni nel tempo: il realismo visivo va ormai di pari passo con
il realismo della simulazione dinamica.
La possibilità di creare Realtà Virtuali apre un ulteriore problema, che è proprio del
realismo: quello della veridicità del mondo simulato. Nel campo delle realtà virtuali,
non solo in virtù della qualità della raffigurazione visiva, le tecnologie adottate
consentono di presentare come verosimile mondi addirittura impossibili sul piano del
rispetto delle leggi fisiche, in un continuum di variazioni di particolari, ognuno in sé
pienamente veridico ma, nel complesso, interamente inventati. Un esempio per tutti: le
simulazioni di volo che possono trasgredire i limiti di velocità e accelerazione dei
velivoli reali. Parlando quindi di foto-realismo (o di realtà virtuali) accettiamo una
convenzione che correla il realismo con un determinato grado di veridicità o di
verosimiglianza. Sarà compito di chi progetta comunicazione visiva decidere quale
grado assumere e quindi quali tecniche adottare per raggiungerlo.
La nozione di foto-realismo comunemente adottata richiede che un’immagine
prodotta da un sistema informatico sia indistinguibile dall’immagine della scena reale
percepita dall’osservatore. L’indistinguibilità è un fattore soggettivo e manca quindi di
un criterio quantitativo di misura. La qualità della luce prodotta da un monitor è
drasticamente diversa da quella percepita nella realtà. Inoltre le condizioni di
osservazione del reale sono assai differenti da quelle di un monitor o anche di altri
dispositivi di visualizzazione. Il principio di indistinguibilità non è quindi determinante
per una nozione di foto-realismo che punta a riprodurre il mondo reale, ma è
determinante la nozione di verosimiglianza. È interessante notare come nelle arti
figurative, e in particolare nella fotografia, non si sia mai posto il problema
dell’indistinguibilità, quanto piuttosto quello della credibilità della scena riprodotta,
ovvero dell’assenza di trucchi dovuti al montaggio, allo sviluppo o alla stampa. In
qualche modo si riconosceva implicitamente alla fotografia un’intrinseca capacità di
riprodurre il reale, anche se in forma simbolica, mentre nello stesso tempo la
caratteristica simbolica della raffigurazione fotografica veniva rimossa o dimenticata. È
solo con il diffondersi della creazione di immagini di sintesi create con elaboratore che
61
Pier Luigi Capucci, Realtà del virtuale, cit., p.47.
75
il valore simbolico della raffigurazione viene ad attenuarsi e si impone con prepotenza
la capacità di imitazione del reale, e si riapre quindi il problema della definizione di un
criterio di verità.62
Inoltre nella rappresentazione di sintesi tramite computer, statica e dinamica, si
perde il contatto diretto con la «naturalità». Il rapporto fra figurazione e operatore è
totalmente mentale; il realismo dell’immagine è ottenuto per via progettuale, formale,
numerica, è fondato su di un iter astratto, che ha ben poco a che vedere con un gesto
fisico, con un «occhio». L’informazione visiva prende forma sopra un supporto piano,
uno schermo, e dunque dal punto di vista della sua fruizione segue le regole di visione
di una superficie bidimensionale, rispetto alla quale la posizione ideale dell’osservatore
è quella frontale, sull’asse del piano della figurazione, ad una distanza da essa che
dipende dall’ampiezza e dalla strutturazione della sua superficie.63
Possiamo dare una prima, diversa, definizione di foto-realismo, che tiene conto
dell’impossibilità di riprodurre stimoli identici in condizioni di osservazione così
diverse, come un monitor rispetto a una finestra su un paesaggio.
Diremo realistica l’immagine di sintesi che produce lo stesso stimolo visivo
prodotto dall’immagine della scena reale, riprodotta sullo stesso supporto, e osservata
nelle medesime condizioni, quindi foto con foto, immagini su monitor con immagini su
monitor e così via. A questo punto è necessario sottolineare due fattori: lo stimolo
visivo e le condizioni di osservazione. La nozione di stimolo visivo, è
quantitativamente precisa, secondo i modelli di colore comunemente adottati; si tratta
infatti di misurare la distribuzione spettrale di luminanza emessa dall’immagine o dalla
scena. Non è però sufficiente limitare l’eguaglianza allo stimolo visivo prodotto dalla
scena di sintesi e dalla scena reale. Per completare la nozione di realismo visivo
nell’immagine di sintesi occorre ipotizzare che la scena reale e quella generata con un
procedimento di sintesi vengano riprodotte sullo stesso supporto, che può essere una
fotografia o un monitor televisivo. Questo requisito fa sì che la qualità della luce che
giunge all’osservatore sia la medesima in entrambi i casi.
Infine dobbiamo richiedere che le due immagini siano osservate nelle medesime
condizioni, ad esempio due fotografie su un tavolo o in un quadro, o le due immagini
sullo stesso monitoro su due monitor identici e calibrati, con condizioni di
62
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 234-236
63
Pier Luigi Capucci, Realtà del virtuale, cit., p.49.
76
illuminazione al contorno sempre uniformi e con la medesima ambientazione, in modo
da avere identica influenza sulla visione periferica. Queste condizioni sono soddisfatte
in generale da sistemi di visione stereoscopica mediante caschi, usualmente adottati per
sistemi di immersione e telepresenza nella Realtà Virtuale.64
4.2 Cos’è il rendering
Il Rendering (presentazione fotorealistica o resa) è, in ambito informatico, il
processo di generazione di un’immagine digitale a partire da una descrizione degli
oggetti tridimensionali per mezzo di un software. La descrizione è data in un linguaggio
o in una struttura dati definiti rigorosamente e deve contenere la geometria, il punto di
vista, le informazioni sulla mappatura delle superfici visibili e sull' illuminazione.
Il rendering è uno dei temi più importanti della grafica tridimensionale
computerizzata e in pratica sempre in relazione con tutti gli altri. Nella «pipeline
grafica» è l'ultimo importante stadio e fornisce l'aspetto finale al modello e
all'animazione. Con il crescente perfezionamento della grafica computerizzata dal 1970
in avanti è diventato un sempre più importante soggetto di studio e ricerca. È usato per:
montaggio video/giochi per computer, simulatori, effetti speciali per film/serie TV, e
visualizzazione di progetti. Ciascuno con una differente combinazione di caratteristiche
e tecniche. Come prodotti, sono disponibili una gran numero di renderizzatori, alcuni
dei quali integrati nei più diffusi pacchetti di modellazione e animazione, alcuni
64
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 236-237
77
indipendenti, altri ancora sono progetti open source. Dall'interno, un renderizzatore è
un programma progettato attentamente e basato su una combinazione selezionata di
metodi relativi a: ottica, percezione visiva, matematica e ingegneria del software. Nel
caso della grafica tridimensionale, il rendering è un processo lento e richiede un gran
numero di elaborazioni (nel caso di creazione di film), oppure è assistito in tempo reale
dagli acceleratori 3D delle schede grafiche (per i giochi tridimensionali).65 In pratica il
rendering è un processo che consente di ottenere un’immagine bidimensionale da una
fonte di dati tridimensionale. Tutte le informazioni che sono state impostate all’interno
di un software 3D vengono elaborate dal motore di rendering che genererà i
fotogrammi in successione.66
4.3 Come funziona
Per eseguire il rendering occorre un’alta capacità computazionale e di stoccaggio
dati, per questo motivo gli studi sono attrezzati con unità di elaborazione dette
renderfarm. Le renderfarm sono costituite dall’unione di decine di computer ognuno
dei quali è dotato di due o più processori (CPU). La Pixar animation Studio dal 10
febbraio 2003 ha a disposizione una nuova renderfarm costituita da 1024 processori
Intel Xeon e da oltre 60 terabyte di memoria di massa.
Fig 28) Alien. Fonte: http://www.softimage.com/Products/3d/v4/media/alien_lg.jpg
Fig 29) Renderfarm. Fonte: http://www.skullbox.net/clusters/renderfarm.jpg
65
Tratto da: http://it.wikipedia.org/wiki/Rendering
66
Pier Luigi Capucci, Realtà del virtuale, cit., p.207.
78
Tutti gli studi di grandi dimensioni utilizzano renderfarm di questo tipo per
generare gli oltre 110.000 frame che mediamente occorrono per completare un film
d’animazione 3D.
Il motore di rendering è lo strumento più importante di questo processo. Nel corso
degli anni gli sviluppatori hanno programmato motori di rendering diversi, ognuno dei
quali affronta la simulazione di principi fisici in modo differente; attualmente il motore
di rendering più usato nei film d’animazione 3D è Photorealistic RenderMan. Spesso
viene usato solo il termina RenderMan (RMan) per indicare il motore (engine) di
rendering della Pixar, in realtà RMan non è un motore di rendering, ma è un’interfaccia
di comunicazione con altri motori. La prima implementazione di questo standard è
appunto Photorealistic RenderMan sviluppato dalla Pixar Animation Studio nel 1988.
Ad oggi esistono diversi motori che hanno implementato questo standard, come
3Delight, Air (Advance Image Rendering), Aqsis, BMRT (Blue Moon Rendering
Tools), Entropy creato dalla società Exluna.
RenderMan è quindi un protocollo che mette in comunicazione programmi di
modellazione con programmi di rendering. In questo senso RenderMan assume lo
stesso ruolo che il sistema PostScript ha per le immagini 2D. La maggior parte dei
motori di rendering che implementano RMan si basano su un algoritmo di tipo scanline
chiamato REYES. Nel 1981 Loren Carpenter iniziò a scrivere il primo motore di
rendering per la LucasFilm e lo chiamò Renders Everything You Ever Saw (REYES).
Nel 1987 fu presentato ufficialmente al Siggraph con il paper The REYES Image
Rendering Architecture. Questo algoritmo divide la geometria in poligoni
quadrangolari durante l’operazione di rendering. Questi poligoni sono così piccoli che
comunemente vengono definiti micropolygon. Per questo motivo REYES viene anche
chiamato micropolygon render. Per immagini di alta qualità la grandezza di questi
poligoni è pari alla grandezza di un pixel dell’immagine o inferiore (subpixel).
Circa vent’anni fa, quando la comunità di ricercatori iniziò a studiare le
problematiche della generazione di immagini in CGI per gli effetti visuali, uno dei
principali obiettivi era creare immagini fotorealistiche di alta qualità. Le immagini
cinematografiche sono infatti proiettate in alta definizione su grande schermo e anche il
più piccolo artefatto della grandezza di un pixel risulterebbe visibile al pubblico. Per
raggiungere tale livello di qualità occorreva che le scene tridimensionali potessero
essere costituite da milioni di oggetti e che ad ognuno si potessero associare dettagli
79
superficiali. Inoltre era necessario ottenere una perfetta simulazione delle fonti
luminose, dell’effetto motion blur e del depth of field (sfocatura di campo).
L’utilizzo di algoritmi che simulassero fisicamente questi effetti ottici era però una
strada impraticabile per la lentezza di elaborazione dei computer di quei tempi. Fu
scelta quindi una via completamente diversa che non tenesse in considerazione ciò che
avviene nella realtà ma solo ciò che serve per ottenere immagini identiche a quelle
impresse sulla pellicola. Da questo concetto derivano REYES e RenderMan.
Semplificando si può dire che renderman lavora elaborando dati che provengono da
tre differenti file. Il RIB file (RenderMan Interface Bytestream) contiene la descrizione
geometrica della scena, chiamate agli shader e opzioni come la risoluzione e la
profondità colore dell’immagine. Questo file viene normalmente generato dal software
con cui si sta creando la geometria e/o l’animazione. L’SL file (Shading Language)
contiene le informazioni relative agli shader e determina come ogni singolo materiale
interagirà con la luce. All’interno dell’SL file sono presenti le chiamate alle texture. Il
RIB archive normalmente non contiene informazioni relative all’immagine ma solo alla
geometria e agli shader. Questo file viene chiamato da un RIB file principale nella fase
di rendering e assume la stessa funzione che hanno i file “reference” presenti in quasi
tutti i software di animazione 3D.67
4.4 Livelli di Rendering
Alla ricerca continua del più alto grado di realismo visivo si può, contrapporre una
ricerca di effetti di carattere impressionistico o di semplificazione della raffigurazione
che tendono verso la caricatura o lo stile “da cartone animato”, il cui scopo è quello
della verosimiglianza piuttosto che quello della riproduzione del vero.
Volendo quindi organizzare in una scala di livelli crescenti di iconicità i metodi di
raffigurazione eidomatica, dal più astratto e simbolico al più verosimile, via via
aggiungendo effetti e tecniche diverse, incontriamo:
•
Proiezioni ortogonali di figure a fil di ferro
•
Prospettiva di figure a fil di ferro
•
Rimozione delle linee e superfici invisibili
•
Modelli di illuminazione locali con ombre proprie
67
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 208-214
80
•
Poliedri a facce piatte – Shading Flat
•
Poliedri smussati – Shading Smooth
•
Ombre portate
•
Tessiture (texture) ed effetti superficiali
•
Riflessioni simulate
•
Modelli di illuminazione globali e foto realismo
Fil di ferro
Il primo livello di resa visiva che consideriamo è la tecnica detta a fil di ferro (wire
frame) con la quale la forma tridimensionale, descritta con un modello geometrico,
viene raffigurata mediante linee di contorno. Nella sua versione più semplice, la
modalità a fil di ferro consiste nel raffigurare tutti gli spigoli del modello geometrico,
ed è comunemente usata da tutti i programmi di modellazione geometrica interattiva. In
questo modo si tracciano anche le linee che sarebbero in teoria invisibili, in quanto
nascoste da facce che dovrebbero essere opache. Questa forma di raffigurazione si
presta molto bene per creare disegni di carattere tecnico, in particolare le proiezioni
parallele ortogonali o assometriche. Il limite principale di questo stile di raffigurazione
è, tuttavia, l’impossibilità di indicare con chiarezza la profondità di una scena e,
soprattutto, di riconoscere ciò che è visibile e costituisce le facce rivolte verso
l’osservatore da ciò che è visibile e rivolto nel senso opposto.
81
Questa forma di rappresentazione è sistematicamente adottata nei sistemi di
modellazione geometrica, quando è necessario agire su ogni vertice o faccia di una
struttura complessa.
Prospettiva a fil di ferro
Un aiuto all’interpretazione della tridimensionalità della scena deriva dall’uso della
proiezione prospettica, tuttavia ci sono numerose configurazioni di forme che restano di
difficile interpretazione anche in questo caso. Anche rimuovendo le linee invisibili,
perché mascherate da facce più vicine all’osservatore, molte ambiguità non vengono
risolte e ne nascono di nuove.
Indizi di profondità – Depth Cueing
Una tecnica che veniva frequentemente usata quando il costo computazionale per
rimuovere le linee invisibili era eccessivo, consisteva nell’attribuire a ogni segmento di
una scena raffigurata a fil di ferro con proiezione prospettica un livello di grigio o di
colore progressivamente più scuro col crescere della distanza. Questa tecnica si ispira
alla prospettiva aerea di Leonardo da Vinci, e aiuta a percepire meglio i rapporti di
profondità tra le parti di una scena complessa. La risoluzione che generalmente si
adottava consisteva nell’assegnare il livello di luminosità massimo ai segmenti prossimi
al piano di clipping frontale e minimi ai segmenti prossimi al piano di clipping in
fondo, e a tutti i segmenti intermedi un livello di luminosità proporzionato tra questi
due estremi.
82
Linee nascoste
Per risolvere le ambiguità percettive, indotte dalla presenza di linee che dovrebbero
essere mascherate da facce opache, occorre risolvere il problema della rimozione delle
linee nascoste. Si tratta di un problema classico nella computer grafica, che ha avuto nel
corso degli anni numerosissime soluzioni. Infatti fino a pochi anni fa si trattava di un
problema computazionalmente molto complesso che richiedeva quindi elevati tempi di
calcolo. Solo recentemente, per merito dell’attuale velocità operativa dei processori, la
rimozione delle linee nascoste può essere compiuta in tempo reale, permettendo di
visualizzare in movimento forme molto complesse.
Nella sua forma più semplice, il problema si risolve confrontando ogni linea della
geometria di una scena con tutte le superfici della scena stessa per decidere se la
superficie si trova davanti alla linea in esame rispetto alla direzione d’osservazione. Se
la risposta è positiva per almeno uno dei due vertici, occorre trovare il punto in cui la
proiezione della superficie interseca la proiezione della linea. Un algoritmo molto
semplice ed elegante è dovuto a Roberts, ed è limitato a scene composte da poliedri con
facce poligonali (questa limitazione è certamente soddisfatta se le scene sono composte
interamente da triangoli). L’eliminazione degli spigoli visibili si compie dopo aver
applicato alla scena la trasformazione prospettica, e mantenendo la descrizione
geometrica di ogni vertice in coordinate omogenee; questo preserva la coordinata z di
profondità e permette di semplificare alcuni calcoli. Innanzi tutto si introduce il
concetto di faccia autonascosta: si tratta di una faccia della scena che è orientata in
senso opposto alla direzione di osservazione.
Per accertare se una faccia è autonascosta, è sufficiente confrontare la direzione
della normale della faccia con la direzione della proiezione prospettica, ma poiché
quest’ultima coincide, nella configurazione canonica, con la direzione dell’asse z, il test
si riduce al confronto tra la normale e l’asse z. Una volta individuate le facce
autonascoste, si possono eliminare dai successivi confronti tutti gli spigoli che sono
comuni a due facce autonascoste. Questa prima fase viene chiamata anche back face
culling (scelta delle facce posteriori). Gli spigoli rimanenti devono essere confrontati
con ogni poliedro della scena. Per semplificare ulteriormente questa fase di confronto, è
possibile delimitare ogni poliedro con tre coppie di valori che indicano i valori minimi
e massimi delle sue coordinate nelle tre direzioni; anche questi valori vengono
trasformati prospetticamente e il test di occlusione tra un poliedro e uno spigolo si
83
riduce ad un test preliminare tra i valori minimi e massimi che delimitano l’ingombro
(buonding box) del poliedro.
Quando uno spigolo non supera questo test, potrebbe essere parzialmente o
interamente mascherato dal poliedro, e l’indagine si fa più assicurata per cercare di
trovare l’eventuale punto di transizione tra visibilità e invisibilità dello spigolo in
esame. Il vincolo di convessità sulle facce dei poliedri garantisce che uno spigolo possa
essere mascherato interamente o parzialmente ma che non vi siano alternanze di
visibilità.
Superfici nascoste
Anche la rimozione delle superfici nascoste ha costituito per lungo tempo un
problema critico per la sua complessità computazionale; oggi è ormai risolta con
processori specificamente dedicati e integrati nelle schede grafiche dei personal
computer che adottano l’algoritmo z-buffer.
Per giungere ad una soluzione del problema sono state esplorate numerose strade. Il
problema della rimozione delle superfici nascoste, infatti, si presta ad innumerevoli
soluzioni, la cui efficienza dipende dalla capacità del metodo di sfruttare le proprietà di
coerenza di una determinata scena. Il concetto di coerenza si incontra spesso nel
trattamento delle immagini: si tratta di individuare proprietà della scena o
dell’immagine che si presentano in modo simile in diverse posizioni, allo scopo di
semplificare le operazioni. Se un’operazione può venire applicata a gruppi di pixel che
hanno tra loro una qualche proprietà di coerenza, allora si riducono sensibilmente i
tempi di calcolo.
Sutherland, Sproull e Schumacher, in un importante lavoro di rassegna del 1974,
elencavano ben otto possibili tipi di coerenza in scene tridimensionali, che possono
essere sfruttati per risolvere con maggiore efficienza la rimozione delle superfici
nascoste. Per comprenderli dobbiamo ricordare che la scena viene esaminata dopo che è
stata trasformata prospetticamente, ma prima che la proiezione piana sia stata
effettivamente compiuta, in modo da conservare le informazioni di profondità. Le
proprietà di coerenza sono quindi:
1.
Coerenza tra oggetti: se due oggetti sono interamente separati spazialmente,
anche ogni loro singola faccia è spazialmente separata (nella ricerca delle facce
84
nascoste, due oggetti che non si occludono implicano che anche le loro rispettive facce
non si occludano);
2.
Coerenza tra facce: in generale le proprietà di una faccia variano
gradualmente, da una posizione all’altra (se due facce si occludono in un punto è molto
probabile che l’occlusione si estenda lungo tutta la faccia, e la verifica può essere fatta
con metodi di calcolo molto veloci);
3.
Coerenza tra spigoli: la condizione di visibilità di uno spigolo cambia soltanto
se lo spigolo penetra una faccia o se incrocia un altro spigolo visibile (l’incrociarsi va
qui inteso nel piano di proiezione);
4.
Coerenza tra spigoli d’intersezione: se una faccia penetra un’altra, il loro
spigolo di intersezione si può calcolare dati due soli punti d’intersezione (il calcolo
dell’intersezione tra facce è quindi semplificato);
5.
Coerenza tra linee di scansione: gli oggetti visibili lungo una linea di
scansione hanno una probabilità molto bassa di cambiare nella linea di scansione
successiva;
6.
Coerenza d’area: un gruppo di pixel vicini è spesso coperto dalla stessa faccia
visibile;
7.
Coerenza di profondità: parti vicine di una stessa faccia sono spesso vicine
anche in profondità, mentre superfici differenti nella stessa posizione sul piano di
proiezione sono in genere separate in profondità (di conseguenza quando la posizione
di un punto su una superficie è nota, i punti adiacenti possono essere calcolati con
grande efficienza);
8.
Coerenza tra fotogrammi: due proiezioni della stessa scena calcolate da punti
di vista distinti in una sequenza di immagini (animazione) hanno una probabilità molto
elevata di differire di poco (i calcoli fatti per un fotogramma possono essere riusati per
il fotogramma successivo).
Il limite principale del problema della rimozione delle superfici nascoste consiste
nella necessità teorica di dover confrontare tra loro ogni possibile coppia di superfici.
Ciò significa che per scene con un elevato numero di superfici (pensiamo ad esempio a
triangoli) il numero di confronti è elevatissimo. Se il numero di triangoli è n, il numero
di confronti da compiere è dell’ordine di n²; quindi una scena con 10.000 triangoli
(tipica di un videogioco commerciale) richiederebbe 100 milioni di confronti e di
conseguenti calcoli.
85
La nozione di coerenza tra oggetti, ad esempio, permette di ridurre il numero dei
confronti tra facce compiendo prima un confronto tra i buonding box degli oggetti in
esame: se sono disgiunti nella proiezione non è necessario fare altri test, perché tutte le
facce dei due oggetti sono disgiunte (questa tecnica è usata, come abbiamo visto, nel
metodo di Roberts per le linee nascoste). La coerenza per linee di scansione e per area
viene sfruttata invece dall’algoritmo z-buffer, ideato nel 1974 da E. Catmull, che per la
sua semplicità ed efficienza ha potuto essere in seguito implementato su processori
dedicati con risultati tali da permettere l’animazione in tempo reale di scene molto
complesse.
Z-Buffer
Il principio base del metodo z-buffer consiste nel tracciare l’immagine pixel per
pixel sullo schermo, mantenendo l’informazione di profondità dei pixel già tracciati per
poterla confrontare con quelli ancora da tracciare. Ovviamente è necessario predisporre
una tabella che abbia le medesime dimensioni del frame buffer che conterrà
l’informazione di profondità dei pixel via via tracciati. Questo algoritmo, inoltre,
presuppone che sia disponibile un metodo che ricava, per ogni poligono della scena, le
coordinate del pixel sul piano di proiezione, e questo metodo non è altro che la scanconversione o rasterizzazione dei poligoni.
All’inizio il frame buffer viene interamente riempito dal colore di sfondo e lo zbuffer viene posto a un valore costante pari a 0; vengono poi analizzati in successione
tutti i poligoni della scena, si determinano i pixel del poligono calcolando le coordinate
x, y nel piano di proiezione e la coordinata di profondità z. Questa viene confrontata
con il valore già registrato (0 o il valore di un pixel già tracciato); se questo è maggiore,
allora il pixel in esame è più vicino all’osservatore di quello precedentemente tracciato
e si aggiorna sia lo z-buffer che il frame buffer, inserendo in quest’ultimo il valore di
colore che compete al pixel in esame, altrimenti i valori dello z-buffer e del frame
buffer vengono lasciati invariati.
Il metodo procede poligono per poligono, quindi, la sua complessità
computazionale non è superiore a numero_poligoni×dimensione_window, ed è quindi
molto vantaggioso quando il numero di poligoni è molto maggiore del numero di pixel
della window. In tal caso infatti è molto improbabile che il numero di poligoni
interessati a un determinato pixel sia elevato, pertanto il confronto sarà limitato a pochi
86
poligoni. In tal modo per scene con molti poligoni, il numero di confronti sarà vicino al
numero di pixel totali. La disponibilità di memorie a basso costo per realizzare lo zbuffer con hardware, e di tecniche di produzione economiche per micro circuiti che
seguono le computazioni necessarie hanno reso questo metodo velocissimo.
Un’alternativa allo schema di procedimento descritto consiste nell’analizzare i dati
non poligono per poligono, ma procedendo pixel per pixel e cercando quali poligoni
sono interessati dal pixel in esame; questo metodo però è meno efficiente.
Un aspetto critico dello z-buffer riguarda il confronto tra i valori z di un pixel in
esame e il valore z già registrato nello z-buffer: infatti se questi sono identici nasce
un’indeterminatezza: si lascia invariato il valore di colore della faccia precedente o lo si
aggiorna con il colore della nuova faccia?
Alcuni sistemi grafici non risolvono in modo accurato questa determinatezza dando
luogo a grafici in cui triangoli di una superficie possono cambiare da un fotogramma al
successivo. Per evitare questo problema è buona norma, in fase di modellazione, evitare
di definire due superfici adiacenti con le stesse coordinate, ma scostarle di un valore
molto piccolo.
Il metodo dello z-buffer consente di generare immagini con il livello di precisione
imposto dalla risoluzione spaziale dell’immagine finale; pertanto poligoni molto
distanti dal piano di proiezione che apparirebbero molto piccoli, al limite della
dimensione di un pixel, vengono inutilmente analizzati. Un miglioramento di velocità
può essere ottenuto in due modi: sfruttando il clipping 3D, definendo in modo
opportuno la distanza del piano di sfondo, oppure organizzando la scena per livelli di
dettaglio. I livelli di dettaglio, spesso indicati nel gergo tecnico con la sigla LOD (level
of detail) non sono altro che modelli diversi di ciascun oggetto: più accurati quando
87
devono essere visualizzati a breve distanza, semplificati quando devono essere osservati
da distanze più elevate.
Questa strutturazione della scena viene compiuta in fase di modellazione ed è molto
importante per applicazioni in cui il tempo reale è un elemento critico, come nei
videogiochi, o nei simulatori di volo, che devono trattare scene di dimensioni molto
grandi con oggetti posti a distanze molto elevate.
Infine osserviamo che l’algoritmo z-buffer si presta a risolvere il problema delle
facce nascoste anche per scene composte da modelli non poligonali: è infatti sufficiente
disporre di un metodo di rasterizzazione adeguato a queste strutture, quali, ad esempio,
superfici parametriche, la cui rappresentazione matematica permette di calcolare le
coordinate di ogni punto, senza bisogno quindi di convertire la superficie in triangoli.
Ray Casting
Un’alternativa al metodo dello z-buffer per la rimozione delle superfici nascoste è il
metodo del ray casting, ideato da Appel nel 1968 e applicato immediatamente a un
modellatore solido CSG della società MAGI. L’idea molto semplice, è quella di
immaginare di tracciare una serie di rette dal centro di proiezione ad ogni pixel dello
schermo, verificando se e dove esse incontrano un oggetto della scena. La scena può
essere descritta da solidi CSG, da poliedri o da superfici parametriche, e per risolvere
l’intersezione è sufficiente predisporre un algoritmo per il calcolo tra le rette (i raggi) e
gli oggetti modellati.
Il metodo così descritto si limita a determinare la visibilità di ogni oggetto della
scena, ma può essere esteso, come vedremo, per simulare fenomeni più complessi,
quali ombre, trasparenze e così via.
88
Dal punto di vista computazionale il metodo ray casting è più complesso dello zbuffer, in quanto deve essere eseguito per ogni pixel dello schermo e per ogni oggetto
della scena; si possono escogitare trucchi per ridurre la ricerca di oggetti
potenzialmente interessati da un raggio, ma l’esplorazione dell’intero spazio immagine
non può essere evitata. Anche il calcolo dell’intersezione tra raggio e oggetto può
essere ottimizzato, in primo luogo sfruttando la coerenza spaziale della scena,
inglobando ogni oggetto in una bolla sferica o in buonding box di forma particolare. La
sfera semplifica notevolmente il test di assenza di intersezione, poiché basta
confrontare l’equazione del raggio con il raggio della sfera stessa, ma per oggetti di
forma irregolare i falsi positivi diventano molto elevati.
L’organizzazione gerarchica della scena, implicita in un modello CSG, può inoltre
aiutare nell’esclusione d’intersezioni impossibili. Un’ulteriore ottimizzazione sfrutta la
coerenza tra facce e permette di realizzare versioni che procedono per raffinamenti
successivi, migliorando progressivamente la risoluzione dell’immagine finale. Per
scene costruite con operazioni booleane, è necessario risolvere l’equazione booleana
che definisce l’oggetto composito. Si tratterà di individuare tutte le intersezioni dal
raggio con gli oggetti componenti (sia l’intersezione di entrata sia quella di uscita) e
applicare le operazioni booleane ai tratti stessi.
Altre tecniche di rimozione delle superfici nascoste
Sono stati sviluppati numerosi algoritmi per la rimozione di superfici nascoste nel
corso degli anni; ne citiamo brevemente, per completezza, due dei più significativi.
89
Partizione di spazio in albero binario (BSP_tree) e Suddivisione del piano
immagine
Nel primo caso lo spazio mondo viene suddiviso in regioni disgiunte
organizzandole in un albero binario; a tale scopo si cercano piani di separazione dello
spazio che classificano le facce degli oggetti della scena come appartenenti ad uno dei
due semispazi creati dal piano. La procedura prosegue finché tutte le facce sono state
classificate. La determinazione della visibilità diventa estremamente semplice alla fine
del procedimento, che viene compiuto una sola volta all’inizio dell’algoritmo, e si
presta molto bene per la navigazione in scenari la cui geometria non cambia nel tempo,
ma cambia solo il punto di vista. Infatti, se la geometria della scena cambia l’albero
binario deve venire completamente ricalcolato. Il metodo è spesso adottato per la
visualizzazione di scenari nei videogiochi.
Nel caso della suddivisione del piano immagine, un algoritmo, ideato da Warnock
nel 1969, suddivide il piano di proiezione in quadranti e valuta se all’interno di
ciascuno si realizza uno dei seguenti casi: 1) un poligono circonda completamente un
quadrante; 2) un poligono interseca il quadrante; 3) un poligono è completamente
contenuto nel quadrante; 4) il poligono e il quadrante sono disgiunti. Questi casi
aiutano a prendere una decisione immediata, colorando interamente il quadrante del
colore del poligono oppure del colore di sfondo, altrimenti il quadrante viene
ulteriormente suddiviso in quadranti più piccoli e il procedimento di classificazione
riprende. La suddivisione procede fino alla risoluzione del pixel.
La differenza principale tra i due sopra illustrati consiste nel fatto che il primo opera
nello spazio del modello e il secondo nello spazio immagine, quindi la precisione dei
due metodi è assai diversa. La scelta cadrà sul metodo più adatto al tipo di problema in
esame. Vale comunque la pena ricordare ancora una volta che, tra tutti i metodi
illustrati, il ray casting e lo z-buffer (entrambi limitati al livello di precisione dello
spazio immagine) sono ormai i più diffusi, rispettivamente, per qualità e velocità.68
Fig 30) WireFrame. Fonte: http://www.videocom.it/immagini_formz/interiorwire.gif
Fig 31) Depth Cueing. Fonte: http://www.cs.newcastle.edu.au/~richard/research/thesis/fig2-38a.gif
Fig 32) Z Buffer. Fonte: http://aspc.cs.utt.ro/~egc/Lab/Labs/Lab09/01.gif
Fig 33) Ray Casting. Fonte: http://medvis.vrvis.at/typo3temp/pics/e05a6e9a6b.png
68
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 240-254
90
4.5 Modelli di illuminazione
La determinazione del colore che compete a ciascun pixel nel procedimento di
rimozione delle superfici nascoste è il problema centrale della simulazione visiva. Se ad
esso diamo una soluzione semplice, assegnando a ciascuna superficie o a ciascun
oggetto un colore determinato, il risultato che si ottiene è di avere oggetti di colore
uniforme nei quali è praticamente impossibile cogliere l’individualità di ciascuna
faccia.
Per poter mettere in evidenza le singole facce, individuare le ombre proprie e dare
un maggiore senso di profondità alla scena, è necessario utilizzare un modello di
illuminazione, ovvero un modello matematico che descrive, in modo più o meno
semplificato, l’interazione tra la luce e gli oggetti della scena.69
Già nella fase di pre-produzione il team artistico inizia a studiare l’illuminazione.
Solitamente vengono utilizzati i disegni più significativi dei vari set, e partendo da
questi si inizia a studiare il colore delle luci e delle ombre, la loro intensità, forma e
posizione. Dopo aver sperimentato soluzioni diverse, il regista, insieme al direttore
artistico ed al supervisore all’illuminazione, decide le linee guida da seguire per tutte le
scene del film.
Successivamente, un team ristretto di artisti inizia a preparare i lighting sketch,
prendendo come riferimento i pannelli dello storyboard. Questi disegni vengono
eseguiti velocemente e contengono pochissimi dettagli perché quello che dev’essere
rappresentato è solo il colore e l’interazione della luce con i personaggi e con gli
ambienti. Una volta conclusi questi schizzi, sarà possibile valutare l’aspetto cromatico e
l’atmosfera di ogni scena del film. Questo lavoro serve agli artisti che si occupano di
simulare in 3D quello che è stato concepito nei disegni. La fase di lighting 3D inizia
con i diversi test che consentono di capire le metodologie più corrette per ottenere una
buona immagine; l’illuminazione delle scene prende il via quando i set sono ancora
privi di materiali e texture.
Questo approccio è utile per due motivi principali: il primo è legato alla velocità
computazionale, infatti le scene, essendo prive di shader e texture, contengono molti
69
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 254-255
91
meno dati che normalmente rallentano il feedback; il secondo motivo è legato ad un
fattore percettivo: le scene sono visivamente meno complesse e consentono di valutare
con più semplicità le caratteristiche delle luci. Quando le prime scene del film saranno
complete di shader, texture e animazioni, il team dei lighter artist lavorerà per
modificare i set di luci approssimativi fino ad ottenere l’atmosfera corretta.
L’illuminazione all’interno di un film d’animazione 3D svolge un ruolo
fondamentale. Gli strumenti che il light designer utilizza sono molto diversi da quelli
che vengono impiegati in un film live, ma i principi e gli obiettivi sono gli stessi. I tool
che vengono usati nei software 3D sono molto più flessibili di quelli usati dai direttori
delle luci nei film reali ed esistono molti attributi che sono assenti nella realtà. Il team
che si occupa di illuminare le scene dei film non deve solo simulare un fenomeno
fisico, ma anche considerare che la luce influenza il modo di raccontare la storia. Nello
specifico, la luce influenza la direzione dello sguardo degli spettatori, crea profondità,
dà informazioni sul tempo e sulle stagioni, cambia l’atmosfera, rivela la personalità dei
personaggi e delle situazioni.
La luce è usata per illuminare ciò che è all’interno delle scene, ma per ottenere un
buon risultato occorre capire cosa va enfatizzato e cosa va nascosto. Un personaggio
importante in una scena d’azione dovrà essere in qualche modo distinto dagli altri
elementi della scena; una luce uniforme, oltre ad apparire sgradevole, non aiuterà lo
spettatore a capire cosa sta accadendo nel film.
La luce influenza la composizione della scena ed è quindi fondamentale che chi si
occupa di illuminazione abbia una conoscenza base delle teorie di composizione, che
sappia come bilanciare un’immagine, come enfatizzare un elemento e come dare
armonia alla scena. Ciò che viene proiettato sugli schermi di un cinema o in televisione
è un’immagine bidimensionale; il fatto che questa immagine sia stata generata con
software tridimensionali non significa che abbia automaticamente profondità.
La profondità è un’illusione ottica: un personaggio o una scena tridimensionale, se
illuminati in modo sbagliato, possono apparire del tutto piatti e insignificanti. La luce è
quindi applicata anche per enfatizzare ed aumentare il senso di profondità delle
immagini. In alcune situazioni il senso di profondità è dato da una prospettiva molto
accentuata o dalla posizione e forma degli elementi, ma nella maggior parte dei casi
solo con la luce è possibile creare questo effetto ottico.
È possibile utilizzare differenti tecniche per raggiungere lo stesso obiettivo;
servendosi ad esempio di differenti luci con valori di intensità diversi è possibile creare
92
un contrasto tra zone vicine e zone lontane. Anche il colore della luce influenza
notevolmente la sensazione di distanza degli elementi all’interno della scena. In
generale i colori caldi tendono ad avvicinare mentre i colori freddi allontanano.
Aggiungere effetti atmosferici aiuta a creare profondità; anche in questo caso la
luce può essere usata per creare la giusta sensazione: è possibile ad esempio utilizzare
luci volumetriche per enfatizzare un elemento o per nascondere una parte della scena.
Utilizzare la luce per comunicare il passaggio del tempo è importante ai fini del
racconto. Per ottenere questo effetto occorre saper dosare diversi attributi legati alla
luce: la tipologia di luce, l’intensità, il colore e la direzione.
Un altro aspetto importante che gli artisti delle luci devono considerare è legato alla
motivazione dell’esistenza di una fonte luminosa in un certo punto della scena. Nel
mondo 3D tutto è possibile e una luce può provenire da qualsiasi punto, ma per dare la
giusta sensazione allo spettatore occorre che ci sia un legame logico tra la luce e la sua
origine. Una scena interna con una finestra aperta di giorno obbliga l’artista ad
utilizzare una luce coerente con il set; altre luci non fisicamente coerenti potranno
essere aggiunte per migliorare la scena e per aumentare la qualità della composizione.
Nei software 3D esistono differenti tipologie di luce:
•
luce direzionale (directional light)
•
luce puntiforme (point light)
•
luce spot (spot light)
•
luce ad area (area light)
•
luce volumetrica (volume light)
•
luce ambientale (ambient light)
Tutte queste luci possono essere ricondotte a due grandi categorie di modelli
d’illuminazione: i modelli locali e i modelli globali. I primi descrivono in modo
semplificato le caratteristiche delle sorgenti di luce, degli oggetti della scena e della
loro reciproca interazione. I secondi considerano in modo molto più accurato le
interazioni che avvengono tra sorgenti di luce, oggetti e luce riflessa dagli oggetti stessi.
La luce spot è usata solitamente per illuminare una porzione di scena, è la luce che
proviene da un punto e viene proiettata in una direzione precisa con un’ampiezza
variabile; la floodlight o pointlight emette luce in ogni direzione; l’area light emette
93
luce attraverso un pannello quadrangolare. Queste differenti tipologie di luce possono
essere impiegate per assolvere compiti diversi.
Le funzioni delle luci sono indipendenti dalla tipologia della luce stessa; non esiste
una relazione predeterminata tra la tipologia di luce e la sua funzione. C’è invece un
legame stretto tra il compito che una certa tipologia di luce svolge e la sua posizione.70
Come detto, i modelli locali considerano l’interazione tra luce prodotta dalle sorgenti e
gli oggetti della scena singolarmente presi, senza considerare interazioni tra di essi o
con l’ambiente e l’atmosfera generale.
4.5.1 Modello di Lambert
Il modello di Lambert71 è il modello più semplice e descrive il comportamento di
superfici perfettamente diffusive (prive cioè di riflessioni speculari o bagliori). Una
superficie diffusiva in generale è scabra, e la luce viene riflessa in tutte le direzioni, in
modo che però l’intensità sia maggiore quando viene riflessa nella direzione della
sorgente e minima nella direzione ortogonale. È importante osservare che la luminanza
riflessa da un elemento d’area infinitesimo di questa superficie, misurata lungo
qualsiasi angolo, risulta costante.
70
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 188-196
71
Johann Lambert, collega di Eulero e di Lagrange all'Accademia delle Scienze a Berlino.
Nel 1776 scrisse Theorie der Parallellinien, uno studio del postulato delle parallele. Assumendo che il
quinto postulato fosse falso, dedusse alcuni risultati di Geometria non Euclidea e notò che in questa
nuova geometria la somma degli angoli di un triangolo aumentano al diminuire della sua area. Lambert
fu il primo a dare una rigorosa dimostrazione dell'irrazionalità del p greco e poi ipotizzò che p greco ed e
fossero trascendentali. Lambert fece anche il primo sviluppo sistematico delle funzioni iperboliche e
apportò alcune innovazioni allo studio del calore e della luce e alla teoria della probabilità. Tratto da:
http://www.dm.unibo.it/matematica/GeometrieNonEulidee/lambert.html
Fig 34) Modello di Lambert. Fonte: http://www.tech-hounds.com/article8/DIFFUSE.GIF
94
Per capire questo concetto, si può prendere una pallina da ping pong e tracciare un
segno visibile in un punto, in modo da distinguere l’orientamento. Ponendola quindi
vicino ad una sorgente di luce si provi, tenendola ferma, ad osservarla da diversi punti
di vista spostando la testa. Ora, tenendo ferma la testa si ruoti la pallina avanti e
indietro. Nel primo caso l’occhio riceverà da un punto la medesima luminanza
indipendentemente dall’angolo d’osservazione, mentre nel secondo caso il punto
varierà l’intensità riflessa ruotando rispetto alla lampada. Con questa legge è facile
associare ad ogni faccia di un poliedro o di una scena l’intensità riflessa in qualsiasi
direzione. Con il modello di Lambert otteniamo immagini che evidenziano il diverso
orientamento delle facce del poliedro rispetto alla sorgente di luce.72
4.5.2 Luce Ambientale
La luce ambientale, oltre ad essere il nome di una tipologia di luce, descrive anche
una funzione precisa; solitamente il tono generale delle ombre all’interno di una scena è
determinato dalla luce ambientale. In un film live questo effetto è ottenuto
posizionando un tessuto bianco sopra il set; la luce naturale viene riflessa dal tessuto
schiarendo i punti d’ombra. Nei software 3D viene solitamente usata una luce
ambientale che influisce indistintamente su tutte le zone in ombra che possono schiarire
in modo diverso i punti più scuri della scena. La luce ambientale viene impiegata per
schiarire le zone di nero assoluto.73
Se proviamo ad applicare il modello di Lambert così com’è stato formulato,
otteniamo immagini molto contrastate, proprio come succede fotografando una persona
in una giornata di sole molto luminosa: le parti illuminate riflettono una grande quantità
di energia, mentre quelle all’ombra appaiono molto scure, con pochissimi particolari.
Per risolvere il problema i fotografi professionisti ricorrono alle tecniche
d’illuminazione ausiliaria, usando un’illuminazione diffusa da una superficie bianca
illuminata da una lampada di temperatura colore simile a quella solare per schiarire le
zone in ombra. I fotografi dilettanti spesso fanno uso del flash che svolge una funzione
72
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 255-256
73
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p.196
95
simile ma meno controllabile. In pratica con queste tecniche si cerca di aumentare il
contributo di luce diffusa dall’ambiente che circonda il soggetto, per accrescere
l’energia riflessa dalle zone in ombra. La conseguenza è che l’energia totale riflessa dal
soggetto aumenta, ma nello stesso tempo è distribuita in modo uniforme.
4.5.3 Modello di Phong
Il limite del modello di Lambert, modificato con l’aggiunta della componente
ambientale, è che non permette di simulare superfici non perfettamente diffusive, come
metalli o plastica. Phong ha formulato a tale scopo un modello che introduce la
riflessione speculare, che dà luogo a bagliori dovuti al riflettere delle sorgenti di luce.
La presenza del bagliore dipende questa volta dall’orientamento dell’osservatore
rispetto all’oggetto. La superficie cioè non riflette più secondo la legge di Lambert (con
eguale intensità in tutte le direzioni) ma ha una direzione privilegiata, e se l’osservatore
guarda proprio in quella direzione vedrà una maggiore intensità di luce.74
4.5.4 Ombreggiatura Smussata – Smooth Shading
Supponiamo ora di voler rendere una forma poliedrica che approssima una
superficie curva, ad esempio una sfera o un cilindro descritto geometricamente con una
famiglia di triangoli. Se applichiamo uno dei modelli di illuminazione appena descritti a
ogni singola faccia, come abbiamo già visto, otteniamo una figura a facce piane che,
più che ad una sfera o ad un cilindro, assomiglierà ad un poliedro. Per risolvere il
problema si ricorre ad una tecnica di smoothing o smussatura del colore. Ci sono due
Fig 35) Modello di Phong. Il metodo di Phong shading risulta il migliore per la modellazione di specular
highlights (riflessi speculari) su superfici lucide. In questo caso, dovrebbe essere usato anche il modello
di Phong lighting, che calcola il vettore di riflessione di ciascun pixel. Tratto da:
http://www.nvitalia.com/articoli/glossario_3d/glossario_2.htm
74
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 256-258
96
soluzioni comunemente adottate, la prima dovuta a Gouraud e la seconda ancora a
Phong.
Lo shading di Gouraud consiste nell’interpolare i valori di colore di ogni superficie
di un oggetto una volta che siano stati calcolati i valori di colore nei punti estremi di
ogni linea di scansione. Queste normali, a loro volta, vengono calcolate dai valori delle
normali ai vertici di ciascun segmento. Infine, se la faccia non è isolata, la normale in
ogni vertice si calcola come valore medio delle normali di ciascuna faccia.
Per semplicità supponiamo che il metodo sia applicato a poliedri composti da facce
triangolari. A tale scopo il metodo deve prima computare il valore di colore nei tre
vertici del triangolo risolvendo il modello di illuminazione, e questa operazione può
essere compiuta prima della fase di smoothing vera e propria. Successivamente, durante
la risoluzione delle superfici nascoste con il metodo z-buffer, determinata una linea di
scansione, si calcolano per interpolazione dai vertici i valori di colore sugli spigoli del
triangolo e, sempre per interpolazione, i valori di colore per ogni pixel lungo la linea di
scansione considerata.
Il metodo presenta alcuni vantaggi ed alcuni difetti. Il vantaggio principale risiede
nella facilità d’integrazione con l’algoritmo z-buffer per il calcolo delle superfici
nascoste. Si possono calcolare a priori le normali ad ogni faccia e le normali medie tra
le facce adiacenti ad un vertice. Durante l’esame di una linea di scansione si applica il
modello di illuminazione per il calcolo del colore dei vertici estremi e durante
l’interpolazione lungo la linea di scansione si ottiene sia la coordinata z, da confrontare
con il valore nello z-buffer, sia il suo colore.
Tra i molteplici difetti del metodo, citiamo il rischio di annullare la curvatura e la
pendenza dall’orientamento della faccia. Per individuare la normale ad un vertice in
comune con più facce, occorre calcolarne una media aritmetica: ciò può dar luogo ad un
valore costante anche quando la superficie non ha curvatura costante. La conseguenza è
che la superficie apparirà totalmente piatta anziché ondulata.
Per ovviare a questi difetti, e soprattutto per consentire che le riflessioni speculari
siano correttamente calcolate anche all’interno delle facce, Phong ha proposto un
metodo di smooth shading che, anziché interpolare i valori di colore lungo la linea di
scansione, interpola le normali in ogni punto, e solo in seguito al risultato ottenuto per
la normale calcola il colore e la profondità del pixel. Con questo metodo si eliminano
alcuni difetti del metodo di Gouraud, ma il calcolo risulta notevolmente appesantito.
D’altra parte il metodo smoothing di Phong riesce a rendere gli effetti di bagliore che
97
con lo smoothing di Gouraud sarebbero diffusi nel triangolo contenente il punto
desiderato.
75
4.5.5 Ombre proiettate
Le sorgenti di luce, puntiforme o estese, a distanza finita o infinita, proiettano
ombre degli oggetti di una scena sulle superfici vicine. In tal caso, il punto in ombra
non riceve luce dalla sorgente interessata ma solo la luce dovuta all’ambiente o ad altre
sorgenti. Trattare questo caso con un modello di illuminazione locale diventa molto
complesso e si preferisce semplificare il problema trattando le sorgenti estese allo
stesso modo di quelle puntiformi.
Per individuare le superfici ombra si possono adottare numerose tecniche. Una
molto precisa, dovuta ad Atherton, Weiler e Greenberg, esegue il rendering in due fasi:
durante la prima fase vengono calcolate le superfici ombra per ogni sorgente
puntiforme, considerata come centro di una proiezione prospettica della scena; nella
seconda fase tutte le superfici vengono rese e proiettate dal punto di vista
dell’osservatore. Il limite di questo metodo è che se la geometria della scena cambia,
occorre ricomputare l’insieme delle superfici ombra.
Un’altra tecnica si basa sulla creazione di un volume virtuale che rappresenta il
cono d’ombra proiettato da un oggetto. Questo volume viene intersecato con il frustum
di visione,76
75
Fig 36 a) Modello di Gouraud. Per ogni vertice del poligono viene calcolato l'illuminamento.
Fig 36 b) Lungo ciascun lato del poligono vengono interpolati i colori tra un vertice e l'altro
Fig 36 c) I colori dentro il poligono sono interpolati attraverso delle linee di scansione (scanlines)
Fig 36 d) Il poligono ombreggiato con il metodo Gouraud
Fonte: http://www.nvitalia.com/articoli/glossario_3d/glossario_2.htm
76
Frustum di visione: Il Frustum di visione è il tronco di piramide che contiene la porzione della scena
visibile. Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti
di eidomatica. Addison-Wesley, Milano p. 266
98
determinando una regione dello spazio all’interno della quale tutti gli oggetti sono
in ombra rispetto ad una data sorgente. Questa informazione viene utilizzata durante il
rendering per decidere se ad una faccia occorre applicare il modello di illuminazione
modificato per le ombre proiettate.
Se sono presenti più sorgenti di luce puntiforme, ogni oggetto proietterà un
differente cono d’ombra e l’intersezione tra di essi aiuterà a computare le penombre.
Con questa tecnica si può anche simulare una sorgente estesa che proietta ombra e
penombra, creando più coni d’ombra con i vertici molto vicini per ciascuna sorgente a
distanza finita.
Il metodo dei volumi d’ombra può essere utilizzato anche per la tecnica del ray
tracing: ogni raggio dal centro di proiezione alla scena attraversa un cono d’ombra; si
incrementa un contatore quando entra e lo si decrementa quando esce dal cono
d’ombra; se al momento dell’intersezione con una superficie il contatore è a 0 allora il
punto no è in ombra altrimenti è in ombra.
Un’altra tecnica, ideata da Heidmann nel 1991, che sfrutta i volumi d’ombra
utilizza una struttura speciale chiamata stencil buffer (buffer di timbratura). Si esegue in
una prima fase il rendering con lo z-buffer attivo ma solo per le componenti di luce
ambiente. Nella seconda fase lo z-buffer viene disattivato e si attiva lo stencil buffer,
nel quale si registrano soltanto le facce dei volumi d’ombra: quando si disegna una
faccia rivolta verso l’osservatore le posizioni corrispondenti nello stencil buffer
vengono incrementate, quando si traccia una faccia opposta le posizioni vengono
Fig
37)
Frustum
di
visione.
Fonte:
http://wwweic.eri.utokyo.ac.jp/computer/manual/lx/SGI_Developer/books/Perf_GetStarted/sgi_html/figures/04.3.frustum.gif
99
decrementate. Quindi si esegue la terza fase, in cui si attiva lo z-buffer e si calcolano le
componenti di illuminazione diffusa e speculare; per ogni posizione nello z-buffer si
interroga il valore corrispondente nello stencil buffer: se è a 0, il pixel è illuminato
altrimenti è in ombra.
Un problema che spesso si presenta con le ombre proiettate è dovuto agli effetti di
aliasing, in particolare per la tecnica dello z-buffer. Poiché in pratica si calcolano due
proiezioni, una per il punto di vista e una per ciascuna sorgente di luce, in
corrispondenza di ciascun pixel possono insorgere errori di approssimazione che
aumentano l’effetto di seghettatura al bordo dell’ombra proiettata. Per eliminare questi
difetti si ricorre a tecniche di anti-aliasing, in particolare computando con maggiore
risoluzione i pixel prossimi ai bordi delle ombre.77
4.5.6 Altre tipologie di luce
Oltre alle tipologie citate sopra inerenti ai modelli locali, esistono anche:
•
luce chiave (key light)
•
luce di riempimento (fill light)
•
luce posteriore (back light)
•
calcio di luce (kicker light)
•
luce speciale (special light)
•
luce rimbalzo (bounce light)
La luce chiave è la luce principale della scena, la luce che domina su tutte le altre
per intensità e colore. Questa luce determina la direzione e la forma delle ombre
principali. La key light cambia drasticamente l’atmosfera della scena ed è solitamente
usata per indicare la posizione dei personaggi principali.
La luce di riempimento (fill light) è una luce a bassa intensità usata per schiarire le
zone d’ombra dei personaggi; solitamente proietta ombre molto tenui e non influisce
sulla specularità dei materiali. La fill light può essere posizionata in qualsiasi punto
della scena; di solito è posta in opposizione alla key light. La tendenza delle fill light è
77
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 262 -267
100
la riduzione dell’effetto tridimensionale, il rapporto tra la key light e la fill light è detto
light ratio e determina il contrasto generale dell’immagine.
La back light è usata per separare il background dagli altri elementi della scena.
Il calcio di luce è una luce opzionale ed è usata per aumentare l’effetto
tridimensionale dei personaggi e/o oggetti; solitamente è adottata per evidenziare parti
non fondamentali del character; è posta vicina al pavimento in opposizione alla key
light e a volte può sostituire la back light.
La luce speciale è un tipo di luce che viene usata per evidenziare una parte del set o
un elemento particolare di un personaggio; di solito non proietta ombre.
La luce di rimbalzo è usata per simulare l’effetto radiosity. In un set reale la luce
colpisce gli oggetti, una parte di questa luce viene assorbita e una parte riflessa. Questo
fenomeno fisico è simulato in computer grafica da diversi algoritmi e uno di questi è il
radiosity. Spesso per i film d’animazione questa tecnologia non può essere impiegata a
causa degli elevati tempi di calcolo, per questo motivo vengono usate le bounce light
per simulare il fenomeno fisico del rimbalzo della luce diffusa.78
4.6 Attributi
Per poter modificare una luce in relazione alla funzione che essa deve assolvere,
occorre variare alcuni attributi specifici. L’insieme di questi attributi viene detto light
model. Nel corso degli anni gli sviluppatori hanno aggiunto e perfezionato diversi
attributi che consentono di controllare ogni aspetto delle fonti luminose, i principali
sono: selezione (selection), forma (shape), ombre (shadowing), decadimento (dropoff),
direzione (direction), proprietà (property) e tessiture (texture). Molti di questi attributi
non hanno nessun legame con leggi fisiche reali; in questo modo il modello è molto
flessibile e consente di ottenere immagini fotorealistiche ma anche immagini del tutto
surreali.
Con l’attributo selection è possibile associare uno o più oggetti ad una o più luci. La
capacità della luce di illuminare solo un certo numero di oggetti non esiste nel mondo
reale, ma è molto utile nel processo di illuminazione digitale; spesso infatti vengono
usate luci diverse per illuminare i personaggi e gli sfondi.
78
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 195-198
101
Con l’attributo shape è possibile determinare un volume all’interno del quale ci sarà
luce. La forma di questo volume può variare da un cubo, ad un cono, ad una piramide
tronca, passando per infinite forme intermedie. Questa caratteristica consente di
posizionare la luce in modo molto intuitivo all’interno della scena. Attraverso il soft
edge è possibile definire in che modo la luce si attenui nelle zone perimetrali del
volume. Attraverso il cuton e il cutoff si stabilisce una porzione limitata del volume in
cui la luce si diffonde. Questo mezzo è utilizzato per escludere dal fascio di luce parti di
oggetti. La forma della luce può inoltre essere scalata, ruotata e spostata all’interno del
mondo tridimensionale senza nessuna limitazione.
Con l’attributo shadowing si controllano diversi aspetti relativi alle ombre: è
possibile ad esempio decidere se una certa luce proietti delle ombre (shadow selection).
In natura ogni luce produce una zona d’ombra; in computer grafica è possibile togliere
questa proprietà a una o più luci; inoltre si può escludere la proiezione delle ombre
relativamente ad un singolo oggetto o a gruppi di oggetti.
La direzione delle ombre (light direction) può essere variata a piacimento e non
dev’essere vincolata alla direzione della luce. Una luce può condividere le ombre di
un’altra luce; ad esempio luci posizionate in punti diversi possono proiettare le stesse
ombre.
Spesso per migliorare la composizione della scena occorre aggiungere delle ombre.
Nel mondo reale si è vincolati ad utilizzare fuori campo per creare zone d’ombra; in
computer grafica è possibile utilizzare i bloker per proiettare ombre senza la necessità
di posizionare un oggetto. Infine è possibile controllare il colore delle ombre e la loro
attenuazione nelle zone perimetrali.
Con l’attributo dropoff si controlla la variazione d’intensità luminosa. Esistono due
diversi tipi di dropoff: il primo, beam distribution, modifica l’intensità della luce in
prossimità delle zone perimetrali del volume di luce, mentre con il distance falloff
l’intensità luminosa varia a seconda della distanza della luce dagli oggetti. Nella realtà
la luce decresce di intensità al quadrato della distanza, ma in computer grafica è
possibile assegnare valori arbitrari.
Con l’attributo direction si può decidere la direzione dei raggi luminosi all’interno
del fascio di luce. I raggi possono essere radiali o paralleli e sono del tutto indipendenti
dal tipo di luce; ad esempio è possibile usare una spot light ed assegnare una
distribuzione parallela dei raggi. La diversa distribuzione dei raggi modifica la forma
102
delle ombre. I raggi paralleli sono spesso usati per simulare la luce del sole, mentre la
distribuzione radiale dei raggi è usata per la maggior parte delle luci artificiali.
Le texture vengono usate in computer grafica per controllare l’aspetto superficiale
di tutti gli elementi; è possibile impiegarle in combinazione con le luci attraverso la
proiezione. Con il termine cookie si intende la proiezione di un’immagine a singolo
canale che consente di bloccare una parte del fascio luminoso; le parti bianche
dell’immagine lasceranno filtrare la luce e le parti nere la fermeranno. Questa tecnica è
usata principalmente per modificare la forma della luce e per simulare la proiezione di
ombre complesse. Anche con le slide, ovvero le proiezioni di immagini a colori, è
possibile modificare l’aspetto della sorgente luminosa sia nella forma che nel colore.
Alle texture sarà dedicato un capitolo più avanti.
Oltre agli attributi, le sorgenti luminose hanno delle proprietà attraverso cui è
possibile controllare molti altri aspetti legati alla luce, le principali sono: intensità
(intensity), colore (color) ed effetti (effect). L’intensità è descritta da un valore
nominale. Il colore è determinato da una terna di valori standard RGB (red, green, blue)
e può essere variato da diversi filtri: slide, noise, colored shadow; con la proprietà
effect si controlla se la luce debba modificare il colore ambientale, il colore diffuso o
quello speculare degli oggetti nella scena. Ad esempio è possibile creare luce che
agisca solo sulla componente speculare dei materiali.79
4.7 Fenomeni
Le immagini possono essere analizzate in termini di una serie di fenomeni visibili.
Le ricerche e i progressi nel campo del rendering sono stati in gran parte motivati dal
tentativo di simularli in modo accurato ed efficiente. Attualmente, grazie alla
notevolmente accresciuta capacità di calcolo dei computer, sono stati introdotti
algoritmi di simulazione fisica della luce più accurati come Raytracing, Global
Illumination, HDRI, Sub Surface Scatering, Caustic, Radiosity ed altri.80 I fenomeni
visibili più utilizzati sono:
79
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 197-203
80
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p.213
103
•
Shading — ombreggiatura; variazione del colore e luminosità di una
superficie a seconda della luce incidente.
•
Texture-Mapping — un metodo per definire i dettagli del colore di una
superficie mettendola in corrispondenza con un'immagine (texture).
•
Bump-Mapping — un metodo per simulare irregolarità nella forma di una
superficie mettendola in corrispondenza con un'immagine (bump map) che definisce
una perturbazione fittizia della superficie, usata solo per ricavarne una distorsione della
direzione perpendicolare (normale) impiegata nei calcoli per la propagazione della luce.
•
Normal-Mapping — un metodo simile al bump mapping in cui l'immagine
definisce direttamente come perturbare la normale della superficie in quel punto.
•
Displacement-Mapping — un metodo simile al bump mapping in cui
l'immagine definisce un'effettiva perturbazione della forma della superficie,
producendo ad esempio silhouette irregolari.
•
Nebbia/Mezzi Interposti — attenuazione e dispersione della luce nel
passaggio attraverso l'aria o altri mezzi; solo il vuoto è perfettamente trasparente.
•
Shadows — gestione delle ombre.
•
Soft Shadows — ombre parziali prodotte da sorgenti di luce estese.
•
Reflections — riflessioni speculari o quasi.
•
Transparency — trasmissione della luce attraverso un oggetto.
•
Rifrazione — deviazione della luce nel passaggio da un mezzo all'altro.
•
Illuminazione Diretta — tenere conto della luce riflessa più volte (il minimo
è una sola riflessione, sorgente di luce -> oggetto -> camera).
•
Caustiche — accumulo di luce riflessa o rifratta proiettata in forme
caratteristiche su altri oggetti (ad esempio la forma a cardioide della luce riflessa
dall'interno di un cilindro o le forme irregolari in movimento sul fondo di una piscina).
•
Depth of Field— simulazione della sfocatura degli oggetti vicini e lontani
come in una ripresa fotografica.
•
Motion Blur— simulazione della sfocatura degli oggetti in movimento rapido
come in una ripresa fotografica.81
Molti di questi fenomeni visibili sono già stati sufficientemente espletati nei paragrafi
precedenti, altri invece necessitano ancora di una presentazione, altri ancora di
81
Tratto da: wikipedia.org/wiki/Rendering
104
un’analisi più approfondita. Vediamo ora i fenomeni più utilizzati nell’ambito
dell’animazione tridimensionale.
4.7.1 Shading e Texturing
Tutti gli oggetti, perché possano essere renderizzati e apparire con il giusto aspetto
nel processo di rendering, necessitano di shading e texturing. Gli shader descrivono le
caratteristiche estetiche degli oggetti ed attraverso essi si può simulare qualsiasi effetto
superficiale: plastica, acciaio, acqua, fuoco e così via.
Prima ancora che i modelli degli oggetti e dei primi personaggi siano finiti, il
dipartimento che si occupa di scrivere i materiali inizia a creare i primi shader test
prendendo come riferimento i disegni più rappresentativi prodotti dal dipartimento
artistico. Attraverso lo shading viene calcolato il colore in relazione alle proprietà
presenti nello shading model. Con il texturing si variano le proprietà punto per punto, in
modo da creare dei dettagli che sono presenti nella geometria della superficie stessa.
Con il termine shading model viene simulata l’interazione della luce con la superficie.
Il più semplice shading model è chiamato Lambertian model. Questo modello di
simulazione è stato anche il primo ad essere applicato in computer grafica 3D e calcola
solo la componente diffusa di un materiale. Successivamente vennero ideati molti altri
modelli capaci di simulazioni più accurate: Phong nel 1975, Blinn nel 1997, Cook e
Torrance nel 1981, Jajiya nel 1985, Poulin e Fournier nel 1990 sono alcuni esempi di
modelli più avanzati ideati nel corso degli anni.
La maggior parte dei software commerciali implementa delle interfacce visuali che
permettono la creazione di shader senza la necessità di conoscere un linguaggio di
programmazione. Quello che governa il comportamento di un materiale in questi
software è un’equazione matematica che lega tra loro attributi quali il colore
ambientale, quello diffuso e quello speculare, il grado di riflessione e di assorbimento
della luce, l’opacità, la trasparenza, l’incandescenza, la riflessione e la rifrazione.
Attraverso la modifica dei valori di ciascun parametro è possibile simulare materiali
diversi.
Pur essendo molto flessibili e semplici da utilizzare, questi sistemi hanno in sé una
limitazione che deriva dalla formula base che pone dei vincoli al look finale dello
shader.
Renderman Shaders Language è stato studiato in contrasto a questo schema.
Attualmente è lo standard per la creazione di shader nei film di animazione 3D. Lo
105
shader language è un linguaggio di programmazione specifico per la creazione di
materiali elaborato da Rob Cook82 nel 1984 e successivamente sviluppato da Pat
Hanrahan nel 1989. Ogni shader è un piccolo software che descrive le caratteristiche
della luce e come questa luce è attenuata dalla superficie. Utilizzando questo approccio
è possibile descrivere in modo totalmente libero qualsiasi tipo di caratteristica
superficiale. Nella Renderman Interface Specification sono contemplati cinque tipi di
shader:
1.
Surface shader descrive come apparirà la superficie e come essa reagirà alla
luce
2.
Displacement shader descrive le asperità della geometria
3.
Light shader descrive la direzione, l’intensità e il colore della fonte di luce
nella scena;
4.
Volume shader descrive il comportamento della luce che attraversa materiali
come il fuoco
5.
Image shader descrive la trasformazione cromatica dei pixel prima che venga
generata l’immagine raster.
Lo shader, per essere completato, necessita della texture che dovranno essere
applicate a diversi attributi, secondo l’effetto che si vuole ottenere.83
Nella continua ricerca del realismo visivo, un grande aiuto deriva dall’aggiunta di
dettagli alle superfici degli oggetti, in modo da conferire loro l’apparenza di materiali
particolari come il legno, associare figure digitalizzate o per caratterizzare forme con
superficie irregolare o un poco scabra.
La tecnica dell’applicazione di texture sulle superfici degli oggetti di una scena è
una delle più efficaci per dare un effetto di grande realismo visivo, spesso molto più
efficace di molti modelli d’illuminazione precedentemente visti. Infatti un semplice
82
Nel 2001, Catmull, Carpenter e Cook hanno portato a casa un Oscar tecnico per RenderMan, software
che rielabora centinaia di raggi luminosi, riflessi, ombre, volumi e movimenti nella produzione di
un'inquadratura. È il fulcro del processo di animazione digitale, il motore informatico di tutto, utilizzato
praticamente in qualsiasi film ad effetti speciali degli ultimi dieci anni, dalle trilogie di Matrix e Il
Signore degli Anelli a Spider Man e così via. Per realizzare una scena di Alla ricerca di Nemo di una
frazione
di
secondo
ci
sono
volute
10
ore.
Tratto
da:
http://magazine.enel.it/boiler/arretrati/wired_dett.asp?iddoc=924829&titolo=Wired&20%20Come+nasce+una+stella
83
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 179-183
106
modello lambertiano e uno shading di Gouraud accoppiati con un’applicazione di
tessitura superficiale possono ovviare agli inconvenienti della tecnica di shading e ai
limiti del modello illuminazione.84
Le texture modificheranno le caratteristiche della superficie, ad esempio per
l’attributo colore potrà essere proiettata sulla superficie geometrica l’immagine di un
certo tipo di legno, oppure un’immagine in scala di grigi potremmo determinare il
grado di riflettività del materiale. Nei punti in cui la texture sarà bianca, il valore di
riflessività sarà alto; nei punti neri sarà nullo.
Fondamentalmente si possono utilizzare due tipi di texture: le texture procedurali
(procedural texture) e le texture immagini (image texture). Le prime sono esse stesse
dei piccoli programmi, le seconde sono invece delle immagini raster che devono essere
create in programmi di grafica 2D o con qualsiasi altra tecnica che possa generare
un’immagine digitale come scansioni o fotografie digitali.85
Il metodo consiste nel modificare il valore di colore di ogni punto su una superficie
rispettando la configurazione dell’immagine che si vuole associare alla superficie. Le
tessiture pongono due ordini di problemi: il primo deriva dal fatto che non è sempre
semplice proiettare un rettangolo piano su una superficie curva; il secondo problema
84
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 268-269
85
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 179-183
Fig 38) Texture. Fonte: http://www.plecxus.com/gallery/albums/3d/treed_103.jpg
107
riguarda il metodo con cui la tessitura viene associata. Infatti questa può venire ripetuta
più volte, formando così una sorta di piastrellatura (liting) della superficie con la
tessitura, oppure la tessitura viene applicata rigidamente a una porzione di superficie
ben definita. Si può paragonare questo procedimento all’applicazione di una
decalcomania su un oggetto.
Il problema della proiezione si pone frequentemente nella grafica – si pensi ad
esempio alle proiezioni cartografiche – e le soluzioni possibili sono numerose. Si tratta
di decidere prioritariamente quali caratteristiche si intendono preservare, in quanto la
proiezione da un piano ad una superficie curva in generale non conserva tutte le
proprietà originarie, quali angoli tra le linee, o le aree. Poiché la tessitura è
generalmente definita su un piano rettangolare o quadrato, si potrà scegliere una
proiezione sferica se la superficie su cui si proietta è simile ad una sfera o una
proiezione cilindrica in caso sia maggiormente simile ad una forma cilindrica.
Entrambe le proiezioni preservano le relazioni angolari, ma non quelle d’area, come
ben si può vedere in cartografia. Una volta scelto il tipo di proiezione, si procede in due
fasi: in una prima fase si proietta la tessitura sulla superficie sferica o cilindrica (Smappatura) e nella seconda fase si proietta la sfera, o il cilindro, sulla superficie da
testurare (O-mappatura).
In generale, il procedimento di O-mappatura dalla superficie intermedia all’oggetto
avviene durante il procedimento di rendering, nel momento in cui si decide il colore da
attribuire ad ogni pixel del poligono; a quel punto si calcola quale pixel sulla superficie
intermedia vede quel determinato pixel sull’oggetto. Si può perciò immaginare un
raggio ideale che dall’osservatore tocca l’oggetto e viene riflesso sulla superficie
intermedia; oppure si può individuare il pixel sulla superficie intermedia calcolando la
direzione della normale in quel punto.
Una tecnica molto interessante è la creazione di tessiture tridimensionali, che
permettono di simulare materiali interessanti quali, ad esempio, il marmo o il legno. La
tecnica assomiglia molto alla scultura di una forma a partire da un materiale dato.
Partendo da una tessitura tridimensionale (possiamo pensare ad una distribuzione di
voxel nello spazio), in ogni punto dello spazio si decide quale colore attribuire in
funzione della distribuzione spaziale della tessitura.86
86
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 269
108
Nel 1974 Catmull generò la prima immagine con texture della storia della computer
grafica. Per la prima volta un’immagine bidimensionale veniva applicata ad una
superficie tridimensionale. Fin dall’inizio gli sviluppatori capirono che il processo di
mapping era la strada giusta per ottenere effetti realistici.
Nel 1978 Blinn introdusse il bump mapping, attraverso cui è possibile simulare
delle apparenti irregolarità delle superfici come graffi o rugosità. La bump map usa una
texture per modificare la direzione delle normali della superficie. Quando viene
calcolata, la risultante del cambiamento nella direzione delle normali è una superficie
con apparenti irregolarità superficiali.87
Questa tecnica, permette di simulare superfici irregolari come la buccia di
un’arancia. A tale scopo si calcola la normale alla superficie e la si modifica di un
determinato fattore chiamato perturbazione. Durante il calcolo del modello
d’illuminazione, la normale risulta quindi leggermente modificata rispetto a quella di
una superficie uniforme e si modifica pertanto la riflessione prodotta dall’oggetto in
ciascun punto. Il modo con cui si controlla la perturbazione ha effetti sul risultato: si
possono creare variazioni piccole e frequenti o grandi e rarefatte. Le nuove normali
possono essere generate esaminando una bump texture, ovvero una matrice di valori di
perturbazione, che viene trattata esattamente come una texture. Altrimenti, le normali
perturbate possono derivare da una funzione di quota, come se si trattasse di un
paesaggio in cui la quota di ogni punto è registrata come valore di grigio; in tal modo
valori piccoli corrispondono a valli e valori elevati corrispondono a grandi altezze. Da
questi si può ricavare la direzione delle normali di ogni punto.88
87
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 179-186
88
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 271
109
Cook nel 1984 estese il concetto del bump mapping e ideò il displacement mapping.
Le informazioni contenute in questa texture non cambiano la direzione delle normali
della superficie, ma muovono la superficie stessa; le visibili asperità non sono
provocate da un’illusione ottica ma dalle reali alterazioni della geometria; la differenza
è visibile soprattutto nella silouhette degli oggetti.
Nel 1987 Reeves, Salesin e Cook presentarono alla comunità dei ricercatori un
metodo per simulare ombre con l’utilizzo di una texture (shadow map) generata
attraverso il calcolo della profondità dell’immagine dal punto di origine della sorgente
luminosa. Peachey nel 1985 insieme a Perlin descrisse un sistema alternativo alla
mappatura 2D che chiamò solid texture. Successivamente lo stesso Perlin scrisse un
complesso sistema di generazione di texture procedurali, e ancora oggi questo sistema,
noto con il nome di noise, è utilizzato dalla maggior parte dei software 3D. Molti altri
ricercatori hanno contribuito all’avanzamento della tecnologia di mapping procedurale
e non procedurale.89
Fig 39) Bump Map. Fonte: http://renderman.ru/viagra/stass3d/images/bump.jpg
Fig 40 a) Texture Ruggine. Fonte: http://renderman.ru/viagra/stass3d/images/3d/iron.jpg
Fig 40 b) Texture Granite. Fonte: http://renderman.ru/viagra/stass3d/images/3d/rock.jpg
Fig 40 c) Texture Legno. Fonte: http://renderman.ru/viagra/stass3d/images/3d/wood1.jpg
Fig 40 d) Texture Marmo Fonte: http://renderman.ru/viagra/stass3d/images/3d/marble.jpg
89
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 179-186
110
I modelli d’illuminazione che abbiamo introdotto finora non permettono di simulare
situazioni in cui sono presenti superfici che riflettono in modo perfettamente speculare:
se la superficie è piana, ci troviamo di fronte ad un vero e proprio specchio, e
l’osservatore potrà vedere gli oggetti che lo specchio riflette secondo un angolo eguale
e opposto a quello d’osservazione. Una soluzione esatta di questo problema la si può
ottenere con il metodo ray tracing, mentre una soluzione approssimata, adatta ai
modelli d’illuminazione discussi fin qui, si ottiene costruendo la cosiddetta mappa
dell’ambiente (environment map). Immaginiamo che la scena sia contenuta in una
scatola ideale, e immaginiamo che la scena venga proiettata sulle superfici interne di
questa scatola da un unico punto centrale, costruendo un’immagine della scena come
vista dalle 6 facce della scatola. Ogni faccia costituisce la superficie intermedia per la
proiezione della tessitura, che si potrà applicare con una proiezione diretta, senza dover
ricorrere ad altre superfici intermedie. È evidente che occorrerà scegliere la faccia della
scatola che risulta effettivamente visibile da un dato punto della scena ed è evidente,
inoltre, che al posto di un cubo si potrà utilizzare una sfera su cui compiere la
proiezione dell’intera scena.
Tutti questi metodi, basati essenzialmente sull’uso d’immagini come tessiture da
applicare su una scena o su singoli oggetti, soffrono di un limite legato al problema
della risoluzione. Infatti, se la risoluzione dell’immagine finale è maggiore della
risoluzione dell’immagine utilizzata per la creazione della tessitura, si manifesteranno
degli artefatti, che potranno essere attenuati applicando tecniche di anti-aliasing. L’altro
problema che si può manifestare, soprattutto in presenza di tessiture periodiche quali
scacchiere o tramature, è l’effetto moirée, dovuto all’interferenza tra la periodicità della
111
tessitura e la periodicità del dispositivo: i pixel del monitor o i punti di stampa. Anche
questo effetto può essere attenuato con le tecniche di anti-aliasing.90
Le texture procedurali hanno vantaggi e svantaggi rispetto alle texture di immagini.
Uno dei vantaggi è legato allo spazio molto ristretto che esse occupano. La grandezza
delle texture procedurali è misurata in kilobyte, mentre le texture basate sulle immagini
sono usualmente misurate in megabyte. Questo aspetto è vantaggioso in termini di
quantità di memoria di massa utilizzata. Inoltre la risoluzione di queste texture non è
fissa. In questo modo è possibile avere dei dettagli molto accurati. Le texture
procedurali non hanno una limitazione di area, possono quindi essere applicate ad
oggetti di area infinita senza che per questo siano visibili forme di ripetizione o
discontinuità. Queste texture possono essere in qualsiasi momento convertite in
immagini 2D ad area e grandezza fissa (baking).
Purtroppo presentano anche diversi svantaggi ed è per questo che vengono utilizzate
insieme a texture di immagini e non in sostituzione a esse. Uno degli svantaggi è la
difficile generazione, in quanto queste nuove texture procedurali devono essere
programmate. Inoltre, pur essendo molto compatte in termini di spazio, sono complesse
a livello computazionale. Un altro problema è legato all’antialiasing, complicato da
ottenere, soprattutto rispetto alle texture di immagini.91
4.7.2 Transparency
Un altro importante effetto che accresce il grado di realismo di una raffigurazione è
la trasparenza. Alcuni oggetti della scena possono essere trasparenti, di vetro, plastica o
altro, e si deve trovare una soluzione per far passare la luce attraverso di essi. La luce
che attraversa un mezzo trasparente subisce tre effetti: viene assorbita ( e quindi
l’energia che esce dall’oggetto trasparente è inferiore a quella che entra), viene
assorbita in modo selettivo, in funzione del colore dell’oggetto trasparente; viene
deviata con un angolo che dipende dall’indice di rifrazione del mezzo trasparente.
Fig 41) Environment Shading. Fonte: http://www.lightwork.com/pix/aclass1k_640.jpg
90
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 272
91
Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori
Editore p. 179-186
112
Per simulare l’effetto di attenuazione, si modifica l’intensità della luce uscente con
un coefficiente di attenuazione che dipende dallo spessore dell’oggetto stesso e,
volendo simulare il colore del mezzo trasparente, può anche dipendere dal colore
dell’oggetto. Per simulare la deviazione, invece, si applica la legge di Snell, secondo la
quale i due angoli che il raggio incidente e il raggio rifratto formano con la normale alla
superficie di separazione tra i due mezzi sono inversamente proporzionali agli indici di
rifrazione dei due mezzi stessi. Il calcolo d’attenuazione può essere semplificato, infatti
quello che si cerca di simulare con i modelli d’illuminazione locali è il cambiamento di
colore con cui un oggetto viene visto attraverso un altro oggetto trasparente.92
4.8 Modelli Fisici e Globali
I modelli d’illuminazione ed i metodi di rendering che abbiamo esaminato finora
presentano un limite dovuto alla forte approssimazione con cui risolvono il problema
fisico dell’interazione tra la luce ed i materiali. Una migliore approssimazione si può
ottenere con i modelli d’illuminazione più accurati e con metodi di rendering che non
considerano gli oggetti singolarmente ma nella globalità della scena.
I modelli fisici sfruttano conoscenze sulla riflettometria e la fotometria. Assumendo
ipotesi semplificative, si cerca di caratterizzare le proprietà di riflessione dei materiali
con maggiore cura. Esaminiamo brevemente uno dei principali modelli, quello di Cook
92
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 267-268
Fig 42) Transparency. Fonte: http://wwwokino.com/conv/features/caustics/chess_pieces_by_rcl.jpg
113
e Torrance. Altri modelli più sofisticati si trovano nella letteratura specialistica, mentre
questo viene utilizzato estesamente in molti sistemi di rendering commerciali.
Il modello ideato nel 1982, propone di calcolare la luminanza riflessa da una
superficie come funzione di una riflettività bidirezionale. Il modello di Cook e Torrance
si può facilmente integrare in un sistema di rendering con smoothing con il metodo di
Phong, dando così luogo ad un metodo di rendering più accurato dal punto di vista
fisico ma che tiene conto ancora soltanto degli aspetti locali della distribuzione della
luce nella scena.
4.8.1 Modelli d’illuminazione globali
I modelli d’illuminazione globali permettono di tener conto della luce che proviene
indirettamente sugli oggetti della scena. Nei modelli locali, infatti, abbiamo inglobato
in un’unica componente il contributo della luce ambiente, e abbiamo approssimato i
fenomeni di riflessione speculare limitandoci agli effetti di bagliore con il modello di
Phong o ricorrendo a mappe d’ambiente per simulare specchi piani.
I modelli globali, invece, si basano su metodi che cercano ci calcolare, anche se in
modo approssimato, il campo ottico prodotto dalle sorgenti di luce e dall’interazione
della radiazione luminosa con l’intera scena. Nella discussione introduttiva alla
simulazione visiva foto e video realistica, abbiamo messo in evidenza come questa sia
costituita da molteplici aspetti che includono la perfetta conoscenza delle caratteristiche
del dispositivo di visualizzazione e di acquisizione scelto. Il calcolo del campo ottico
costituisce, dal punto di vista della complessità computazionale, il fattore critico
dell’intero processo, mentre la conoscenza delle trasformazioni prodotte e
nell’acquisizione di immagini con telecamere, e la loro simulazione numerica, si pone
come un problema relativamente semplice, una volta note le caratteristiche dei
dispositivi utilizzati. Il campo ottico che interessa simulare nella sintesi d’immagini
realistiche è solo il campo d’intensità, mentre non interessa la componente di fase della
radiazione visibile.
Due sono i metodi in grado di garantire un’elevata accuratezza: il tracciamento dei
raggi (ray tracing) ed il metodo della radiosità. Entrambi i metodi hanno lo scopo di
risolvere numericamente una vasta gamma di problemi ottici d’interazione
luce/materiali, che abbiamo già risolto in modo approssimato con i modelli
d’illuminazione locali: la riflessione diffusa della luce, la riflessione speculare su
114
materiali dielettrici e su conduttori, la trasmissione della luce in mezzi trasparenti, leggi
e proprietà di sorgenti di luce, infine leggi e proprietà d’interazione della luce con i
cosiddetti mezzi partecipanti.
4.8.2 Ray tracing
Il metodo del tracciamento dei raggi affronta il problema del calcolo del campo
ottico d’intensità dal punto di vista geometrico, in quanto consiste nella determinazione
del valore di colore e luminosità di ogni elemento dell’immagine finale sulla base della
storia dei raggi luminosi che hanno contribuito a produrre quel valore di luminosità e di
colore. Le leggi dell’ottica geometrica intervengono nel calcolo della storia dei raggi, il
cui cammino nello spazio della scena viene seguito secondo regole geometriche. Il
limite del metodo di tracciamento raggi è nella complessità di calcolo: in generale non
si riescono a trattare i fenomeni di diffusione e dispersione dovuti al mezzo
partecipante; inoltre il metodo dipende strettamente dal punto d’osservazione scelto ed
è inadeguato ad una sintesi in tempo reale, com’è richiesto dalle applicazioni nelle
Realtà Virtuali o nei video-giochi. Le immagini generate con il metodo di ray tracing
sono molto appariscenti, ma hanno una notevole freddezza che le rende
immediatamente riconoscibili come immagini di sintesi.
Il metodo di ray tracing è un’estensione del metodo di ray casting precedentemente
illustrato per la rimozione delle superfici non visibili. È un’estensione in quanto
procede in modo ricorsivo esplorando l’intera scena per cercare altre possibili
intersezioni del raggio con oggetti dotati di proprietà riflessive o trasmissive particolari.
Il principio guida è che i pixel che appaiono colorati sullo schermo sono il risultato
della storia di tutti i raggi luminosi emessi dalle sorgenti di luce, che hanno interagito
115
con la scena riflettendosi, attraverso oggetti o venendo parzialmente o completamente
assorbiti. Anziché percorrere questa storia partendo dalle sorgenti di luce possiamo
invertire l’analisi percorrendo all’indietro la storia dei raggi che sono giunti allo
schermo, e trascurando quelli persi nello sfondo. In tal modo, quando il raggio che
congiunge il centro di proiezione e il generico pixel colpisce un oggetto della scena,
subisce possibili trasformazioni: viene totalmente o parzialmente riflesso oppure viene
trasmesso. Nel primo caso l’oggetto ha soltanto proprietà di riflessione dei raggi
(speculare o diffusiva), nel secondo l’oggetto è anche trasparente. La direzione dei
raggi riflessi o trasmessi viene calcolata sulla base delle leggi già incontrate, quindi
ciascuno dei raggi riflessi o trasmessi diventa un nuovo raggio di cui ripercorrere la
storia all’indietro.
Possiamo raffigurare questo processo mediante un albero: ad ogni nodo possono
nascere al massimo due rami, il ramo sinistro per convenzione sarà relativo al raggio
riflesso, quello destro al raggio trasmesso. Un ramo dà luogo alla nascita di uno o due
nuovi rami se colpisce un oggetto nel suo percorso, altrimenti quel ramo termina e
viene considerato una foglia. Una volta che l’intero albero, che descrive la storia di un
pixel sullo schermo, è stato generato, si può ripercorrerlo per applicare il modello
d’illuminazione, partendo, questa volta, dalle foglie di un determinato ordine e
accumulando ai nodi i valori di colore che derivano dall’applicazione del modello
d’illuminazione e dei parametri di riflettività e trasmissività degli oggetti incontrati.
Il metodo di ray tracing è indipendente dal modello d’illuminazione utilizzato. Il
metodo, originariamente ideato da Whitted, adottava un modello locale sostanzialmente
analogo al modello di Phong. È naturalmente possibile adottare altri modelli
116
d’illuminazione più accurati, anche quello fotometrico di Cook e Torrance, nonché
simulare sorgenti di luce estese, effetti di tessitura superficiale e di bump mapping.
Una trattazione particolare merita la simulazione delle ombre proiettate. Con il
metodo di ray tracing il calcolo delle ombre proiettate è concettualmente molto
semplice, anche se computazionalmente complesso. Infatti è sufficiente controllare che
ogni volta che un raggio colpisce un oggetto, questo sia illuminato. A tale scopo si
genera un raggio ombra, ovvero un raggio che congiunge il punto con le sorgenti di
luce per verificare se sono visibili.
4.8.3 Radiosity
Il metodo della radiosità affronta il problema del calcolo del campo ottico in modo
completamente diverso da quanto visto finora: consiste infatti nella soluzione del
problema del bilancio dello scambio di energia radiativa che si svolge tra tutti gli
elementi presenti in una scena chiusa. Si tratta cioè di un metodo che punta al realismo
sulla base di principi fondati sulla conoscenza della fisica della luce. L’energia
elettromagnetica scambiata in un ambiente è dovuta ad emissione (sorgenti di luce) o a
riflessione diffusiva o speculare e ad assorbimento. Per poter calcolare questa energia si
fa l’ipotesi che l’ambiente sia chiuso, cioè non scambi energia con l’esterno; pertanto
l’energia totale emessa dalle sorgenti di luce viene totalmente riflessa o assorbita
dall’ambiente.
Ogni elemento di una scena, ogni porzione di superficie, ha determinate proprietà di
emissione (descritta dalla remissività spettrale ovvero dalla distribuzione spettrale di
energia emessa), di riflessione e di assorbimento alle diverse lunghezze d’onda
(descritta dalla riflessività bidirezionale) e il metodo di calcolo consiste nel risolvere le
117
equazioni di scambio radiativo, una volta che sia stato associato ad ogni elemento il
coefficiente di emissività e riflettività che gli compete per ogni lunghezza d’onda
visibile.
Il metodo della radiosità presenta svariati vantaggi: in primo luogo costituisce, dal
punto di vista fisico, una migliore approssimazione all’effettivo comportamento
dell’interazione luce/materiali. Consente perciò di simulare fenomeni di illuminazione
diffusa e di color bleeding, ovvero l’effetto di dominanza cromatica prodotto da
superfici colorate vicino a superfici bianche. Il calcolo della radiosità, benché
computazionalmente piuttosto pesante, una volta completato permette di visualizzare in
tempo reale una scena, ed è quindi adatto ad applicazioni di Realtà Virtuali quali il
walkthrough di ambienti. Infatti, se le geometria della scena non cambia, la radiosità
associata ad ogni superficie è indipendente dal punto di vista.
Poiché il metodo presume che la scena sia chiusa, nella sintesi di immagini si
possono definire superfici virtuali che compaiono solo nel calcolo ma non vengono
visualizzate. Il metodo base di radiosità è stato formulato con una serie di ipotesi
semplificative sulle caratteristiche delle superfici che costituiscono l’involucro dl
sistema isolato e gli oggetti della scena. Le superfici devono essere:
•
Opache (superfici che non trasmettono all’esterno l’energia incidente, per
qualunque lunghezza d’onda e qualsiasi angolo d’incidenza),
•
Grigie (le caratteristiche radiative delle superfici sono indipendenti dalla
lunghezza d’onda su tutto lo spettro),
•
Lambertiane (l’energia emessa e riflessa è uniforme in tutte le direzioni),
•
La radiosità e l’emissività propria sono uniformi su ogni superficie,
•
Ogni superficie ha caratteristiche omogenee, che non variano da un punto
all’altro,
•
Il mezzo presente nella scena (atmosfera) è trasparente.
Queste ipotesi semplificative permettono di descrivere lo scambio di radiazione
nella scena con un’equazione di bilancio energetico e di descrivere la luce che lascia
ogni superficie con un singolo valore per ogni lunghezza d’onda indipendentemente
dalla direzione di osservazione.
I termini che compaiono nelle equazioni del bilancio energetico sono:
118
•
Radiosità = è il valore incognito da calcolare per ogni superficie;
dimensionalmente è un’energia per unità di area;
•
Emissività = energia che la superficie (sorgente di luce) emette in modo
autonomo; dimensionalmente è un’energia per unità di area;
•
Riflettività = coefficiente compreso tra zero ed uno che indica la frazione di
luce riflessa dalla superficie; il modo più accurato di descriverla è usando la BRDF
(riflettività bidirezionale);93
•
Fattore di forma = frazione di luce che lascia una superficie ed arriva su
un’altra; dipende solo dalla geometria della scena, cioè dal modo in cui ogni superficie
è orientata rispetto ad ogni altra; è anch’esso un valore compreso tra zero ed uno.
Il fattore di forma permette di calcolare in quale modo due superfici si vedono
reciprocamente, e dipende quindi dall’orientamento reciproco e dall’inverso del
quadrato della distanza tra le due superfici. Il calcolo dei fattori di forma rappresenta la
parte computazionalmente più critica del metodo, perché richiede lunghi tempi di
calcolo ed elevata precisione numerica. Se però la forma della scena non cambia i
fattori di forma devono essere calcolati una sola volta. Infatti questi sono funzione
unicamente della geometria della scena, e non dipendono dalla posizione del punto di
vista o dagli attributi di colore (riflettività) o dall’emissività delle superfici stesse. I
valori di radiosità così ottenuti sono utilizzati nella successiva fase di rendering, la
quale rappresenta ogni singola patch come un poligono nello spazio immagine,
mediante una tecnica di shading (Gouraud o Phong).
Poiché il metodo di radiosità produce risultati particolarmente accurati, e sono
disponibili programmi pubblici per applicarlo a scene anche molto complesse è utile
esplorare in dettaglio le varie tecniche e i problemi che nascono dall’uso.
Fase di modellazione
Fig 43) Ray tracing 1. Fonte: http://www.cs.berkeley.edu/~sequin/CS184/IMGS/TranspRayTrace.gif
Fig 44) Ray tracing 2. Fonte: http://radsite.lbl.gov/radiance/book/img/plate10.jpg
Fig
45)
Radiosity.
Fonte:
yes.jpg/300px-Radiosity-yes.jpg
http://upload.wikimedia.org/wikimedia/de/thumb/4/43/Radiosity-
93
BRDF: Questa espressione è un semplice modello dell'iterazione della luce con la superficie.
L'iterazione con la luce è molto spesso approssimata con modelli ancora più semplici; riflessione diffusa
e speculare, anche se tutte e due possono seguire questa formulazione; Tratto da:
wikipedia.org/wiki/Rendering
119
La fase di modellazione deve fornire il modello della scena da calcolare con tutti i
suoi attributi. Il programma di modellazione da usare deve permettere di utilizzare uno
o più metodi di rappresentazione delle superfici (poliedri a facce quadrangolari piano o
triangolari, superfici parametriche, solidi CSG). Inoltre deve essere possibile assegnare
ad ogni superficie gli attributi di emissività e riflettività spettrali che ne caratterizzano il
colore. Infine deve essere possibile specificare sottosuperfici, o patch, creando e
controllando una suddivisione iniziale (mesh) che verrà poi raffinata automaticamente
dal programma di radiosità stesso.
Un programma per il calcolo di radiosità dovrebbe inoltre permettere di
memorizzare i valori di radiosità per entrambe le facce dei poligoni e invertirne
l’orientamento se necessario (questo è necessario per distinguere i due versi di una
faccia: quello orientato verso le altre facce e quello opposto, in particolare le facce che
delimitano l’ambiente). Per poter garantire un rendering efficace, il programma deve
inoltre permettere di ridefinire le patch in modo da trasformare una generica
suddivisione in superfici poligonali in una suddivisione in facce piane. È anche
indispensabile controllare che nella nuova suddivisione ogni lato unisca solo due
poligoni, eccetto sui contorni delle superfici. Questo si rende necessario per prevenire
fessurazioni nelle superfici curve e discontinuità nello shading delle superfici piane.
Infine il programma dovrebbe permettere di eliminare le patch che non ricevono
luce (ad esempio perché occluse da altre superfici). Questo previene problemi dovuti
alla tecnica dello z-buffer, causati da superfici complanari o coincidenti, ed elimina
anche una porzione di modello che ordinariamente non può essere vista.
Meshatura degli elementi del modello: suddivisione gerarchica
Per raffinare la suddivisione in patch, si adotta spesso una suddivisione gerarchica
che permette di ottenere un’accurata soluzione per la radiosità in un punto, ricavandola
dalla radiosità globale della superficie. A tale scopo le patch che compongono
l’ambiente (ottenute dalla suddivisione iniziale delle superfici) vengono ulteriormente
suddivise in elementi più piccoli. Ogni elemento funziona come un ricevitore
individuale di luce ed avrà quindi un proprio valore di radiosità. La radiosità di ogni
patch sarà perciò la somma della radiosità degli elementi più piccoli, pesata in
120
proporzione all’area di ciascuno. Il fattore di forma dovrà essere calcolato per ogni
elemento più piccolo rispetto ad ogni patch.
La soluzione procede quindi secondo i seguenti passi:
•
Calcolo dei fattori di forma fra elementi più piccoli e patch;
•
Somma dei fattori di forma ottenuti al punto precedente per ottenere il fattore
di forma fra le patch;
•
Calcolo della radiosità delle patch;
•
Determinazione della radiosità degli elementi dal valore ottenuto al punto
precedente;
•
Rendering di tutti gli elementi.
Utilizzando una suddivisione gerarchica, si possono verificare degli inconvenienti;
poiché i contorni delle zone d’ombra non sono mai esplicitamente determinati, per
scoprirli è necessario individuare le zone in cui si ha una variazione della radianza.
Piccole zone d’ombra generate da piccoli oggetti possono essere trascurate se la
suddivisione iniziale in patch è troppo grande. Poiché inoltre le superfici emissive non
vengono suddivise, non si può ottenere l’effetto di penombra intorno alle zone d’ombra.
La suddivisione delle patch in elementi mediante una griglia regolare può generare il
fenomeno di light leaks dove la suddivisione della griglia non coincide con l’occlusione
dei poligoni.
Per superare questi limiti, la mesh iniziale dovrà essere raffinata secondo una
modalità detta adattiva, combinando un criterio di individuazione dei contorni delle
ombre ed una tecnica che valuta le variazioni rapide di radianza (gradiente) da un punto
all’altro. In contrasto con le tecniche tradizionali di radiosità, gli elementi di superficie
creati sono raramente rettangolari. La tecnica procede quindi elaborando i poligoni
secondo un ordine di energia decrescente: una volta scelto un poligono emissivo (che è
sorgente di luce) questo viene testato per garantire che sia abbastanza piccolo ed
abbastanza lontano dal resto della scena per non creare zone di penombra. Se questa
condizione non è verificata, il poligono deve essere suddiviso in elementi più piccoli
che soddisfano il criterio precedente. Una tecnica adattiva permette di modificare la
matrice dei fattori di forma fino a quando il gradiente di radianza di una patch non
scende al di sotto di una soglia.
121
Fattori di forma: emicubo
Per calcolare il fattore di forma, si potrebbe ricorrere ad una soluzione analitica del
doppio integrale che definisce il fattore di forma, ma essa è nota solo per configurazioni
geometriche e per forme particolari (ad esempio rettangoli paralleli o ortogonali), e non
per patch di forma generica. Si ricorre quindi ad una soluzione numerica approssimata.
Una delle tecniche numeriche per il calcolo del fattore di forma si basa sull’analogia
geometrica di Nusselt: la proiezione di un elemento di area differenziale su una
semisfera di raggio unitario posizionata al centro di una patch è proporzionale
all’angolo solido attraverso il quale il punto al centro della patch vede l’area
differenziale. Il valore della proiezione dell’angolo solido sulla base della semisfera
diviso per l’area totale della base della semisfera rappresenta il fattore di forma tra il
punto al centro della semisfera e l’area differenziale. In base a queste considerazioni,
due superfici che occupano la stessa area e la stessa posizione hanno lo stesso fattore di
forma. Per ricavare i fattori di forma con questa tecnica è necessario seguire una
sequenza di fasi successive:
1.
posizionare un’emisfera di raggio unitario sulla superficie di area differenziale
2.
suddividere la base della semisfera in porzioni di area uguali e abbastanza
piccole per ottenere un’adeguata precisione,
3.
calcolare la proiezione di ogni superficie della scena sulla semisfera,
4.
calcolarne la proiezione ortogonale sulla base della semisfera,
5.
valutare l’area occupata da ciascuna superficie con un test di profondità per
determinare la parte visibile di ogni superficie,
6.
calcolare i fattori di forma come somma dei settori coperti da ciascuna
superficie pesati con la rispettiva area, diviso l’area della base della semisfera.
Questa tecnica permette di individuare, mediante un test di profondità, anche le
occlusioni. L’analogia di Nusselt viene utilizzata in una forma approssimata del calcolo
dei fattori di forma: la tecnica dell’emicubo. Infatti al posto dell’emisfera posizionata
sulla patch, si può utilizzare un mezzo cubo e proiettare le varie patch su di esso per
valutare la visibilità e il fattore di forma relativo alla patch in esame.
Uno dei vantaggi della tecnica dell’emicubo discende dall’osservazione che il
problema della visibilità e del calcolo dell’area proiettata corrisponde esattamente al
122
problema della rimozione delle superfici nascoste e della rasterizzazione di un
poligono. Pertanto si può utilizzare, con grande vantaggio nella velocità del calcolo, la
tecnica dello z-buffer. Con questo metodo, nasce però un problema di aliasing, dovuto
all’approssimazione con cui si valuta la proiezione di una patch sull’emicubo. Ogni
faccia dell’emicubo infatti viene immaginata come composta da una matrice di pixel, la
cui densità determina la risoluzione spaziale della proiezione della patch. Una
risoluzione troppo limitata dà quindi origine ai fenomeni di aliasing, risolubili con le
tecniche consuete di anti-aliasing o di sovracampionamento spaziale.
Altri metodi
Citiamo altri due metodi che possono essere adottati per la risoluzione del calcolo
del fattore di forma. Il primo è il metodo Monte Carlo, che consiste nello stimare
un’area valutando un numero limitato di valori casuali n e pesando il risultato con la
proporzione dei valori che cadono all’interno dell’area stessa. Questo metodo può
essere molto accurato se si adottano tecniche probabilistiche per la generazione dei
valori casuali.
L’altro metodo, chiamato del singolo piano, è stato ideato da F. Sillion. Anziché
adottare il metodo dello z-buffer per la soluzione delle occlusioni e per il calcolo delle
proiezioni delle patch su una data superficie, si suddivide la superficie in modo
ricorsivo secondo la tecnica di rimozione delle superfici nascoste di Warnock,
precedentemente illustrata. I vantaggi del metodo del singolo piano sono
principalmente legati alla velocità della soluzione, in quanto l’accuratezza dipende in
modo sostanziale dalla tecnica di suddivisione in patch delle superfici della scena.
Soluzione del sistema di equazioni: gathering e shooting
L’ultimo aspetto che interessa approfondire nella soluzione del metodo di radiosità
riguarda la soluzione del sistema di equazioni lineari. Il metodo più diretto consiste nel
risolvere il sistema con un sistema iterativo come quello di Gauss-Seidel. A questo
metodo possiamo dare un’interpretazione fisica, immaginando che, con il progredire
della soluzione, ogni patch accumuli via via l’energia che riceve da tutte le altre. Il
rendering della scena può avvenire quindi soltanto alla conclusione della soluzione del
sistema di equazioni. Da questa interpretazione deriva il nome di gathering
123
(raccogliere), che suggerisce come l’energia venga raccolta da tutti gli elementi della
scena. Un altro metodo, chiamato shooting (sparare), procede come se l’energia venisse
inviata a tutte le patch partendo dalle superfici emissive. Questo approccio permette di
risolvere la radiosità in modo progressivo, visualizzando la scena con un dettaglio
progressivamente crescente nella simulazione dell’illuminazione.
4.8.4 Altri effetti
Il metodo di radiosità può essere esteso per trattare altri effetti, In particolare, per
simulare fenomeni di riflessione e di trasparenza si adotta normalmente la tecnica a due
passi. Durante il primo passo viene calcolata la radiosità della scena, associando a ogni
superficie il colore che le compete per una riflessione diffusa di tipo lambertiano.
Durante la seconda passata si esegue il metodo di ray tracing, analizzando soltanto gli
oggetti che hanno proprietà di riflessione speculare o di trasparenza. In tal modo si
genera un’immagine che corrisponde alla vista della scena dal punto di proiezione
scelto, e in cui gli oggetti trasparenti o a specchio sono resi in uno scenario con un
rendering accurato della componente ambientale diffusiva. Naturalmente il metodo a
due passi dipende dal punto di vista, a non ha lo stesso vantaggio della radiosità
normale che consente la navigazione in tempo reale nella scena tridimensionale.
Un altro effetto importante è quello della presenza di un’atmosfera (mezzo
partecipante) con determinate proprietà di diffusione della luce, dovute, ad esempio,
alla presenza di fumo o di umidità e nebbia. A tale scopo si immagina che il volume
d’aria della scena sia costituito da numerosi volumetti elementari, che vengono presi in
considerazione nel calcolo dei fattori di forma e nella soluzione del sistema di
equazioni lineari. Naturalmente la complessità computazionale del metodo cresce
notevolmente per la presenza di questi elementi di volume. Gli effetti che si possono
ottenere sono tuttavia di straordinaria efficacia.
4.9 Rendering impressionistico
Abbiamo fin qui esaminato le tecniche di rendering foto realistico. Esiste una
famiglia di metodi che punta piuttosto ad una soluzione di carattere impressionistico,
cercando di ottenere l’illusione del realismo attraverso l’emulazione dei metodi della
pittura e del disegno. Alcune di queste tecniche sfruttano il disegno interattivo pittorico,
124
altre sfruttano la riproduzione digitale di immagini. Tra queste ultime la più interessante
è il cosiddetto image based rendering, che si pone a cavallo tra l’analisi e la sintesi di
immagini. Il rendering basato sulle immagini punta alla creazione a partire da una serie
di immagini fisse o da un filmato. Non si cerca di ottenere un modello geometrico
accurato della scena, ma un modello approssimato, adatto ad una navigazione
interattiva che dia l’impressione del realismo senza i requisiti di precisione richiesti dai
sistemi avanzati di realtà virtuale.
Una prima soluzione a questo problema consiste nel ricavare da una serie di
immagini la tridimensionalità della scena, che viene quindi descritta geometricamente
come una serie di piani a diversa profondità, come fossero le quinte di una scena
teatrale o i diversi piani di acetati usati nell’animazione tradizionale. Sui piani a diversa
profondità, le immagini fotografiche vengono applicate con un procedimento di
texturing, eventualmente corretto con tecniche di warping94 per adattare l’immagine
alla proiezione secondo la quale il piano è visto.
Un’altra soluzione parte ancora da una sequenza di immagini che vengono
assemblate in modo da poter essere esplorate come se fossero osservate da un buon
successo è QuickTime VR, della Apple, adatto sia alla creazione di panorami sia alla
creazione di modelli 3D di singoli oggetti.
4.9.1 Quick Time VR
Il principio logico su cui si basa Quick Time VR è quello della costruzione di un
panorama attraverso una sequenza di immagini applicate su una superficie cilindrica.
Una volta predisposta la sequenza fotografica, il metodo crea un’unica immagine
(stitch) incollando le immagini successive e risolvendo i problemi di allineamento e
correzione delle distorsioni ottiche in modo automatico.
La procedura di collimazione95 esamina le regioni potenzialmente sovrapposte delle
due immagini e cerca di valutare la loro distanza, che viene poi resa minima
(idealmente pari a zero) spostando la seconda immagine verso la prima. Se la differenza
94
Warping: L´image warping è una trasformazione geometrica di un’immagine.
95
Collimazione: La collimazione di un'ottica (composta da diversi elementi ottici, come lenti, specchi,
diagonali e oculari) consiste nel far sì che gli assi di simmetria, che sono anche gli assi ottici di ognuna
delle componenti, coincidano tra loro (a rigore ciò non è necessariamente vero, ma per la stragrande
maggioranza delle ottiche in uso in campo amatoriale lo è). A seconda del tipo di ottica l'operazione può
variare nelle sue modalità, ma il suo significato "geometrico" non cambia: gli assi ottici dei componenti
devono
essere
coincidenti
per
essere
collimati.
Tratto
da:
http://astroemagazine.astrofili.org/num9/collimazione/
125
tra le due immagini è eccessiva, l’utente può intervenire manualmente per aiutare il
programma automatico. Questa operazione viene compiuta con tutte le immagini fino a
creare lo stitch.
È necessario a questo punto calcolare la proiezione della stitch su una superficie
cilindrica, che in seguito viene suddivisa in una serie di patch che possono essere
trattati come fotogrammi di una sequenza video. L’osservatore, usando il mouse, fa
scorrere il video in avanti o indietro, come se navigasse nella scena, può scegliere lo
zoom per ingrandire o rimpicciolire una zona, e compiere un’intera rotazione.
Questa tecnica può sembrare a prima vista simile alla mappa d’ambiente che
abbiamo descritto nel contesto del rendering con modelli d’illuminazione locali, ma il
limite della mappa ambiente è che non permette di variare con continuità i punti di
vista. Per ovviare a ciò QuickTimeVr suddivide la superficie di proiezione in una serie
di regioni sulle quali mappa porzioni corrispondenti dell’immagine panoramica; queste
regioni sono gestite come fotogrammi chiave di una sequenza animata. I fotogrammi
intermedi, che permettono di ottenere un movimento morbido, sono generati come
interpolazione tra i fotogrammi chiave. Perciò quando l’utente naviga nello spazio
virtuale, in realtà seleziona un percorso sul piano piastrellato del cilindro di proiezione
scegliendo le immagini chiave che il sistema interpola automaticamente.
Da questa descrizione emerge come QuickTimeVR sia a cavallo tra un sistema per
creare e visualizzare scene tridimensionali ed un sistema di produzione di filmati.
Il sistema QuickTimeVR permette anche di creare filmati di oggetti tridimensionali,
a partire da una serie di fotografie dell’oggetto da differenti punti di vista. Anche in
questo caso occorre risolvere il problema della collimazione dei fotogrammi e quello
dell’interpolazione tra fotogrammi diversi. In completa analogia col metodo descritto
per la navigazione nei panorami, infatti, la navigazione attorno ad un oggetto
126
tridimensionale tramite QuickTimeVR avviene interpolando in tempo reale le immagini
di punti di vista chiave, ricavati dalla sequenza fotografica originale.
In determinate zone della schermata può essere inserito un collegamento
ipertestuale che consente di attivare un nuovo filmato. In questo modo si può creare una
navigazione interattiva in uno spazio composto da visioni panoramiche multiple di
diversi aree o di diversi oggetti. Per navigare tra oggetti e scene diversi vengono inseriti
dei “punti caldi” (hot spots), cliccando sui quali viene selezionato il nuovo filmato. Per
permettere questa gestione, QuickTimeVR considera i differenti filmati (panoramiche,
oggetti) come tracce diverse tra cui scegliere alternativamente quella da visualizzare.
Recenti versioni di QuickTimeVR permettono di proiettare il panorama su una sfera, in
modo da poter osservare la scena da qualsiasi punto di vista.96
4.10 Applicazioni
Oggi le applicazioni della resa visuale sono piuttosto ampie, «e in particolare, per
quanto concerne le animazioni tridimensionali, appare in parte ridimensionato il trend
imperniato sull’esasperazione del rendering, sul realismo della simulazione, e quelle
produzioni che vi si ispirano ricorrono sovente all’ironia. Questa situazione si presta a
diverse interpretazioni, probabilmente concorrenti.
Una prima risiede nel fatto che non si è ancora in grado di migliorare sensibilmente
il realismo della figurazione, particolarmente quando è dinamica, per motivazioni
tecniche e strumentali, e ciò rende conto anche del fatto, sopra notato, che per quanto
riguarda il rendering realizzazioni notevoli del passato restano tuttora esempi cui
ispirarsi. Questo rarefarsi del realismo a tutti i costi può anche essere interpretato come
segno indiziario dell’affrancamento da una fase di autoreferenzialità, centrata sullo
strumento anziché sulla rappresentazione, fase, come si è osservato in precedenza,
tipica e cruciale nella maturazione di un medium, e in particolare di un medium, come
il computer, nato e sviluppatosi proprio per simulare.
Una motivazione non secondaria, tuttavia, ci sembra risieda in problematiche insite
nella simulazione stessa, nella sua rappresentazione e percezione, problematiche che
riguardano non soltanto l’animazione al computer, ma in generale le simulazioni
Fig 16) Quick Time VR. Fonte: http://www.calidos.com/quefem/gifs-qtvr/VR-1.gif
96
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 273-292
127
tecnologiche. Indubbiamente è difficile rendere in modo credibile, senza «effetto
cartoon», superfici e strutture tridimensionali particolarmente complicate, dalla
dinamica complessa, presenti, per fare solo un esempio, nell’animazione della figura
umana. Tuttavia crediamo che non si tratti di una questione dovuta esclusivamente ai
limiti di una tecnologia della rappresentazione.»97
4.10.1 Cinema
Come visto fin’ora, il peso del rendering nell’ambito cinematografico è
enormemente rilevante. Lo dimostra il fatto che ormai la stragrande maggioranza degli
studi cinematografici hanno un reparto di Visual Effects.
Oggi, grazie alle tecnologie digitali, è possibile ricreare al computer scenari,
situazioni, oggetti, acqua di mare, fuoco, persino persone e dinosauri sintetici, curati fin
nei
minimi
particolari.
Il cinema sta vivendo una svolta epocale; quella dei visual effects è ormai una realtà
innegabile: l'industria cinematografica ha deciso di seguire la strada del progresso, e
non tornerà più indietro. La tecnologia non è più un accessorio della narrazione, ma è
divenuta parte integrante della trama; ciò ha causato una ridefinizione nell'approccio
all'organizzazione, alla ripresa e al montaggio di qualunque film, nonché nella
gerarchizzazione dei ruoli: il regista non è più creatore assoluto della sua opera, ma ha
bisogno dell'aiuto di un gruppo di esperti per dar corpo alla propria ispirazione.
E' importante notare che in questo modo al cinema viene restituita quella valenza di rito
collettivo oscurata dall'avvento dello spettacolo televisivo: la sala, con i megaschermi
ed i moderni impianti di acustica, è di nuovo il luogo in cui più individui si recano con
l'intenzione di vivere un'esperienza di gruppo, di condividere le emozioni che il guru
(regista) ha deciso di veicolare nel suo film.
Anche il cinema italiano, proverbialmente restio ad accettare le innovazioni, sembra
essersi accorto del profondo cambiamento intervenuto: Nirvana98 di Gabriele
97
Pier Luigi Capucci, Realtà del virtuale, cit., p.58-59
98
La data di riferimento è il 2005, un futuro vicino al nostro, figlio del movimento cyberpunk. Le città
sono diventate degli agglomerati di quartieri multietnici. Nell'agglomerato del Nord vive Jimi
(Christopher Lambert), un programmatore di videogiochi. La sua ultima creazione, Nirvana, sta per
essere lanciata sul mercato mondiale. Da quando Lisa (Emmanuelle Seigner) lo ha lasciato, la vita di Jimi
non
ha
più
senso.
Solo (Diego Abatantuono) e Maria (Amanda Sandrelli) sono i protagonisti del videogioco. Un virus
entrato nel computer di Jimi ha fatto impazzire il programma e Solo ha acquistato una coscienza. Resosi
conto di essere condannato ad una falsa esistenza fatta di continue ripetizioni, supplica Jimi di
128
Salvatores potrebbe essere un esempio di come i nostri registi, soprattutto i più giovani,
siano stati in parte coinvolti in questo processo di 'svecchiamento' compiuto dal mondo
dell'informatica.99
4.10.2 Video-games
Quasi tutti i blockbuster cinematografici offrono lo spunto per la realizzazione di un
videogioco come prosecuzione del divertimento a casa propria. Rappresentano
l'espressione videoludica della moderna cinematografia.
Il game elettronico viene generalmente usato come «testa di ponte» del film in
uscita nelle sale, esattamente come è capitato per il recente Episodio III di Star Wars
“La vendetta dei Sith” da parte di Activision, oppure come naturale prosecuzione
dell'avventura su grande schermo. La produzione hollywoodiana è generalmente fonte
d'ispirazione primaria per un mercato “videogame & cinema” che si sta rivelando
sempre più come un'autentica miniera d'oro.
Dal punto di vista dei gamer, dei giocatori più o meno incalliti, il tie-in100 è
considerato una sorta di tallone d'Achille per tutte le piattaforme. Di norma l'avventura
si presenta poco interessante, non aggiunge granché a quanto visto al cinema e si finisce
per considerare molti prodotti come mere operazioni commerciali. Ed in effetti i numeri
di queste operazioni sono straordinari. Un successo parziale può essere legato ad un
non corretto sincrono con l'uscita del film, quando il lasso di tempo è eccessivo si
rischia inevitabilmente di non cavalcare più l'onda del successo. È il caso di “X-Files”,
sopprimerlo una volta per tutte. Ma per fare questo Jimi dovrà penetrare nella banca dati della Okosama
Starr, la multinazionale per la quale lavora. Inizia così un viaggio per i quartieri periferici
dell'agglomerato, un viaggio verso il cuore della Okosama Starr ed al tempo stesso sulle tracce di Lisa.
Al suo fianco Joystick (Sergio Rubini), un hacker che con la sua parlata pugliese rappresenta la massima
contaminazione in un mondo fatto di sola tecnologia, e Naima (Stefania Rocca), una giovane esperta di
computer che, da quando ha perso la memoria, può vivere unicamente di ricordi artificiali.
Coproduzione europea per un costo industriale di circa 17 miliardi, ma realizzato interamente in Italia,
dalle scenografie agli effetti speciali computerizzati, Nirvana è un interessantissimo film di fantascienza
introspettiva in cui la ricerca è orientata verso l'interno dell'uomo: un pretesto per parlare di noi, delle
nostre paure, dei nostri sogni, dell'angoscia di poter vivere in una realtà irreale fatta di mondi paralleli.
Tratto da: http://www.revisioncinema.com/ci_nirva.htm
99
Tratto da: http://xoomer.virgilio.it/liciabar/informatica/pag1.htm
100
Tie-in: Significa legare (come legare con un nodo) due prodotti differenti. E' un termine
pubblicitario. Il termine tying-contract è traducibile letteralmente in italiano come “contratto legante”;
nella terminologia anglosassone è utilizzata anche la variante tying arrangement o tie-in. Il tie-in è la
vendita o la concessione in godimento di un bene o di un servizio (tying product, il prodotto legante)
sotto la condizione che il cliente affitti o compri un altro bene o servizio (tied product, il prodotto legato)
che potrebbe invece essere venduto separatamente.
129
fortunata serie televisiva creata da Chris Carter divenuta un film approdato con un certo
ritardo su PSX come game del tipo “punta e clicca”. Un limitato appeal anche perché
non era possibile vestire i panni dei due super agenti Mulder e Scully bensì interagire
con essi in quelli di Craig Willmore che durante le investigazioni incontra altri
personaggi cult come l'uomo che fuma, i Lone Gunmen, Skinner etc.
Un piano di credibilità e la capacità di riuscire a coinvolgere con la stessa intensità
emotiva rispetto all'opera cinematografica è proprio quanto gli appassionati chiedono.
Indimenticabile
in
questo
senso
l'eccellente
lavoro
da
parte
della
Rare
nell'implementare su una console dalle relative doti grafiche il tie-in di “007
Goldeneye” che non solo spopolò agli esordi della macchina Nintendo 64 ma ne
contribuì al successo mondiale.
La THQ ha sviluppato parecchio codice a partire dal 2000 dedicato alla saga di
“Evil Dead” che ha dato fama e notorietà al regista Sam Raimi. Cinque anni fa la
grafica non consentiva grande respiro su PC e PSX ma è da poco disponibile una nuova
avventura del genere horror survival intitolata “Evil Dead: Regeneration” per PS2 che
ricalca pienamente le atmosfere dei film immergendo il giocatore in uno scenario da
brivido.
In seno ad un'industria che non manca di inventiva e coraggio si può incontrare chi
oltre alla passione della programmazione tout-court è cinefilo entusiasta. La risultante
di questo binomio è sicuramente presente in “The Two Towers”, videogame che
ripropone atmosfere ad alto tasso di coinvolgimento in una sorta di mini saga basata sui
primi due episodi della trilogia di Peter Jackson. Livelli di gioco con ambientazioni
familiari a chi si è appassionato al cinema seguendo Frodo e la Compagnia dell'Anello.
Dalle miniere di Moira al Fosso di Helm combattendo senza quartiere guerrieri Urukhai e orchi. La Electronic Arts ha in questo senso sviluppato un motore poligonale
aumentando il grado di controllabilità e agilità. In questo caso il titolo del genere
“slash'em up” ha mostrato i suoi lati deboli unicamente per la mancanza dell'opzione
multigiocatore e per la non corretta bilanciatura del grado di difficoltà per i vari livelli.
Il successo della trilogia è ancora alto e consente un ulteriore sfruttamento commerciale
al punto che la Turbine Entertainment di Westwood, Massachusetts ha quasi pronto
“Middle-Earth Online”, game che si preannuncia clamoroso. Turbine ha deciso di
rimandare l'uscita per evitare la sovrapposizione con il lancio del game di strategia in
tempo reale “Lord Of The Rings: Battle For The Middle-Earth” sempre di Electronic
Arts.
130
Diversi i game nel corso del tempo legati alla saga della spia Ethan Hunt
interpretata da Tom Cruise con i due “Mission impossibile” cinematografici cui seguirà
presto un terzo. “Mission Impossible: Operation Surma” è stato convertito da Atari per
PS2 e gli appassionati troveranno atmosfere e tattiche di due stealth game d'eccezione
come “Sprinter Cell” e “Metal Gear Solid”.
L'azienda è nota per avere prodotto il successo per PC “Enter The Matrix” che sarà
molto probabilmente surclassato dall'imminente uscita per tutte le piattaforme di “The
Matrix: Path Of Neo”. Il videogame è curato dai registi della trilogia, i fratelli
Wachowski, si potrà vivere l'intera avventura dei tre film nei panni dell'eletto aprendo
ad un possibile finale inedito.
Da non dimenticare sempre da parte di Atari la produzione di “Rise Of The
Machines”, game ampiamente ispirato al terzo episodio della saga di Terminator che ha
lasciato sul terreno non poche critiche. Di recente uscita è “Terminator 3: The
Redemption”, shooter/picchiaduro in terza persona e adventure disponibile anche per
Xbox dove si sparano quantità inverosimili di piombo con innumerevoli richiami al
film ed una riproduzione fedele delle ambientazioni. Il legame all'opera diretta da
Jonathan Mostow è oltremodo assicurata dalla voce di Alessadro Rossi, doppiatore di
Schwarzenegger. Unico neo, qualità del gioco a parte, l'assenza di musiche legate alla
colonna sonora originale.
L'ultimo capitolo della saga del Batman cinematografico meno cupo e surreale
rispetto a quello di Tim Burton ha ispirato il recentissimo game su PS2. Diverso dal
classico picchiaduro e con un approccio più stealth dove è più opportuno non essere
scoperti dai nemici piuttosto che eliminarli.
La linea temporale della narrazione filmica non è proprio identica ma non per
questo viene meno l'appeal: grafica eccellente richiamando senza meno la fisionomia
degli attori, Christian Bale in primis. Anche qui sono presenti le voci dei doppiatori
italiani
e
la
colonna
sonora
originale.
Meno facile rispetto a quanto verrebbe da pensare la realizzazione di un gioco ispirato
all'animazione.
I capolavori cinematografici della Pixar hanno sempre lasciato scontenti gli
appassionati proprio come è accaduto per l'ultimo “Gli incredibili”. A fare da
battistrada al recente “Madagascar” ci ha pensato ActiVision con il game che ha creato
la giusta attenzione dei più piccoli che inevitabilmente hanno costretto i genitori alla
visione del film recentemente uscito nelle sale. Tra produzioni passate più o meno
131
recenti e giochi in procinto di distribuzione non possiamo non parlare di “The
Chronicles Of Riddick: Escape From Butcher Bay” di Starbreeze Studios, non tanto
ispirato al secondo capitolo della saga ma un'opera che si pone come prequel del primo
“Pitch Black”. Mentre vestiamo i panni dell'antieroe Riddick interpretato da Vin Diesel
veniamo a conoscenza delle sue origini e del potere dei suoi occhi. Non si tratta di un
semplice sparatutto o picchiaduro ma di una avventura con visuale in prima persona
dove occorre sfruttare le doti fisiche del personaggio che può certo aprirsi la strada a
suon di arti marziali. La potenza grafica in questo caso richiede per la piattaforma PC
un hardware adeguato all'ultima generazione.
Esistono anche videogames estremamente tardivi rispetto alla realizzazione
cinematografica. È il caso di “Starship Troopers” di Paul Verhoeven il cui gioco verrà
lanciato a breve da Leader. Uno sparatutto 3D dove si ricopre il ruolo di un soldato
membro dei Leoni, corpo speciale della fanteria mobile che partecipa a pericolose
missioni a caccia di insetti alieni, il racconto si colloca temporalmente cinque anni dopo
gli eventi del film del '97. Si tratta in realtà del secondo game ispirato al film, dopo
l'uscita di uno strategico curato da Hasbro Interactive nel 2000.
Della stessa categoria realizzato da Take 2 per PS2 abbiamo l'unico game che
permette di rivivere la violenza urbana del grande cult del 1979 “The Warriors - I
guerrieri della notte” firmato Walter Hill. Attraversare la città di New York per tornare
a Coney Island non sarà facile nel ruolo dei Guerrieri: in questo picchiaduro
d'imminente uscita ci si batte contro le «street gang» a partire dagli Orfani sino ai mitici
Baseball Furies, armati di mazze con gli originali indimenticabili colori di guerra sul
volto.
Ma la rivoluzione dei videogiochi con il cordone ombelicale alla celluloide non
passa unicamente per Hollywood. Dall'Ucraina nacque alcuni anni fa l'idea di realizzare
un game ispirato al fantascientifico “Stalker” di Andrej Tarkovskij intitolato “Oblivion
Lost” dove occorre sopravvivere all'interno della zona letale di Chernobyl popolata da
esseri mutanti. Del film in questo caso è sfruttata solo la nomea e questo sparatutto 3D
in prima persona della THQ è ora noto come “Stalker: Shadows Of Chernobyl”. Sulla
qualità grafica le immagini parlano da sole.
A breve ci immedesimeremo nel ruolo di King Kong nel game sviluppato da Ubisoft
che ha lavorato in stretta collaborazione col regista dell'omonimo film Peter Jackson. I
cinefili appassionati di picchiaduro potranno invece tornare con la memoria al “Fight
132
Club” di David Fincher con ambientazioni e ruoli identici a quelli vissuti da Brad Pitt e
Edward Norton nel nuovo game di Vivendi/Universal.
Anche i film prodotti dalla Marvel di Stan Lee si sono spesso trasformati in «instant
game» ma non sempre interessanti. Limitati quanto a grafica, sonoro ed una parziale
corrispondenza con il film ed una (troppo) generica ispirazione al fumetto come per XMen, Spiderman, Hulk e l'ultimo nato in casa ActiVision: il relativamente longevo “I
fantastici 4”.
In ultima analisi i sospetti dei cosiddetti opinion leader, leggi giocatori accaniti con
grande bagaglio d'esperienza su tutte le piattaforme, legati ai tie-in sono comprensibili
perché sanno quanto elevato possa essere il rischio di un prodotto costoso e poco
interessante. A spezzare una lancia a favore dei creativi e dei publisher vi è la
considerazione che può capitare di avere un basso budget per la realizzazione quando si
sono spesi miliardi nell'acquisizione della licenza.
Sul piano qualitativo il realismo del gioco è sempre più prossimo a quello della
pellicola ed il futuro tecnologico di domani ci porta a pensare quanto l'elettronica
videoludica e l'avventura (sempre più digitale) del grande schermo un giorno potranno
comodamente confondere le rispettive genie regalando un grado di immedesimazione
emotiva senza confini.101
4.10.3 Multimedia
I creatori di Cd-rom hanno inventato un nuovo linguaggio visivo quasi per caso,
cercando di emulare il cinema tradizionale.
Alla fine degli anni Ottanta la Apple ha iniziato la promozione dell’idea di computer
multimediale; e nel 1991 ha prodotto il software Quick Time, che permette ad un
qualsiasi computer di visualizzare film o video. Tuttavia, negli anni seguenti, il
computer non ha sfruttato questo nuovo ruolo. I primi Cd-rom non potevano contenere
dati sufficienti alla visualizzazione di un intero film. Inoltre i computer riproducevano i
film con molti scatti e intervalli, e soprattutto le immagini erano grandi quanto un
francobollo. Infine, i film venivano compressi, compromettendo la definizione delle
immagini. Solo nel caso di immagini statiche, il computer riusciva a visualizzare
dettagli di qualità fotografica e a schermo intero.
101
Tratto da: http://www.primissima.it/attualita/sommario.html?id-articolo=56
133
A causa di questi limiti, i creatori di Cd-rom hanno dovuto inventare un nuovo
linguaggio cinematografico che applicasse alle immagini sintetiche e fotografiche tutta
una serie di strategie (sequenze circolari, movimenti a passo singolo e sovrimpressioni)
utilizzate nel diciannovesimo secolo, nell’animazione del ventesimo secolo e nel
cinema
pittorico
d’avanguardia.
Questo
linguaggio
unisce
l’illusionismo
cinematografico all’estetica del collage grafico, basato sull’eterogeneità e sulla
discontinuità. Il grafico e il fotografico, separati da quando il cinema e l’animazione
avevano preso due sentieri diversi, si sono ricongiunti sullo schermo del computer.
E il grafico ha incontrato anche il cinematografico. I creatori di Cd-rom
conoscevano le tecniche cinematografiche e quelle di montaggio, ma hanno dovuto
adattarle a un formato interattivo e ai limiti dell’hardware. È nato così un nuovo
linguaggio ibrido, che combina le tecniche del cinema moderno con quelle delle
immagini in movimento del secolo scorso.
Possiamo ricostruire l’origine di quel linguaggio, analizzando i Cd-rom più famosi.
Il gioco Myst (Broderbund, 1993) - un vero e proprio bestseller - dispiega la narrazione
utilizzando soltanto immagini statiche, una pratica che ci riporta agli spettacoli delle
lanterne magiche e a La Jeté102 di Chris Marker. Ma per altri aspetti Myst si avvale
delle tecniche del cinema del ventesimo secolo. Ad esempio, per passare da
un’immagine all’altra, il Cd-rom utilizza una simulazione dei tradizionali movimenti di
macchina. E impiega anche le tecniche fondamentali del montaggio cinematografico
per accelerare o diminuire il tempo della narrazione. Nel corso del gioco, il giocatore si
muove su un’isola immaginaria, cliccando sul mouse. Ad ogni click corrisponde
l’avanzamento di una cinepresa virtuale che rivela una nuova porzione dello spazio
tridimensionale.
Quando il giocatore scende nelle camere sotterranee, la porzione di spazio
visualizzata da ciascun click diminuisce sensibilmente. Se prima il giocatore riusciva ad
attraversare l’intera isola con qualche click, nelle camere sotterranee deve cliccare
almeno una decina di volte, anche solo per scendere da una scalinata. In altre parole,
proprio come nel cinema tradizionale, Myst rallenta il tempo dell’azione per creare
suspense e tensione.
102
Il corto di 28' in b&n è un cult del cinema sperimentale e di Sf. Scritto e diretto dal regista francese
nel 1962, La Jete'e (La rampa) è un viaggio allucinato nella memoria di un uomo prigioniero, sottoposto
ad una serie di esperimenti, in una mondo distrutto dalla terza guerra mondiale. L'unico rifugio è il
ritorno indietro in un altrove spazio-temporale. Senza dialoghi, immagini fisse, il film ha ispirato
L'esercito delle 12 scimmie di Terry Gilliam ('95).
134
In Myst, l’animazione delle miniature si svolge all’interno di immagini statiche. Al
contrario, in un altro Cd-rom molto famoso - 7th Guest (Virgin Games, 1993) - il
giocatore si trova faccia a faccia con video di attori in carne e ossa, sovrimposti a sfondi
statici computerizzati e realizzati in 3D. I video sono sequenza circolari, che si ripetono
all’infinito, e le figure risaltano contro gli sfondi. Queste caratteristiche collegano il
linguaggio visivo di 7th Guest alle tecniche pre-cinematografiche del secolo scorso e ai
cartoons, piuttosto che al realismo cinematografico. Ma, come Myst, anche 7th Guest
evoca codici filmici completamente moderni. L’ambiente in cui si svolge l’azione
(l’interno di una casa) è reso tramite il ricorso a lenti grandangolari; e il movimento da
una stanza all’altra segue curve complesse, come quelle disegnate da un carrello
cinematografico.
Infine pensiamo al Cd-rom Johnny Mnemonic (Sony Imagesoft, 1995). Prodotto
complementare al film omonimo - e presentato non come un gioco ma come un film
interattivo, realizzato per la prima volta a schermo intero - Johnny Mnemonic si
avvicina più di altri Cd al realismo cinematografico, mantenendo però delle marcate
caratteristiche individuali. Lo stile visivo si pone in uno spazio intermedio tra cinema e
collage, con l’azione interamente filmata contro uno sfondo verde, poi rimaneggiato
graficamente.
Non è errato leggere la breve storia dell’immagine digitale in movimento come uno
sviluppo teleologico che rimette in scena la nascita del cinema di cent’anni fa. Infatti,
con l’aumentare della velocità dei computer, i programmatori di Cd-rom sono passati
dalla presentazione di diapositive alla sovrapposizione su sfondi statici di piccoli
135
elementi in movimento, per approdare finalmente alle immagini mobili e grandi quanto
lo schermo di un computer.
Questa evoluzione ripete la progressione del diciannovesimo secolo: dalla sequenza
di immagini statiche (lanterne magiche ecc.) al movimento dei personaggi su sfondi
statici (ad esempio, nel Prassinoscopio di Reynaud), fino al movimento totale (il
cinematografo dei Lumière).
Inoltre, l’introduzione di Quick Time nel 1991 può essere paragonata all’invenzione
del Kinetoscopio nel 1892: entrambi sono stati creati per presentare brevi sequenze
circolari; entrambi utilizzano immagini di circa due pollici per tre, pensate più per una
visione privata che per proiezioni collettive.
Infine le prime realizzazioni dei Lumière, che nel 1895 scioccarono le platee con
enormi immagini in movimento, trovano un loro corrispettivo nei Cd-rom realizzati a
partire dal 1995, con immagini in movimento che occupano l’intero schermo del PC.
Così, proprio a cent’anni dalla sua nascita, il cinema viene reinventato sullo schermo di
un computer.103
4.10.4 Pubblicità
Il rendering, o più in generale la computer grafica e la pubblicità hanno stretto un
forte sodalizio. Anch’essi, infatti, si presentano sempre più come una coppia vincente in
quanto impatto visivo, emotivo, percettivo, mnemonico.
Fig 47) Myst. Fonte: http://www.ioffergames.com/gimg/612236-Myst-Mac-Games.jpg
103
Tratto da: http://www.trax.it/lev_manovich.htm
136
Basti pensare alla primaria funzione della resa visuale negli spot pubblicitari ormai
celebri quali: Citroen C4 dove una Citroen C4 ferma in un parcheggio si trasforma in
un robot "ballerino" cominciando a muoversi a ritmo di una musica scatenata, per poi
ritrasformarsi in auto pochi secondi dopo...Oppure le ormai interminabili saghe di Nike
Football dove ogni volta una squadra di giocatori di calcio si scontra in match ai limiti
dell’assurdo, sfidando mostri, diavoli, correndo nel mezzo della savana, in una sorta di
safari, oppure in un aeroporto, dribblando parsone, ostacoli, furgoni; oppure in missioni
impossibili quali il riscatto di un pallone da calcio custodito in un palazzo-fortezza
soprasseduto da ninja-cyborg, o in una sfida “amichevole” all’interno di una gabbia
adibita a campo di calcetto situata all’interno della cisterna vuota di un’immensa
petroliera.
Anche Adidas, nel suo ultimo spot presenta una dreamteam di atleti che corrono su
un campo da calcio antigravitazionale fatto solamente di sbarre metalliche
corrispondenti alle linee di segnalazione delle aree e del perimetro di gioco. Qui i
giocatori, si rincorrono e si scontrano sfidando le leggi della gravità (chi perde
l’equilibrio finisce nel vuoto) della fisica (gli “uomini” compiono salti, scambi, tiri, e
quant’altro in modo umanamente impossibile) ed infine le leggi del calcio (chi fa più
goal vince!).
Senza dubbio, spot come questi non esisterebbero neanche se non ci fosse il
rendering. L’impatto emotivo e visivo è centuplicato dalla sensazionale resa visiva
adottata in queste tipologie di spot. Sarebbe infatti totalmente diverso riuscire a
descrivere e rappresentare azioni impossibili come gli esempi citati ma anche le
inquadrature e le angolazioni di ripresa. Nei recenti spot Mulino Bianco, biscotti e
merendine animate danno vita ad una sorta di coreografia. Si ricrea un mini musical
dove i protagonisti sono fatti di uova, burro, zucchero, farina, latte. I biscotti si
muovono al ritmo della musica e si tuffano in una tazza di latte. Ovviamente il tutto è
reso possibile grazie all’animazione tridimensionale e al rendering che restituisce il
giusto aspetto realistico ai vari elementi della scena. Anche le inquadrature sono
possibili grazie alla computer grafica e all’animazione tridimensionale del cinema
digitale.
Nell’ambito pubblicitario quindi è sempre più evidente e indispensabile l’utilizzo
della resa visuale a partire dalla più “piccola utilità”, si pensi ad esempio alla semplice
inquadratura di un’aspirina che scende in un bicchiere d’acqua lasciando dietro di se
137
piccole bollicine, fino ad arrivare alla creazione di interi set virtuali in cui far muovere
e interagire attori reali e non.
138
5 I videogames
5.1 Realtà Virtuale
La Realtà Virtuale è un ambiente artificiale nel quale è possibile entrare, muoversi
ed interagire «con quel che contiene» quasi come se ci si trovasse nel mondo reale.
Indossando un visore e indumenti speciali si possono toccare oggetti simulati
ricevendone sensazioni tattili, oltre che visuali e auditive. La realtà virtuale realizza un
ambiente praticabile, virtuale artificiale, che simula caratteristiche fisiche del reale. Con
questa rappresentazione interattiva in tempo reale, per esempio, la Matsushita consente
ai propri clienti di progettare una cucina personalizzata; all’Università di Seattle stanno
riprogettando la nuova città, nel quale gli architetti potranno entrare, prima che divenga
realtà, per provarne gli aspetti di «vivibilità».104
La realtà virtuale è un sistema che produce una rappresentazione verosimile,
polisensoriale ed interattiva in tempo reale, grazie al connubio di diverse tecniche di
simulazione che consentono una fruizione spaziale visuale e acustica, tattile, volendo
anche olfattiva. La realtà virtuale è molto più di una rappresentazione audiovisuale. Il
fruitore può entrare, percependolo polisensorialmente, in un ambiente simulato e
interagire con esso e con gli «oggetti» che contiene, manipolandoli, come accade nei
sogni e nelle fantasticherie. È una realtà che esiste solo nel momento della sua
connessione con i recettori del sistema sensoriale, che coesiste con la realtà «reale», che
le è parallela.
Direttamente verso il continuum percettivo vengono convogliate informazioni
sensoriali sinergiche ed estensive che simulano quelle dell’esperienza diretta del reale.
Sovente esperiamo, perlopiù inconsapevolmente, diverse realtà parallele nel corso della
vita quotidiana, ma la realtà virtuale appare fisicamente più attendibile, realistica, più di
quelle generate dalla nostra mente. Rende più labile quella frontiera fra realtà ed
illusione che costituisce la tensione costante della rappresentazione, almeno dal
Rinascimento, mediante tecniche e modelli d’imitazione del reale sempre più
complicati e contigui a lui (la prospettiva, la fotografia, la monografia, il cinema, il
video, l’immagine sintetica, l’olografia, l’olofonia, le realtà virtuale, le loro
Fig
48)
Spot
Citroen
C4.
http://www.carpages.co.uk/citroen/citroen_images/citroen_c4_robot_15_09_05.jpg
104
Pier Luigi Capucci, Realtà del virtuale, cit., p.75
139
Fonte:
contaminazioni…). È in dubbio che la realtà virtuale possegga ulteriori risorse
imitative, tuttavia le informazioni polisensoriali che veicola sono costrutti sintetici,
dunque anche il recupero tanto rimarcato di quei sensi finora esclusi dalla
rappresentazione audiovisuale avviene tramite modelli il cui unico artefice e referente è
l’uomo. In secondo luogo, la trasduzione del reale fenomenico in modelli che ne
simulano le proprietà percettive comporta sempre una riduzione, una semplificazione
rappresentativa, una schematizzazione percettiva, per ragioni tecniche, funzionali,
teoriche,
tecnologiche,
culturali,
per
le
conoscenze
incomplete
sull’attività
psicosensoriale. Una funzione fondamentale dei modelli, infatti, è proprio quella
conoscitiva. La realtà virtuale quindi non sarà mai come il reale, ma potrà farcelo
comprendere meglio, oltre che essere indispensabile, fino a sostituirlo del tutto in
alcune occorrenze per una quantità di attività pratiche: si tratta dunque di una risorsa di
notevole importanza.105
5.2 Uso del rendering nei videogames
Senza dubbio il connubio Videogames-Rendering è strettissimo. Senza resa visuale
le interfacce ed i software non sarebbero in grado di «rendere» la visualizzazione del
gioco in maniera realistica, ma si limiterebbero a darne sembianze verosimili. Anche se
la maggior parte dei video giochi non richiede effetti speciali iperrealistici, c’è
comunque una tendenza ad impostare l’effetto «cartoon» ai personaggi e agli ambienti
circostanti.
Analizzeremo ora alcuni giochi, che si possono considerare dei punti chiave dello
sviluppo grafico di questo settore, con particolare attenzione all’aspetto visivo e alla
parte tecnica di questo.
5.2.1 I primi passi nel tridimensionale
Dopo il «terremoto» “Wolfestein” (considerato come il padre di tutti gli sparatutto in
soggettiva), la gente aveva avuto un assaggio del mondo tridimensionale e da allora la
fame fu sempre maggiore, ma si presentò un serio problema per gli sviluppatori, ossia
la potenza di calcolo degli elaboratori. Si presentava una scelta agli sviluppatori
software: realizzare un gioco interamente tridimensionale che offriva grande liberta di
105
Pier Luigi Capucci, Realtà del virtuale, cit., p.108-109
140
gioco ma di scarsa prestanza estetica per i limiti di calcolo o tornare al bidimensionale
che offriva maggior libertà per quanto riguarda la ricchezza grafica. Come spesso
accade, si raggiunse un compromesso e fu così che nacque un ibrido tra le due
categorie, la scelta più ovvia fu di realizzare scenari bidimensionali su cui muoversi con
personaggi tridimensionali, in questo modo si aveva la possibilità di muovere il proprio
alter ego in tutte le direzioni ma al solito tempo godere di scenari esteticamente molto
curati. Uno dei pionieri di questo campo fu “Resident Evil”, in cui gli scenari molto
curati facevano si che non si sentisse troppo la mancanza di una vera ambientazione
3D, ovviamente sorgeva un problema: fare si che un personaggio tridimensionale non
stonasse in una ambientazione bidimensionale. Nel frattempo si era sviluppata anche
un’altra corrente di pensiero, anche se meno seguita, che sfruttava la tecnica contraria
degli scenari tridimensionali con personaggi bidimensionali, uno dei pochi giochi che
ha sfruttato questa tecnica è “Xenogear”, indubbiamente un ottimo risultato in cui si
poteva ruotare la telecamere per osservare la scena da varie angolazioni. Ma gli
sviluppatori software realizzarono sistemi più potenti e i compromessi furono
accantonati per dedicarsi ad una realizzazione completamente tridimensionale.
Descent
(1994, Parallax Software)
“Descent” è diverso da qualsiasi altro gioco citato sino ad ora. Tutti gli altri giochi
permettono all’utente di muoversi in un mondo tridimensionale. Descent mette l’utente
in una navicella spaziale permettendogli di navigare attraverso delle miniere
sotterranee. Non c’è gravità o concetto di basso e alto. L’utente ha completa libertà di
muoversi in ogni direzione e angolazione. Questo mondo 3D è ricco di tunnel contorti e
cave sotterranee, i tunnel si snodano sopra e sotto loro stessi. Il motore grafico di cui
dispone rimase unico sino all’arrivo di “Quake” sul mercato, nessun’altro gioco
vantava la possibilità di creare una simile architettura 3D. Sfortunatamente il motore
grafico era studiato esclusivamente per l’ambientazione di questo gioco e anche gli
141
ambienti più vasti all’interno del gioco ne mostravano i limiti. Un’analisi meno tecnica
del gioco e più “scenografica” trova questo prodotto ancora povero dal punto di vista di
una ricerca della qualità grafica, come si può vedere dalle immagini, evidentemente
l’interesse era ancora volto a risolvere problemi tecnici del movimento in un mondo
tridimensionale; sia le architetture delle ambientazioni, sia gli «attori» che si muovono
al loro interno, in questo caso navicelle spaziali, sono povere sia nella costruzione
geometrica sia nelle le textures utilizzate. Inoltre si cerca di mantenere gli ambienti
molto limitati nelle dimensioni per evitare i calcoli necessari al computer per elaborare
scene di maggior apertura, il tutto dà un aspetto abbastanza spartano al gioco.
Quake
(1996, ID Software)
Tra il primo “Doom” e l’uscita di Quake numerosi sviluppatori rilasciarono diversi
giochi sul solito stile: la stessa ID rilasciò “Hexen: Beyond Heretic”, la Lucas Arts
rilasciò “Dark Force” un gioco ispirato alla saga di Guerre Stellari, ma nonostante il
successo economico ottenuto, nessuno di questi giochi portò uno sviluppo tecnologico
nei loro motori grafici. Quake portò un’innovazione pari a quella che Doom portò sui
suoi predecessori, il mondo di Doom si espandeva su di un unico piano di fronte, dietro
e ai lati del giocatore. Quake si espandeva anche in altezza; i muri, i soffitti, e i
pavimenti potevano essere in qualsiasi angolazione, permettendo al giocatore di ruotare
la visuale a suo piacimento. Anche gli oggetti del mondo di Quake erano
tridimensionali, mentre nei giochi precedenti venivano usati ancora sprite
bidimensionali. Il risultato “scenografico” che si ha è sicuramente di maggior impatto,
iniziano ad apparire architetture complesse con una ricerca per il gusto gotico che
spesso caratterizzerà i giochi di questo genere, anche la qualità delle textures è
142
migliorata rispetto ai suoi predecessori andando ad aumentare la qualità delle
architetture, ma ancora il risultato non si può sicuramente paragonare a qualcosa che si
avvicini alla realtà, i personaggi sono ancora troppo «abbozzati» e le textures troppo
ripetitive.
Quake II
(1997, ID Software)
“Quake II” vantava uno dei motori grafici meglio sviluppati in quel periodo e ha
mantenuto il suo predominio per lungo tempo. Era il primo a sfruttare l’accelerazione
hardware delle ultime schede video, migliorando le qualità del suo predecessore. Gli
ambienti sono sempre più vasti e le geometrie delle architetture più complicate, la
grafica complessiva risulta più nitida e i modelli tridimensionali dei personaggi sono
più curati e ricchi di dettagli, al pari delle textures che rifiniscono gli ambienti anche le
luci e le ombre sono più realistiche. Anche se guardando Quake II dopo cinque anni
può sembrare gia sorpassato, quando uscì destò stupore agli occhi dei giocatori per la
sua qualità grafica e per la sua migliorata capacità d’immedesimazione del giocatore
nel mondo creato virtualmente. Oggi giorno i giochi propongono ancora più realismo e
ancora più immersione dell’utente all’interno del loro mondo, ma Quake II rimane una
pietra miliare del settore. Questi sono i giochi che hanno caratterizzato gli esordi del
mondo video ludico nel campo del tridimensionale, ora analizzeremo i giochi come
sono allo stato attuale ossia circa un decennio dopo i primi giochi 3D.
5.2.2 Il presente del tridimensionale
Gli sviluppatori software ottimizzano i loro giochi guardando sempre meno alla
semplice architettura dei poligoni e ai problemi da essa derivati, ampliando le loro
creazioni con nuove caratteristiche sempre mirate alla «spettacolarizzazione» del
143
prodotto, in qualche modo legata ad una teatralità delle scene per uno studio sempre
maggiore sugli effetti speciali, sulla qualità delle textures, sulla simulazione di alcuni
fenomeni come riflessione, rifrazione, trasparenze e liquidi in movimento. Quando esce
un nuovo gioco, una delle cose che viene messa più in risalto sono proprio i nuovi
espedienti che il motore grafico supporta. Eventi come esplosioni e alcune luci non
possono essere calcolate attraverso leggi fisiche o al dettaglio, procedura che
richiederebbe ore di calcoli, a scapito di una fluidità dell’immagine, perciò si cerca di
ottenere un effetto, il più realistico possibile, senza ledere la velocità del motore
grafico. Si deve pensare che un gioco per avere una visibilità soddisfacente deve girare
a circa 30 FPS (frame per second) il che implica che il computer deve calcolare la
nostra scena 30 volte al secondo.
Quake III
(1999, ID Software)
Non si può non citare il terzo capitolo della fortunata saga della Id Software, che
come abbiamo visto in precedenza detta gli standard sin dalla creazione dei primi
giochi
3D.
Con questo prodotto la Id software migliora il già buon motore creato per il capitolo
precedente, all’insegna della spettacolarizzazione, gli ambienti sono vasti e spesso
molto complessi, dotati di illuminazione di grande effetto, i modelli sono molto
dettagliati e le textures di ottima qualità: particolare importanza hanno i notevoli effetti
speciali all’interno del gioco come esplosioni, scariche elettriche e fiamme molto
dettagliate. Un particolare che, a mio avviso, priva la serie di Quake della possibilità
d’immedesimazione dell’utente con il personaggio è la frenesia che da sempre lo
contraddistingue. Non si ha il tempo materiale per pensare e se da un lato questo porta
ad un’impressione rapida della scenografia cosa che non permette di indugiare su
144
eventuali carenze, dall’altro priva il giocatore di quel tempo necessario per ambientarsi
in un mondo virtuale. Nelle partite in rete, la comunicazione con gli altri giocatori è
ridotta ai minimi termini, proprio per la velocità dell’azione, tant’è che i programmatori
hanno fornito un set di frasi standard usabili attraverso tasti reimpostati in modo da non
dover perdere tempo digitando una sola frase. Tutto questo rilega Quake, e molti sui
simili, ad un livello di puro gioco di abilità e riflessi seppur molto ben fatto.
Return to Castle of Wolfenstein
(2001, Gray Matter Studio)
“Return to Castle of Wolfenstein”, è il seguito del primo gioco 3D realizzato dalla
Id software, fa uso del motore grafico di Quake III ampiamente modificato per
spingerlo ai limiti, il risultato è uno dei migliori effetti visivi mai visti su uno sparatutto.
La texturizzazione degli ambienti è molto ricca e quasi priva di ripetizioni, la
ricostruzione storica è credibile e curata. Le luci sono quasi perfette e il passaggio da
ambienti chiusi a spazi aperti è morbido, privo di stacchi. Tutto ciò a differenza di
giochi come Quake III dove si nota una carenza grafica nel passaggio da spazi chiusi a
ambienti aperti. La realizzazione dei modelli per i nemici segna un nuovo standard per i
giochi FPS, per la cura al dettaglio che è stata prestata nella loro realizzazione. Le
animazioni dei personaggi sono estremamente fluide e realistiche e curate da ogni
punto di vista, gli “attori” del gioco si muovono con estremo realismo in ogni
situazione. La realizzazione delle armi è talmente ben fatta da sentire la possibilità di
allungare una mano e toccarle e i sistemi particellari che si occupano di esplosioni gas e
simili sono ottimamente realizzati. Il gioco offre un’ottima costruzione scenografica e
una buona base per un’immedesimazione nel mondo virtuale del giocatore-attore,
soprattutto nella versione «one player», mentre offre, scarsa immedesimazione la
modalità multi player giocabile in rete.
145
Max Payne
(2001, Remedy Entertainment)
Dire che “Max Payne” ha una grafica sorprendente è affermare il vero. Il nuovo
motore grafico MAX-FX, di cui fa uso il gioco, crea ambienti tra i più realistici mai
creati sino ad ora in un videogame, ogni oggetto è ricco di dettagli e gli ambienti
godono di estrema interattività, fino a permettere al giocatore di distruggere
letteralmente le architetture che lo circondano con armi da fuoco e granate. Anche la
cura per i dettagli è sorprendente: sparando ad un estintore fuoriesce schiuma bianca,
danneggiando un distributore automatico zampilla acqua. Il tutto aumenta il realismo e
l’immedesimazione del gioco, che vuole offrire la spettacolarità di un film d’azione al
giocatore. Nel tentativo di realizzare questo si hanno numerose sequenze riprese da una
telecamera in terza persona che vedono il giocatore esibirsi in complicate acrobazie
mentre fa fuoco con la sua arma, il tutto enfatizzato da effetti tipici del cinema come ad
esempio il rallenty. I modelli degli attori sono realizzati con un’attenzione al dettaglio
mai vista prima, vestiti ed espressioni sono perfettamente curate e mostrano incredibile
realismo. Il gioco che offre una modalità esclusivamente per giocatore singolo, fa uso
di una trama più definita rispetto ai suoi simili descritti precedentemente. Tutti questi
fattori offrono al giocatore un effetto d’immedesimazione maggiore e allo stesso tempo
di godere dell’ottima realizzazione scenografica del gioco.
146
Tomb Raider: The last revelation
(2000, Core Design)
In un’analisi dei giochi di oggi giorno non si può non nominare l’ormai famoso
“Tomb Raider”, il gioco che ha dato vita a Lara Croft, eroina video ludica, ormai
conosciuta dal grande pubblico e non solo dai video giocatori più accaniti. A scapito
della notorietà di questo gioco, la realizzazione grafica è piuttosto deludente. I
personaggi sono poco credibili e poveri di dettaglio, le architetture sono estremamente
semplici e accompagnate da textures spesso ripetitive, l’effetto che si ha è di scarsa
qualità. Nonostante la Core Design abbia cercato di convincere con un nuovo motore
grafico rispetto a quello usato sino dal 1996, data di uscita del primo episodio della
saga, il risultato finale è quello di un motore grafico per nulla innovativo e convincente.
Nonostante Tomb Raider sia stato una realizzazione fondamentale nella storia dei video
giochi non si è mantenuto tale con il passare del tempo, in un mondo come quello dei
videogame in cui tutto è «vecchio» già un mese dopo la sua uscita, un motore grafico
come quello del gioco è ormai un pezzo d’antiquariato.
Dungeon Siege
(2002, Gas Powered Games)
147
“Dungeon Siege” gradevoli innovazioni nel suo genere. Il gioco è ambientato in un
regno medioevale, all’interno del quale vengono presentate differenti situazioni
climatiche, dalle nevi perenni alle distese desertiche, mostrando estrema cura anche allo
stile delle possibili costruzioni collocate nei vari ambienti. I personaggi sono
personalizzabili dal giocatore che oltre ad una modalità singola può cimentarsi in un
ottima modalità di gioco con più partecipanti dove può far crescere il suo personaggio
assieme ad altri giocatori da tutto il mondo. La caratteristica di mantenere un
personaggio da una partita su internet all’altra favorisce molto l’immedesimazione del
giocatore con il suo personaggio, dandogli la possibilità di recitare un ruolo costante e
arricchirlo con il passare del tempo. La presenza d’innumerevoli armi, vesti e armature
a disposizione permette un’innovativa «customerizzazione» del personaggio, dote
estremamente gradita dalla maggior parte degli utenti. La Gas Powered Games ha
voluto inoltre offrire la possibilità ai suoi utenti di poter modificare il gioco in ogni suo
dettaglio, saranno presto rilasciati dalla casa statunitense una serie di programmi che
premetteranno di creare mondi, storie e persino nuovi effetti speciali per il gioco.
L’idea di videogame modificabile, oltre ad essere una possibilità per l’utente di
sperimentare le doti di scenografo o designer, è un’abile mossa commerciale, in quanto
la vita del gioco viene arricchita e mantenuta dagli stessi giocatori. In genere i titoli che
vantano questa possibilità hanno lunga durata tra i videogiocatori in quanto offrono un
continuo rinnovo e continui stimoli.
Neverwinter Nights
(2002, Bioware corp.)
“Neverwinter Night” presenta una grafica dal punto di vista tecnico leggermente
inferiore a titoli come Dungeon Siege ma rimane qualitativamente superiore dal punto
di vista della realizzazione. Il motore grafico ha minor potenza ma gli artisti 3D che
148
hanno maggiore abilità. Il gioco offre un alto grado d’immedesimazione grazie ad una
trama solida e avvincente, importante l’aspetto multiplayer sviluppato e indirizzato al
coinvolgimento dei giocatori nella creazione di “mondi” nuovi con la possibilità di
avere in gioco sia giocatori che “master” (colui che fa le veci del fato è una sorta di
regista). Le architetture del gioco sono ben studiate e suggestive, degno di nota l’uso
delle luci di grande qualità e altrettanto si può dire per gli effetti speciali. Un gioco
destinato ad un buon successo, proveniente da un team di esperti che hanno gia
pubblicato molti prodotti sul solito stile ma con un motore grafico bidimensionale.
Final Fantasy X
(2002, Squaresoft)
La serie di “Final Fantasy” è un validissimo esempio di ricerca scenografica di
altissima qualità. Il decimo episodio vede per la prima volta una costruzione dei
personaggi e dei fondali interamente tridimensionale. Questo comporta un passaggio
indolore tra scene di gioco in cui il giocatore è libero di muoversi a filmati non
interattivi di alta qualità. Ogni paesaggio o personaggio è curato nei minimi dettagli.
Per i personaggi è stata sviluppata una tecnica speciale di animazione facciale che
permette di simulare le espressioni del volto durante il gioco; i dialoghi sono stati quasi
tutti doppiati. Il risultato è che diventa più un film interattivo che un semplice gioco; il
tutto aumenta il coinvolgimento emotivo del giocatore. Lo stile di stampo orientale, è
ancora più enfatizzato in questo capitolo della serie; le scenografie sono all’insegna del
colore della vivacità e dell’onirico. Gli effetti speciali sono numerosi e aumentano la
qualità visiva del gioco: cieli stellati, laghi immensi ricoperti di fuochi, templi con
illuminazioni scenografiche ricchi di torce e magie spettacolari si trovano in ogni
momento del gioco. Final Fantasy con tre anni di lavorazione alle spalle e uno staff di
professionisti al suo attivo, si può definire come uno dei capolavori del panorama video
149
ludico e sicuramente uno dei giochi che offre maggior coinvolgimento emotivo del
giocatore.106
5.3 Creazione personaggi
Il movimento del corpo è sicuramente la parte più complessa del procedimento di
animazione di un attore virtuale, ed è da tempo oggetto di studi in numerosi contesti,
come nella recitazione teatrale o nel mimo. Nella danza si è sentita da tempo l’esigenza
di descrivere e schematizzare il movimento. Sono stati sviluppati, nel corso della storia,
numerosi metodi di descrizione del movimento. In particolare nel caso della danza
ricordiamo la notazione di Feuillet, sviluppata da R.A. Feuillet nel 1699, che permette
di rappresentare graficamente il movimento dei ballerini, affiancando così uno spartito
del movimento allo spartito musicale.
Feuillet ci mostra la danza in pianta: il percorso della danza viene rappresentato con
una linea, lungo la quale troviamo i passi raffigurati come archi. Ogni passo inizia con
un punto (l’appoggio iniziale) e termina con una linea (la posizione finale del piede) e
può presentare un segno che indica quali azioni compiere durante lo spostamento. In
questo modo, possiamo dare una descrizione grafica di ogni passo, ed anche usare
combinazioni di descrizioni di base per costruire passi di più complessi. La notazione
Feuillet nasce per la danza barocca e ci permette di rappresentare in modo chiaro anche
la struttura modulare della danza, in cui ogni passo è ben definito, ha un nome e si
combina con il precedente ed il successivo seguendo regole precise, come in una sorta
di linguaggio del movimento in cui il testo (danza) è diviso in frasi (i gruppi di passi),
composte da parole (i passi di base), composte a loro volta da lettere (i movimenti
fondamentali).
Un altro metodo di notazione più recente, è stato sviluppato intorno alla metà del
XX secolo da Noa Eshkol ed Abraham Wachman. Questo sistema si basa
106
Testi e figure tratte da: http://www.hackerart.org/corsi/tesi/musante/cap4.htm
150
sull’osservazione che i movimenti degli arti del corpo umano avvengono, per la natura
delle articolazioni, su un piano o all’interno di un volume conico. Suddividendo il piano
o il cono in regioni (o spicchi, che formano le unità di misura dello spostamento), la cui
dimensione può variare in base al tipo di movimento da descrivere, e prendendo un
punto di riferimento iniziale, il movimento può essere descritto in base alla quantità di
unità di spostamento percorse dall’arto in una direzione nello spazio indicato.
Ciò che non viene espresso da queste notazioni è la dinamica, che al più viene
rappresentata in modo qualitativo e, soprattutto, l’espressione. Per esprimere
nell’animazione la dinamica del movimento occorre affidarsi alla bravura
dell’animatore oppure alla registrazione automatica del movimento di un attore reale.
Nella computer animation prodotta per l’intrattenimento, la dinamica e
l’espressione non vengono generate con tecniche di simulazione avanzata, ma con un
approccio di tipo creativo, simile a quello della caricatura, che tende ad enfatizzare
aspetti e gesti rendendoli immediatamente riconoscibili, anche a costo di attenuare il
grado di realismo. Questi metodi sono insegnati nelle scuole di animazione ed
illustrazione, creando la forma, l’aspetto e i movimenti degli attori virtuali con gli
strumenti messi a disposizione da software sofisticati. Diverso è il caso in cui si voglia
giungere ad un’animazione che simuli nel modo più accurato possibile il
comportamento di un attore reale.
Lo studio di questi comportamenti complessi affianca le problematiche tipiche
dell’Intelligenza Artificiale a quelle delle tecniche d’animazione, in particolare nelle
situazioni in cui è prevista un’interazione tra attore virtuale e individui, come nelle
applicazioni tecniche (telemanipolazione di sistemi robotica) o di intrattenimento, come
nei videogiochi.
Si riesce tuttavia a dare una soluzione parziale soltanto a problemi ben
caratterizzati, dei quali si riescono a descrivere in modo accurato gli scenari possibili;
ad esempio nel caso dei videogiochi si può caratterizzare il comportamento di un
personaggio che persegue uno scopo preciso, e valuta il contesto e le azioni del
giocatore secondo questa finalità. È necessario perciò riuscire a scomporre il problema
in livelli di complessità via via decrescenti, separando le funzioni relative alla
simulazione della sensorialità, su cui si basa l’interazione attore-scenario e attoregiocatore, da quelle relative al movimento. Il prodotto dell’interazione contribuisce a
modificare la conoscenza del mondo che il programmatore ha predisposto per l’attore
151
virtuale, e in funzione di queste modifiche i comportamenti, corrispondenti a
composizioni di movimenti elementari si manifestano nell’animazione autonoma.
Negli studi sulle realtà virtuali, la caratterizzazione degli attori virtuali consiste
nella definizione di un aspetto, di una struttura e di un comportamento. L’aspetto tende
a riprodurre il più fedelmente possibile le caratteristiche esteriori di un essere umano, la
cui struttura può essere schematizzata da un manichino articolato (con struttura
scheletrica antropomorfa). Il comportamento riguarda sia i movimenti sia i gesti che
può compiere il manichino, sia azioni più complesse, composte a loro volta da
movimenti e gesti elementari che corrispondono ad azioni tipiche quali correre, saltare,
danzare o compiere lavori specifici. In questa scomposizione si coglie il vantaggio di
poter descrivere con linguaggi speciali azioni complesse come quelle della danza.
Le fasi della costruzione di un attore virtuale sono quindi: la costruzione di un
modello geometrico di una struttura di manichino articolato; la definizione dei
parametri fisici della struttura articolata al fine di consentirne la simulazione del
comportamento
fisico
meccanico;
la
definizione
di
tipologie
standard
di
comportamento, come già analizzato; la definizione di meccanismi di interazione tra il
manichino e l’ambiente (altri attori, operatore umano ecc.) ed infine la definizione delle
proprietà di apparenza visiva, ovvero dell’aspetto del manichino stesso.
Questo schema di suddivisione in fasi è applicabile non solo alla costruzione di un
«attore sintetico» (definizione proposta inizialmente da Nadia Magnenat Thalmann e
Daniel Thalmann) che simula un essere umano, ma anche nella realizzazione di attori
antropomorfi, che possono avere ad esempio quattro, sei o più arti, riproducendo una
tipologia tipica di insetti o di altri animali, anche di fantasia. Pensiamo ad esempio ai
tanti film sui dinosauri, il cui movimento viene studiato nel dettaglio della dinamica, e
il cui comportamento viene simulato su indicazione di specialisti etologi. Avremo
quindi comportamenti di gruppo o individuali per la fuga, la ricerca del cibo, la ricerca
della tana, l’aggressione.
Riassumendo, la schematizzazione del processo di costruzione dell’attore virtuale è
la seguente:
• Costruzione del modello geometrico
• Costruzione del modello fisico
• Definizione della cinematica diretta e inversa
• Definizione del modello del comportamento
152
• Definizione del modello dell’interpretazione con l’ambiente
Vediamo ad esempio un modello basato su meccanismi di cinematica inversa, che
richiedono la progettazione di una struttura articolata portante che può essere
schematizzata come una struttura di aste rigide collegate con giunti in grado di ruotare
l’uno rispetto all’altro, rispettando i vincoli fisici delle articolazioni umane.
Questa struttura simula uno scheletro umano (semplificandolo in alcune sue parti, in
base alla complessità desiderata per il modello ed i suoi movimenti) ed è comunemente
adottata anche nel campo della robotica industriale. Maggiore è il numero di
articolazioni introdotte nella struttura portante, maggiori saranno l’armoniosità del
movimento ma anche la complessità di calcolo necessario per animarlo.
Già questa semplice schematizzazione richiede un’organizzazione piuttosto
sofisticata. Infatti la struttura deve muoversi in modo coerente, senza suddividersi in
parti e propagando in ogni movimento compiuto da una data articolazione alle
articolazioni successive. Ad esempio la rotazione di una spalla non solo muoverà il
tratto collegato direttamente alla spalla, ma dovrà far muovere anche il braccio e la
mano, così come accade nella realtà. La tecnica più adatta per fare ciò consiste nel
creare tra ogni articolazione una sorta di relazione gerarchica. La gerarchia che lega le
varie articolazioni è una gerarchia di «parte-tutto» che, nel caso della struttura più
semplice, può essere schematizzata così:
Nel costruire la gerarchia che lega tra loro le articolazioni dello scheletro del
manichino occorre rispettare la gerarchia naturale, in modo che i movimenti siano
coerenti con quelli di un essere umano reale e si propaghino da una determinata
articolazione ad altre parti dell’intera struttura.
153
Lo scheletro definito in questo modo ha un’organizzazione gerarchica e costituisce
la base su cui si organizza sia il comportamento sia l’aspetto esteriore. Per alcuni studi
semplificati si può adottare la stessa struttura scheletrica come tecnica di raffigurazione
dell’aspetto, che viene chiamata in questo caso stick figure o figura a bastoncini.
Tuttavia per raffigurazioni destinate a simulazioni più accurate, tendenti alla
massima verosimiglianza, si ricorre a tecniche di modellazione geometrica più
avanzate. La struttura portante viene in pratica “rivestita” in modo che ogni sua parte,
arti tronco, testa, sia modellata con un’opportuna forma geometrica, usualmente
definita con superfici parametriche.
Il rivestimento è in genere composto da vari pezzi che si combinano insieme nei
punti di giuntura in modo più o meno realistico. Nel caso di manichini o modelli con un
realismo poco accentuato, come quello del nostro esempio, i componenti
semplicemente si compenetrano durante il movimento, in modo simile a quanto accade
nella realtà per i manichini da pittore ed alcuni tipi di bambole. Nel caso in cui il
realismo debba essere elevato, vengono costruite superfici di fusione (dette di blending)
che riuniscono le estremità di due componenti adiacenti come se fossero una membrana
elastica.
La simulazione dell’aspetto di un attore virtuale non si limita alla forma del suo
corpo, ma può spingersi a dettagli molto raffinati come i capelli, i peli corporei e del
viso, i nei e le macchie cutanee, il sudore, le rughe, le cicatrici etc.
154
5.4 Animazione personaggi
Nei sistemi robotizzati il movimento è ottenuto mediante motori, chiamati attuatori,
che esercitano una forza conosciuta e di cui si può controllare con grande precisione sia
la velocità sia l’accelerazione. Nell’animazione di attori virtuali simuliamo gli attuatori,
ma è necessario calcolare traiettorie e leggi del moto per ogni singolo giunto della
struttura.
Sia nel campo della robotica industriale sia nella simulazione di attori virtuali è
quindi necessario sviluppare tecniche di calcolo accurate e veloci per risolvere i
problemi di cinematica e dinamica con cui si può caratterizzare il movimento di una
struttura. In questo modo si possono codificare movimenti elementari di singoli giunti i
quali, composti in movimenti via via più strutturati, danno luogo ad azioni da
elementari a complesse.
Questa tecnica di descrizione del movimento è anche chiamata simulazione “task
level”.
In questo schema l’asse orizzontale varia da livelli d’interazione minima a livelli
via via più alti, mentre l’asse verticale indica astrazione crescente nella descrizione dei
processi di movimento. I livelli d’interazione possibile portano a trattare della telemanipolazione e della tele-presenza. Il livello più basso è quello che si riferisce, nel
caso dei sistemi robotici reali, ai dispositivi di attuazione, mentre nel contesto di
simulazioni di sistemi virtuali esso è riferito alla risoluzione dei problemi di cinematica
e dinamica diretta ed inversa. In questo schema riusciamo a collocare le diverse
tipologie di soluzione ai problemi di controllo dell’animazione, dall’animazione
telecontrollata con guanti digitali a quella autonoma basata su composizione di
movimenti elementari descritta attraverso linguaggi ad elevata astrazione.
155
L’animazione di un attore virtuale e quindi della sua struttura articolata consiste nel
simulare processi fisico-meccanici di propagazione del movimento tra gli elementi che
la compongono.
La struttura (detta anche catena cinematica) è costituita da una serie di segmenti
rigidi o joint, collegati tra loro allo estremità in punti detti punti di snodo o giunti che
fingono da articolazione della struttura. Il punto iniziale della catena si trova
all’estremità del primo segmento e si chiama radice (o root); il punto finale è
all’estremità dell’ultimo segmento e si chiama in genere effettore.
Le parti di una struttura articolata sono in genere organizzate gerarchicamente, in
modo che l’elemento “padre” trasmetta sempre i propri movimenti agli elementi
“figlio” o “nipote”; la radice (il padre) e l’effettore (il nipote) sono gli estremi della
gerarchia. La radice e l’effettore sono solitamente oggetti di massa nulla, invisibili, la
cui unica funzione è controllare il movimento della catena. Nei programmi di
modellazione questi elementi sono spesso rappresentati tramite croci tridimensionali.
In una struttura articolata, sia essa l’arto di un personaggio antropomorfo o parte di
un meccanismo, il movimento viene dalla composizione dei movimenti delle singole
parti che la costituiscono. Nel caso della computer animation i vincoli tra gli elementi
della struttura non sono fisici ma logici, e il propagarsi del movimento da un elemento
all’altro deve essere quindi calcolato e simulato.
Le articolazioni possono permettere due tipi di movimento: rotazioni o traslazioni;
in genere le strutture articolate per simulare il movimento di un manichino sono
composte con giunti di rotazione. Punti di traslazione possono servire a definire per
esempio un robot che si muove lungo una rotaia. I movimenti permessi da un punto di
articolazione possono essere limitati da vincoli che determinano l’intervallo delle
rotazioni o delle traslazioni possibili. La nozione stessa di punto di snodo costituisce
una forma di vincolo che lega tra loro i segmenti della catena.
Ogni snodo di una catena è vincolato nei suoi movimenti in base alla definizione
dei suoi gradi di libertà o DoF (Degrees of Freedom) e degli estremi dell’intervallo di
movimento consentito.
I giunti che si considerano in questo contesto cercano di simulare il comportamento
dei articolazioni della struttura ossea umana o animale in genere, o di esoscheletri. Le
tipologie di snodo che si considerano sono normalmente giunti cilindrici (che
consentono la rotazione intorno ad un solo asse e quindi dotati di un solo grado di
156
libertà), giunti sferici (che consentono la rotazione attorno ai tre assi, con tre gradi di
libertà) e, nel campo della robotica, giunti traslazionali o rototraslazionali.
Il giunto ha un grado di libertà per ogni movimento che è libero di compiere, e la
struttura articolata ha un numero complessivo di gradi di libertà pari alla somma dei
gradi di libertà di tutti i suoi punti di snodo.107
Fig 49) Feuillet. Fonte: http//www.alfanet.de/home/ballett/fantasieducorp/find%20sign%.jpg
Fig 50) Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti
di eidomatica. Addison-Wesley, Milano p. 273-292
Fig 51) Manichini. Fonte: http://www.numerica-srl.it/immagini/manichini.gif
Fig 52) Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti
di eidomatica. Addison-Wesley, Milano p. 209
107
Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di
eidomatica. Addison-Wesley, Milano p. 201-211
157
6 Case History
6.1 Final Fantasy – Il Film
6.1.1 Presentazione
Un vero e proprio film virtuale, che mostra una realizzazione tecnica davvero
sensazionale. Primo film in cui non è stata girata neanche una scena; interamente creato
al computer. Ispirato alla famosa serie di videogame per PC e Playstation, Final
Fantasy: the spirit within è un film di fantascienza, che nella trama non presenta grandi
novità rispetto ai canoni del genere. L'ambientazione virtuale è il vero pregio del film,
che riesce a conquistare nello spazio percettivo dello spettatore una dimensione
originale di viaggio in spazi sconosciuti, resi più affascinanti dalla splendida colonna
sonora. Alcuni prevedono che questo lungometraggio, che ha per protagonisti attori
digitali, sia precursore di altri film senza più attori in carne ed ossa. Per la verità,
sembra un’ipotesi un po' azzardata, perché sebbene il risultato sia stupefacente e si resti
addirittura spiazzati da alcune sequenze, sono proprio i già acclamati attori a non
convincere a pieno.
158
6.1.2 Trama
Nell'anno 2065 la Terra è devastata da un'invasione di mostruosi alieni, sorta di
ectoplasmi che si nutrono degli spiriti dei morti, atterrati sulla nostra superficie a bordo
di un meteorite. Dalla loro roccaforte, situata nel cratere del primo impatto, i Phantom
alieni hanno lanciato il loro tentacolare attacco al genere umano. Le città sono ormai
ridotte a scheletri grigi e bui e i pochi sopravvissuti vivono concentrati in aree protette
da calotte elettroniche, dentro cui la vita prosegue autosufficiente, ma compromessa da
un destino che tende all'implosione e all'esaurimento delle scorte vitali. Eroina del film
post-apocalittico è Aki Ross, una giovane scienziata assistente del saggio dottor Sid,
impegnata nelle ricerche per la cura di una contaminazione aliena.
I due scienziati ritengono che gli invasori si comportino sul pianeta come un virus
dentro ad un organismo, in contrasto con le autorità militari che pensano di risolvere il
problema militarmente, sostengono un’inaccettabile teoria per cui l’equilibrio della
Terra, o meglio del suo spirito vitale Gaia, sia determinato da otto spiriti di natura
biologica, e che ogni essere vivente ha in sé onde spirituali che possono essere
controllate. Le autorità assegnano loro una squadra, la Deep Eyes, comandata da Gray
Edwards, vecchia fiamma dell’eroina.
Nel frattempo il generale Hein suggerisce di usare una potente arma spaziale, il
“cannone Zeus”, per sferrare un attacco alla roccaforte aliena senza preoccuparsi delle
catastrofiche conseguenze che ne deriverebbero. I due scienziati si oppongono non solo
perché gli effetti sull’ecosistema sono sconosciuti, ma anche perché sospettano che il
cannone possa dare vita ad altri alieni.
Aki prosegue le sue ricerche per la salvezza della razza umana e della propria vita
dato che, entrata in contatto con un alieno, è stata contaminata e costretta ad isolare il
germe nel suo stesso corpo, mediante una capsula organica di contenimento progettata
dal Dottor Sid che non può, ad ogni modo, impedire al virus di influenzare il suo riposo
con sogni che rivelano l'agghiacciante passato degli extraterrestri. Aiutata dal Capitano
Gray Edwards e dalla sua squadra e guidata dallo stesso alieno che ha in corpo, la
ragazza tenta di recuperare gli ultimi due spiriti, di otto, di natura biologica che, messi
insieme, dovrebbero formare un'onda di intensità uguale e contraria a quella degli alieni
per riuscire a neutralizzarsi a vicenda disinnescando il contagio
159
6.1.3 Cast & Credits
Dr. Aki Ross: Ming Na (voce USA)-Michaela Esdra (Italia)
Grey Edwards: Alec Baldwin (USA)
Rayn: Ving Rhames (USA)-Alessandro Rossi (Italia)
Neil: Steve Buscemi (USA)
Jane: Peri Gilpin (USA)
Doctor Sid: Donald Sutherland (USA)-Giorgio Lopez (Italia)
General Hein: James Wood (USA)-Roberto Chevalier (Italia)
Major Elliot: Matt McKenzie (USA)-Roberto Pedicini (Italia)
Regia: Hironobu Sakaguchi
Produzione: Chris Lee Productions; Square Co. LTD.
Distribuzione: Columbia Tristar
Soggetto e sceneggiatura: H. Sakaguchi; Al Reinert; Jeff Vintar
Scenografia: Mauro Borelli
Fotografia: Motonori Sakakibara
Effetti visivi: Robin Akin; Remo Balcells; Ben Cheung
Musica: Elliot Goldenthal
Nazione: Giappone\USA
Anno: 2001
Durata: 106'
6.1.4 Dal computer al grande schermo
La saga di Final Fantasy ha inizio nel 1987. Da allora nel mondo sono state vendute
più di 33 milioni di copie. Il segreto del suo successo sta fondamentalmente in due
fattori; uno di costume, l’altro di strategia commerciale. Un’unione perfetta di
aspettative del giocatore e suggestioni indotte dall’industria dell’entertainment, che ha
sfruttato un’intuizione iniziale facendola diventare un’icona. Il film è il primo
realizzato con una pura convergenza tra cinema e videogames, ed è il frutto di questa
costruzione caleidoscopica seguita con venerazione da milioni di fan in tutto il pianeta.
Final Fantasy nasce nel momento di maggior splendore dei giochi di ruolo da
tavolo. A metà degli anni Ottanta, la generazione dei liceali passava ore intorno a un
tavolo a creare e giocare avventure fantastiche sotto la guida dei cosiddetti dangeon
160
master, spesso loro coetanei, che inventavano per loro combinando e combinando carte,
mappe e trame, viaggi, scoperte e combattimenti in mondi virtuali che ormai facevano
parte del loro immaginario. E' appunto il 1987 quando una piccola compagnia di
sviluppo software giapponese chiamata Square ha l'intuizione che cambierà la storia dei
videogiochi.
L’idea di trasferire su console la passione per il fantasy è di un geniale uomo
chiamato Hironobu Sakaguchi, che offrendo la possibilità di vedere quegli ambienti
senza rinunciarne alla più ampia libertà possibile nella creazione di un’avventura, crea
la nostra fatidica saga. L’idea del gioco ricorrerà in tutti gli episodi della serie,
compreso nel film Final Fantasy: the spirits within.
Tutti diversi è vero, ma con una filosofia di fondo comune. Nel primo capitolo il
pianeta sta morendo prosciugato da quattro demoni. Da millenni la popolazione aspetta
l’avvento della profezia: i quattro cavalieri della luce che porteranno nuova vita. Al
comando di quattro personaggi dalle differenti abilità, il giocatore utilizza tutte le sue
risorse, fisiche e magiche, per arrivare allo scontro finale. La fortuna di Final Fantasy è
tutta nel potere evocativo della trama, anche se non è secondario il crescere delle risorse
tecnologiche e l’aumento di potenza delle console.
Col tempo cambieranno i personaggi, cambieranno le ambientazioni, i nemici gli
alleati. Gli scenari, incominciati con i regni tolkeniani e tratti dalla letteratura fantasy
diventeranno apocalittici, postindustriali e in stile Balde Runner anche se la fantasia
finale di ogni episodio resta sempre una: salvare il pianeta dalle forze distruttive ed
oscure che negano la comunione tra esseri umani e natura, ed è per questo che molti
hanno parlato di filosofia New Age. Quindi, correre in aiuto della luce sopraffatta dalle
tenebre, cercare senza sosta l'equilibrio perduto tra demoniaco e angelico, tecnologia
cieca e magia, disperazione e coraggio, solitudine e amicizia, incubo e sogno, vita e
morte, è il punto più lontano che il giocatore sa di dover raggiungere dal momento in
cui carica il gioco nella console.
Il gioco all'inizio esce su Nintendo Entertainment System, il quarto e quinto girano
già su Supernintendo, ma nessuno di questi ultimi viene esportato fuori dal Giappone, si
dovrà attendere il sesto episodio, tradotto in Usa come Final Fantasy III, perché la saga
che ha fatto impazzire il Sol Levante arrivi in occidente, esattamente nel 1994. Il
secondo degli elementi che faranno la fortuna del gioco è una piattaforma diffusa a
livello planetario con alle spalle la più agguerrita filosofia di marketing della storia dei
videogiochi: la Playstation. L'accordo viene stipulato nel 1997 ed è siglato per l'uscita
161
di Final Fantasy VII. Il successo dell'ottavo e nono capitolo, distribuiti da Halifax e
Infogames (la storia della distribuzione del gioco è abbastanza tortuosa), diventa
planetario. Sakaguchi viene ormai considerato un guru e la Squaresoft un gigante
dell'industria dei videogiochi. Nascono così migliaia di siti Internet e fan club,
proliferano i gadget e i manuali di soluzioni e strategia e ad ogni notizia di annuncio e
ritardo di un’uscita suscita non poche reazioni; è il caso del decimo episodio per
Playstation 2.
Il successo continua la fantasia sembra ben lontana da essere quella finale.
Ritornando al film, Sakaguchi ha certamente fatto le cose in grande stile per realizzare
quello che lui considerava il suo sogno: creare qualcosa in grado di fondere
l’eccezionale livello tecnico raggiunto dai videogiochi interattivi con le possibilità
espressive della cinematografia tradizionale. Questo film si avvicina molto a questo
sogno.108
6.1.5 Confronto con la realtà
Prendiamo un film di fantascienza, uno qualsiasi, da Alien a Guerre stellari, da Men
in black al Quinto elemento. Adesso, immaginiamo lo stesso film creato completamente
in computer grafica 3D: non solo gli effetti visuali, ma anche le persone, le città, i
paesaggi, le astronavi, il Sole, la Luna, le stelle e ogni piccolo dettaglio sullo schermo.
Questo descrive esattamente il film Final Fantasy distribuito dalla Columbia
Pictures e realizzato dalla Square. La pellicola, uscita in Italia il 24 agosto 2001, fa
recitare attori umani sintetici in ruoli che potrebbero essere interpretati benissimo da
attori reali e li inserisce in set completamente sintetici.
Con una produzione durata quattro anni, Final Fantasy è uno dei progetti di
computer grafica più ambiziosi che siano mai stati realizzati. «La sceneggiatura
avrebbe potuto funzionare anche per un film con riprese dal vivo», afferma Hironobu
Sakaguchi, regista della pellicola e CEO della Square USA di Honolulu, lo studio che
ha creato Final Fantasy con un team di circa 200 persone provenienti da esperienze
diverse, come la produzione di film dal vivo, videogiochi, pubblicità, animazione ed
Fig
53)
Final
Fantasy.
The
http://www.gamenavigator.ru/gallery/screenshots/851.jpg
108
Spirits
Within.
Tratto da: http://www.noemalab.org/sections/specials/tetcm/2001-02/final_fantasy/trama.html
162
Fonte:
altri settori. «Abbiamo deciso di usare la computer grafica realistica. Il nostro scopo era
di offrire al pubblico qualcosa che non fosse mai stato visto prima».
La decisione è comprensibile, dal momento che Final Fantasy è nato come gioco di
ruolo per Playstation e Sakaguchi è l’autore di questo gioco. Secondo la Square, con le
vendite in tutto il mondo della serie in nove parti di Final Fantasy, che hanno superato i
26 milioni di unità, lo studio poteva contare su un pubblico potenziale già pronto,
composto da giocatori abituati ai temi fantastici, a proprio agio con personaggi in CG
(computer grafica), ed ansiosi di vedere che cosa sarebbe successo in seguito.
Sakaguchi, comunque, ha scelto di non riproporre i personaggi del videogame. Per
l’animazione 3D non ha neppure adottato lo stile tipico delle fiabe, com’è stato fatto per
film come Shrek e Toy Story. Final Fantasy si basa su un copione originale scritto da
sceneggiatori americani Al Reinert e Jeff Vintar, ad ha un suo stile ben preciso.
I cineasti della Square descrivono questo stile come “iper” e non “foto” realistico,
facendo notare che per il film hanno cercato di ottenere un livello superiore di realtà,
non una sua replica. Final Fantasy non appare esattamente come la realtà, ma non
sembra neppure esattamente sintetico. Potrebbe quasi sembrare un film con riprese dal
vivo che è stato modificato per ottenere un effetto particolare. Alla Square pensano che
potrebbe cambiare il modo in cui in futuro verranno prodotti i film. «La stessa esistenza
di questo lungometraggio è la dimostrazione di quel che la computer grafica è in grado
di fare», afferma Sakaguchi, il quale pensa che adesso le persone sanno che è possibile
creare personaggi umani sullo schermo, la porta è aperta a nuove idee. «È una
soluzione che sta tra la cinematografia e l’animazione tradizionale», afferma Gary
Mundell, supervisore della computer grafica. «Adesso possiamo fare tutto quello che
vogliamo. Per questo tipo di produzioni, non ci sono limiti agli effetti speciali. Così
come gli scenari. Possiamo inserire un personaggio umano in qualsiasi cosa. Non c’è
nessuna storia che non possa essere raccontata».
La Square può usare parole come “iper-reale”, ma si potrebbe ribattere che è
l’aspetto fotorealistico dei personaggi umani del film a rappresentare il risultato più
sorprendente. Anzi, diversi mesi prima che il film uscisse nelle sale, la rivista per
uomini Maxim ha messo da parte fotografie di donne in carne ed ossa per mettere in
copertina la star di Final Fantasy, la dottoressa Aki Ross, con indosso un bikini in una
posa seducente. E perché no? Per la maggior parte dei lettori. Le donne sulla copertina
della rivista non sono che semplici fotografie, e Aki è altrettanto bella.
163
6.1.6 Rappresentare le emozioni
Il personaggio di Aki è solo uno degli attori digitali di Final Fantasy. Il capitano
Gray Edwards, di cui è innamorata Aki, è a capo della squadra militare chiamata Deep
Eyes, che aiuta e protegge la dottoressa. Il dottor Sid è la sua guida, e il generale Hein
la sua controparte. Prima che venisse realizzato questo film, già da tempo si usavano
nelle produzioni gli sfondi in 3D, gli effetti visuali ed i personaggi digitali, ma mai
prima uno studio aveva cercato di realizzare un film in cui l’intero cast fosse composto
da personaggi digitali che si muovono ed hanno l’aspetto di un essere umano.
Per dirigere il cast, Sakaguchi è partito da storyboard dettagliati fotogramma per
fotogramma, che sono stati scelti e convertiti in uno slide show su un sistema Avid. Poi,
quando sono state registrate le voci degli attori, ha iniziato a lavorare la squadra che si
occupava dei layout. Usando Maya della Alias|Wavefront su workstation SGI, le scene
sono state abbozzate con semplici modelli 3D e “riprese” con telecamere virtuali.
«Abbiamo scelto lo stile di ripresa degli anni Settanta e Ottanta, usando gli equivalenti
virtuali di gru, steadycam e camere a mano», afferma Tani Kunitake, direttore delle
scene. «Volevamo uno stile cinematografico, non quello di un videogioco».
Gli storyboard ed i layout 3D sono poi passati al dipartimento d’animazione e di
motion capture. I layout 3D mostrano i movimenti della telecamera, le posizioni e
movimenti dei personaggi sincronizzati con le registrazioni dei dialoghi; gli storyboard
illustravano il significato nascosto, le emozioni dei personaggi.
164
«Non è possibile dare espressione a un pupazzo cubico», afferma Kunitake quando
parla dei layout 3D. E i dialoghi usati per questo layout non permettevano di capire
l’intera storia. «Sakaguchi discuteva di come doveva apparire visivamente la scena, del
rapporto tra Aki e Sid e tra Aki e Gray», afferma Kunitake. «Discuteva del percorso
emozionale di una scena; quel che provavano i personaggi. Poi inserivamo questi
elementi dando maggiore enfasi alla storia piuttosto che ai dialoghi».
6.1.7 Piccoli cambiamenti
In ogni caso, trasformare un modello 3D in un personaggio umano realistico capace
di esprimere emozioni richiede una delicata operazione di bilanciamento: se il
personaggio 3D non sembra umano, non è importante se si muove come una persona
reale, e viceversa. Ma un cambiamento dell’aspetto può far sbagliare l’animazione, e
viceversa.
«Sono
entrambi
impegnativi»,
commenta
Andy
Jones,
direttore
dell’animazione. «Discutevamo continuamente col gruppo che si occupava dei
personaggi su che cosa fosse più reale, il movimento dei personaggi o il loro aspetto».
Jones ha deciso che gli animatori si dovevano concentrare soprattutto sui volti e
sulle dita dei personaggi, assegnando responsabili dell’animazione a ogni personaggio,
e usando la tecnologia del motion capture per aiutare gli animatori a muovere i corpi.
«All’inizio, avevamo pensato di catturare tra il 20 e il 25 percento dei movimenti dei
personaggi, e di animare il resto con fotogrammi chiave», afferma Remington Scott,
direttore del motion capture. «Pensavamo di usare questa tecnica solo quando i
personaggi correvano o si muovevano in grandi spazi».
Anche se era efficace per registrare questo tipo di movimenti, il team ha scoperto
che il motion capture diventava ancora più utile quando i personaggi non si
muovevano. «Quando i personaggi sono fermi e stanno per parlare l’uno con l’altro, ci
sono incredibili sottigliezze e sfumature», spiega Scott. «Questi elementi caratterizzano
ciò che si deve fare per apparire umani e muoversi come delle persone reali». I
movimenti impercettibili che potrebbero cambiare l’atmosfera di una scena, come il
modo in cui una persona rimane ferma e bilancia il suo peso, o si sposta su una sedia,
erano difficili da animare, ma relativamente facili da catturare. Per questo quando il
team ha iniziato a selezionare gli attori per il motion capture, ha preso in considerazione
l’esperienza nella recitazione. Tori Elridge, un’attrice e ballerina, cintura nera in due
discipline di arti marziali, ha recitato la parte di Aki.
165
La Square usa un sistema di motion capture ottico a 16 telecamere ed un software di
tracking della Motion Analysis: ogni attore indossava circa 35 punti di controllo, cinque
dei quali sul torace per catturare la respirazione. Un software proprietario ha permesso
a Jones, Scott e Jack Fletcher, direttori dell’acquisizione dei movimenti e della voce, di
vedere in pochi minuti i dati di motion capture applicati ai personaggi animati in Maya.
«Non era in tempo reale, ma era veloce e molto preciso dal momento che potevamo
vedere i personaggi con tutti gli elementi appropriati in Maya», afferma Scott.
Alla fine secondo i calcoli di Scott, il 90 percento dei movimenti del corpo si è
basato su dati di motion capture. Questi dati venivano inseriti in un sistema
proprietario, che convertiva i movimenti catturati in un formato che poteva essere usato
in Maya. «Si può spostare nel tempo un personaggio e vedere muoversi dietro come un
fantasma la figura corrispondente ai dati di motion capture», afferma Jones. «Se le pose
o le azioni vanno bene, si può far corrispondere il personaggio a questi dati, altrimenti
si possono saltare intere sezioni ed animarle a mano».
I corpi dei personaggi sono stati tutti creati in Maya usando una rappresentazione
dei muscoli sotto la pelle, ed una struttura che usava i collegamenti per muovere lo
scheletro, che muoveva i muscoli, i quali a loro volta spostavano la pelle.«Il corpo
doveva essere anatomicamente corretto», afferma Kevin Ochs, direttore tecnico dei
personaggi, «dal momento che ci dovevamo preoccupare di come i vestiti si sarebbero
mossi». Per rendere efficiente il lavoro, comunque, il team lavorava solo con le parti
del corpo che erano necessarie. «Se si vedeva un personaggio solo dalla vita in su, per
questa scena venivano tolte le gambe», spiega Ochs.
6.1.8 L’animazione dei volti
Completati i movimenti del corpo, gli animatori iniziavano a lavorare ai volti dei
personaggi, che venivano completamente animati a mano. Per riuscire a muovere la
pelle in modo realistico, è stato sviluppato un sistema che permetteva agli animatori di
conferire alle superfici un aspetto più rilassato di quello che si ottiene col semplice
shape blending. «Le forme si allungherebbero o si restringerebbero da un punto ad un
altro, e questo non lascerebbe molta libertà per creare una maggiore morbidezza della
pelle», afferma Ochs. «Abbiamo creato una gabbia di deformazione che ci permette di
rappresentare la struttura muscolare quando la faccia inizia a muoversi, per dare alla
pelle un aspetto elastico». Il team di tecnici ha usato la stessa soluzione, con piccole
166
modifiche, per tutti i personaggi. Fondamentalmente, la gabbia spinge e tira diversi
punti chiave a seconda dell’espressione del volto, e in queste zone costringe la pelle a
muoversi intorno ai punti, invece di allungarsi da un punto all’altro. «Abbiamo isolato i
punti costantemente quando una persona parla», commenta Ochs.
Per creare le rughe, il team ha deciso di usare mappe di displacement animate.
«Abbiamo capito che una sola tecnica non ci avrebbe permesso di ottenere il risultato
che volevamo», spiega Ochs. «È molto difficile far sembrare reale il movimento della
pelle sul viso». Precisa Jones, «soprattutto quando ci avviciniamo con la telecamera.
Quando una persona aggrotta le ciglia, per esempio, si formano sulla pelle piccole
fossette e leggere imperfezioni che sono molto difficili da ricreare in CG. Si possono
usate texture map animate, ma se non corrispondono perfettamente col movimento e le
emozioni del personaggio, qualcosa sembra fuori posto».
Anche l’illuminazione influenzava l’aspetto dell’animazione. «Per esempio», spiega
jones «la parte inferiore della fossetta di una ruga tende ad essere una curva invece di
una linea rigida. La curva crea una riflessione che all’interno di una ruga appare
strana». Anche se per risolvere il problema il team ha usato tecniche di RenderMan
della Pixar Animation insieme a strumenti proprietari, è stato difficile far apparire reali
le rughe quando si muovevano, e c’erano continue idiosincrasie in CG dietro l’angolo.
«Ci sono tante sottigliezze», continua Jones. «Abbiamo fatto la scelta stilistica di
far apparire i nostri personaggi nel modo più realistico possibile e, una volta raggiunto
questo stile, di far esprimere il maggior numero d’emozioni. Alla fine, credo che abbia
avuto successo la resa visiva, soprattutto per volti. È così difficile rendere realistico il
movimento del viso».
167
6.1.9 Sembrare reale
Per far sembrare la pelle il più possibile realistica, Ochs aveva bisogno di un
metodo che permettesse rendering veloci e che si adattasse facilmente alle diverse
condizioni di luce. Prima di tutto, ha creato un algoritmo che gestiva le proprietà
costanti della pelle, come il modo in cui reagisce alla luce. Poi, il team ha scritto uno
shader di RenderMan per creare le proprietà non costanti. Usando procedure e texture
map, questo shader creava rappresentazioni approssimative delle proprietà della pelle
che variavano in diverse zone del corpo o quando cambiavano le condizioni esterne.
Gradazioni di grigio dal nero al bianco in una texture map usate dallo shader, per
esempio, indicavano lo spessore variabile della pelle per determinare quanta luce
sarebbe stata riflessa dal tessuto dell’orecchio illuminato in controluce rispetto alle dita.
Procedure nello shader gestivano le proprietà della pelle come il colore e la riflessione
speculare. Variando la quantità della riflessione, per esempio, il team cambiava
l’aspetto della pelle da unta ad asciutta. «Le braccia di un personaggio sono meno unte
del volto», spiega Ochs. «In qualche caso, quando corrono o sono sotto stress,
alzavamo i valori della riflessione speculare per dare l’impressione che stessero
sudando». Infine, sono stati creati altri due dettagli come le lentiggini e nei texture map
dipinte.
Anche se la pelle è servita a rendere gli attori digitali come se fossero stati in carne
ed ossa, il risultato più importante del team è stata la creazione di capelli credibili, in
particolare quelli di Aki. Usando un sistema proprietario, gli animatori potevano far
generare ed animare automaticamente i capelli di Aki da un simulatore basandosi sui
suoi movimenti e sull’impostazione che veniva inserita nel sistema. Per esempio, un
168
animatore poteva scegliere l’impostazione “corsa” per i capelli che conferiva loro
un’elasticità particolare e soffiava un forte vento sul suo volto. Oppure, gli animatori
potevano usare i capelli di controllo per creare azioni specifiche come quella di Aki che
si sistema una ciocca dietro un orecchio. Il simulatore creava poi il resto dei capelli e li
muoveva per farli corrispondere allo spostamento di quel controllo.
Le pettinature iniziali degli attori digitali sono state tutte preparate usando i capelli
di controllo, ovvero delle spline che funzionavano come guide per il resto delle ciocche.
I circa 50 capelli di controllo collocati su ogni testa uscivano dal sistema della Square
come curve Ri di RenderMan, e in fase di rendering crescevano fino a raggiungere tra i
50 mila e gli 80 mila capelli, a seconda della pettinatura. Per l’ombreggiatura dei
capelli, il team ha creato speciali algoritmi. «La curva non ha una superficie
tondeggiante, così abbiamo dovuto creare molti piccoli trucchi per dare ai capelli un
aspetto realistico», spiega Ochs. «Molto del lavoro di ricerca e sviluppo si è concentrato
sul modo in cui l’illuminazione colpiva i capelli».
Quando si passava ai vestiti, comunque, il lavoro degli animatori si fermava.
Quando un animatore completava l’azione di un personaggio, l’animazione veniva
portata in un file per vestiti, in cui si trovavano il corpo e gli abiti del personaggio. A
questo punto l’animazione veniva attaccata al corpo, il cui movimento guidava un
simulatore proprietario per i vestiti. «In questo film, l’intera simulazione degli abiti è
stata fatta in circa un anno e mezzo, con in media quattro persone che preparavano il
setup dei vestiti assegnando le proprietà necessarie. È stato un programma di
produzione molto efficiente», afferma Ochs. Dal momento che il team ha progettato il
software appositamente per questo film, hanno inserito nel programma le caratteristiche
169
necessarie: cuoio, gomma, lana, colletti duri, cuscinetti d’imbottitura per le spalle, e
così via. «Ci ha permesso di essere molto precisi e veloci», afferma Ochs.
La precisione e la velocità erano importanti: le star del film non erano gli unici
personaggio presenti, anche se erano i più sorprendenti. Il team che ha lavorato alle
animazioni ha dovuto gestire folle di persone digitali nelle città, branchi di alieni eterei,
e diversi tipi di veicoli, astronavi e fuoristrada tipici di un film di fantascienza. «Non si
tiene conto di tutto il resto a causa degli umani digitali», commenta Jones. «Ma
abbiamo dovuto animare anche tutto quel che si muoveva e non veniva creato con
effetti o sistemi particellari».
6.1.10 Effetti fantastici
«Abbiamo creato distruzioni, polvere, nuvole, fuoco, esplosioni, macerie», afferma
Remo Balcells, supervisore degli effetti visuali. «Abbiamo anche fatto esplodere un
intero pianeta». Per creare molti degli effetti naturali, il team guidato da Balcells ha
messo insieme le tecniche usate per i videogame con gli shader di renderman. Per
esempio, per realizzare il fuoco hanno usato una tecnica bidimensionale. «Abbiamo
mappato un singolo poligono con una texture map trasparente con sopra i colori del
fuoco», spiega. «Poi usando uno shader di renderman, abbiamo animato le texture in
modo procedurale».
Per creare il fumo, la squadra ha usato una tecnica simile. «Invece di un singolo
rettangolo, ne usiamo molti mappati sulle particelle», afferma Balcells. Comunque, per
ricreare l’illusione delle colonne di fumo con ombreggiature interne, hanno mappato le
ombre di semplici sfere su sfere con texture map. Le sfere sono state usate anche per le
palle di fuoco create con uno shader volumetrico e le renderizzavamo», spiega. «Non è
una tecnica complicata, ma richiede uno shader complesso».
Col procedere della produzione, comunque, il team ha iniziato ad affidarsi al
compositing per molti effetti atmosferici come la nebbia, che poteva essere creata più
velocemente con un programma di compositing piuttosto che con un rendering 3D.
All’inizio della produzione, è stata data poca importanza al compositing», racconta
James Rogers, supervisore del compositng. «Veniva visto come qualcosa che poteva
creare gli occasionali riflessi sull’obiettivo». Alla fine, molte delle scene sono state
montate con più di 100 livelli. «Molte delle persone che in passato hanno lavorato con
le riprese dal vivo come me, sono abituate a lavorare in questo modo», afferma. Il team
170
è partito con Illusion della Avid, poi ha iniziato a lavorare soprattutto con Shake della
Nothing Real e After Effects della Adobe, ma anche Composer della Alias|Wavefront e
Flame della Discreet hanno giocato un ruolo importante. «Abbiamo usato tutto ciò su
cui potevamo mettere le mani», afferma Rogers. «Credo che abbiamo finito con una
media di 16 livelli per scena». All’inizio dello scorso autunno, dopo aver accettato il
lavoro di supervisore della computer grafica, Mundell ha fatto un inventario delle scene
che dovevano essere completate e si è reso conto che c’erano troppi fotogrammi da
renderizzare. Grazie al service esterno WAMnet, aggiuntosi ai 1000 Pentium con
sistema operativo Linux, alle 300 SGI Irix con processore Mips, alle 160 Octane ed alle
3 Origin dello studio, isolando le aree che richiedevano più tempo delle altre ed
ottimizzando il processo lavorativo, il team è riuscito a finire il lavoro tre settimane
prima rispetto al piano di produzione. «Ci siamo resi conto che i capelli di Aki
occupavano il 20 percento di tutto il tempo di rendering», racconta Mundell. Così
hanno ottimizzato il rendering dei capelli e dove possibile hanno cambiato elementi
come le dimensioni delle texture. Per quanto riguarda il flusso di lavoro, hanno cercato
di ridurre i tempi di rendering per le scene in fase di elaborazione e la quantità di
approvazioni necessarie per ogni scena. «La prossima volta sarà molto più facile»,
afferma.
Come molte persone della Square, Rogers e Mundell credono che questo film
porterà ad un cambiamento paradigmatico. «La produzione cinematografica è sempre
stata guidata dalla tecnologia, dal bianco e nero al colore, dal muto al sonoro»,
commenta Rogers. Credo che il nostro film rappresenti una di queste occasioni. Non è
necessariamente il modo corretto di fare cinema, ma credo che sia piuttosto
significativo. La produzione è governata dall’economia, e con diminuire dei costi delle
tecnologie, questo stile di filmmaking potrebbe diventare più popolare. Invece di
portare una troupe nel luogo X si può creare una location virtuale. Invece di richiamare
l’attore Y, si può realizzare un inserto col computer in post produzione».
Recentemente, un agente di Hollywood che vuole rappresentare Aki ha contattato
Sakaguchi, che vede di buon occhio questo sviluppo. «Potrebbe essere ingaggiata per
spot pubblicitari, o altri film», afferma. Pensare a queste implicazioni potrebbe portare
un attore in carne ed ossa ad un livello di eccitazione per il suo futuro. Per
pubblicizzare un prodotto apparirebbe come la dottoressa Aki Ross, la scienziata del
film? O come l’attrice che ha recitato il ruolo della dottoressa Aki Ross? E chi è
comunque quest’attrice? È Ming-Na che le ha dato la voce nella versione originale,
171
Tori Elridge che ha creato i movimenti del suo corpo, i modellatori che hanno costruito
il personaggio, i direttori tecnici che le hanno dato la carne e il sangue, oppure Roy
Sato, l’animatore che ha creato le espressioni del volto? Potrebbe esistere senza queste
persone che lavorano insieme?
Se Aki diventerà una star di diritto, non ci sono dubbi che attori digitali fotorealistici o iper-realistici, o semplicemente realistici, appariranno in ruoli importanti nei
prossimi film dal vivo o d’animazione. Forse questo aprirà le porte agli attori ed alle
attrici che non hanno un buon rapporto con la telecamera, permettendo loro di diventare
delle star muovendosi con corpi in CG che si dimostrano più adatti alla telecamera e
parlando attraverso le labbra dei personaggi in CG. È facile immaginarsi tutte le
soluzioni possibili: film in cui un attore recita in diversi ruoli con la voce di diversi
attori, oppure attori che recitano molti ruoli tutti con la voce di un unico attore. Alla
fine, le star saranno gli attori digitali o le persone che li guidano?
È possibile che, in questo momento, la risposta non abbia importanza. Quel che
importa è che grazie a Final Fantasy, ci stiamo pensando.109
Fig 54) Aki Ross. Fonte: http://digilander.libero,it/mafyweb/aki_ross/aki_swimsuit.jpg
Fig 55) Particolari Aki. Fonte: http://qualitywallpapers.x-istence.com/Movies/Final%20Fantasy.jpg
Fig 56) Dott. Sid. Fonte: http://www.hollywoodjesus.com/movie/final_fantasy/31.jpg
Fig 57) Aki volto. Fonte: http://www.hollywoodjesus.com/movie/final_fantasy/32.jpg
109
Computer Gazzette – La rivista del visual computing n°10 Ottobre 2001 p.36-41
(http://www.iht.it/cinema/final.pdf)
Fig 58) Squall. Tratto da: http://neo1999.free.fr/jeux/wall_final_fantasy/images/final_fantasy8_jpg.jpg
172
Final Fantasy - Il video gioco
Final Fantasy è una popolare serie di J-RPG (giochi di ruolo giapponese) prodotta
dalla Squaresoft (divenuta, in seguito alla fusione con la Enix nell'aprile del 2003,
Suqare-Enix), una tra le maggiori case di produzione di videogiochi giapponesi. Sono
stati pubblicati, al gennaio 2005, dodici capitoli della saga principale, ognuno dei quali
ha trama, personaggi e ambientazioni del tutto differenti.
I vari episodi sono stati sviluppati, nel corso degli anni, su piattaforme differenti:
NES, SNES, MSX 2, PlayStation, Playstation 2, PSP, Nintendo GameCube, Game
Boy, Game Boy Advance, NSD, WonderSwan Color, Cellulari i-mode su rete.
La maggior parte delle colonne sonore degli episodi di Final Fantasy è composta da
Nobuo Uematsu, mentre il character design è affidato maggiormente a Yoshitaka
Amano e Testsuya Nomura.
La saga del maestro Hironobu Skaguchi ha avuto anche altre incarnazioni non
videoludiche:
•
Final Fantasy: Legend of the Crystals, anime di 4 puntate, seguito diretto di
Final Fantasy V.
•
Final Fantasy: The Spirits Within, film di animazione in Computer Grafica, di
cui esiste anche un adattamento romanzesco.
173
•
Final Fantasy: Unlimited, anime di 25 puntate più un prologo (di cui esiste
anche un adattamento romanzesco, Final Fantasy: Unlimited – Huta no kizuna), la cui
storia è completata da (in ordine cronologico):
o
Final Fantasy: Unlimited After Spiral Zero (romanzo online)
o
Final Fantasy: Unlimited Bifore – Aura Invochi Tsugumono (romanzo
radiofonico)
o
Final Fantasy: Unlimited After (libro illustrato)
o
Final Fantasy: Unlimited After Spiral (7 romanzi online)
o
Final Fantasy: Unlimited After 2 – Risa, Tachikirareta kusari (romanzo
radiofonico)
•
Final Fantasy VII: Advent Children, film di animazione in Computer grafica,
seguito diretto di Final Fantasy VII, che uscirà nel 2005 in Giappone su DVD e UMD.
•
Last Order: Final Fantasy VII, anime su Final Fantasy VII, che si inserisce
cronologicamente prima di quest'ultimo e che sarà incluso nella Ultimate Edition di
Final Fantasy VII: Advent Children.
•
Final Fantasy: The Out of Orders, manga basato su Final Fantasy XI - Online.
Da qualche anno (2002~2005), la Square ha cominciato a sviluppare il concetto
Polymorphic Content, che si concretizza nell'espansione di un brand su più piattaforme
(di gioco e non) e con svariati generi di prodotti di merchandise. Nel caso specifico di
Final Fantasy, la Square ha lanciato la cosiddetta Compilation of Final Fantasy VII.
6.3 Chris Landreth
174
6.3.1 Storia
L’animazione è la seconda carriera di Chris Landreth. Chris è stato ingegnere per
molti anni dopo aver ricevuto la laurea MS in Teorie ed Applicazioni Meccaniche
dall’Università dell’Illinois nel 1986 dove ha lavorato per tre anni nella ricerca
sperimentale dei Fluidi Meccanici. In seguito passò nel mondo della computer
animation.
Nel 1994 Chris prese confidenza con Alias un software di animazione di cui
sperimentò e fece abuso, prima ancora che fosse rilasciato. In molte delle sue
produzioni fu usato quel software tra cui Bingo e The End. Entrambi film hanno vinto
riconoscimenti e premi in tutto il mondo. Nel 1996 “The End” fu nominato
all’Academy Award come Miglior Cortometraggio Animato.
L’ultimo lavoro di Chris Landreth è il pluripremiato “Ryan”.
La storia è quella di Ryan Larkin, autore d’animazione che lavorò all’ONF tra la
fine degli anni sessanta e gli anni settanta, e sperimentò le sue idee accanto al grande
Norman McLaren, che è stato per decenni la guida della sezione d’animazione
dell’ONF, uno degli autori che hanno fatto la storia del cinema di animazione. Ryan
Larkin realizzò alcuni film che conservano ancora oggi una notevole portata innovativa
e una concezione grafica personale e poetica. Uno dei suoi lavori, Walking (1968), ha
ricevuto anche una nomination all’Oscar come miglior cortometraggio. L’ascesa
artistica di Larkin è stata rapida, immersa pienamente in una istanza creativa che non
trovava sosta e appagamento, una ricerca continua, da un film all’altro, da una
sperimentazione all’altra. La carriera di Larkin si è spenta però a seguito di diverse
crisi: la droga e l’alcol lo hanno allontanato dalle sue realizzazioni per cui in un certo
momento della sua vita ha deciso di smettere di creare. Oggi vive di elemosina a
Montreal. Chris Landreth, autore di animazione che ha realizzato diversi interessanti
corti, tra cui The End (1995), nomination all’Oscar, ha voluto confrontarsi con questo
autore, lo ha intervistato, ha cercato nella sua vita e nei suoi lavori, e ha creato un film,
quasi un documentario, che ci parla di Ryan, della sua vita attuale, ci fa vedere un
assaggio dei suoi film, ci fa ascoltare la voce di Larkin mentre ricorda i tempi all’Onf,
mentre con mani tremanti tocca i propri disegni che non vedeva da 30 anni e che
Landreth aveva recuperato. E tutto questo è raccontato con uno stile grafico
assolutamente spiazzante, i corpi delle persone scavati letteralmente dalla vita, brandelli
di umanità che lotta per trovare nuove vie o solo la sopravvivenza. Landreth utilizza per
175
questo film il 3D, portando a degli estremi assoluti il linguaggio dell’animazione; è uno
di quei casi in cui veramente la tecnica e il contenuto vivono in un equilibrio assoluto,
uno funzionale all’altro.
Il film ha girato numerosi festival ed ha vinto quest’anno l’Oscar come miglior
cortometraggio animato. Il Festival di Annecy ha voluto dare seguito a questa apertura,
ad uno scorcio sul passato, a questa esperienza così originale, proiettando un
documentario di Laurence Green, realizzato durante la lavorazione di Ryan. Qui
assistiamo all’incontro di Rayn e di Landreth, la scelta consapevole di Larkin sulla sua
attuale vita, la scelta di vivere per la strada, l’alcol, la consapevolezza della sua
parabola artistica. Landreth ha voluto fortemente questo film e ha lavorato a lungo per
la realizzazione del progetto; il suo coinvolgimento è stato forte, tanto da arrivare a
parlare di sé e di sua madre nel cortometraggio, e ad arrabbiarsi con toni molto accesi
con Larkin per il suo alcolismo e ad ammettere che sua madre ha avuto grossissimi
problemi con l’alcol.
6.3.2 Opere
The End 1995
Nominato nel 1995 Academy Award, come "Miglior Cortometraggio Animato"
Premiato al SIGGRAPH 95 Electronic Theatre,
Los Angeles, California.
Selezionato come top animated piece dal SIGGRAPH Electronic Theatre jury.
Imagina 96, Monaco:
Prix-Pixel INA,
176
Miglior Animazione 3D
Imagina 96, Monaco:
Prix SACD per Miglior Narrativa Innovativa e Produzione
1996 Atlanta
Film eVideo Festival,
Vince come Miglior Video Animato
Computer Animation 96,
Ginevra
Award come Miglior Computer Animation
Zagabria Internation Animation Festival
1996: Riconoscimento speciale (Produzione Video Originale),
1997
World Animation Celebration:
Vince come Miglior Professional Computer-Assisted Animation
Bingo 1998
SIGGRAPH 98 Electronic Theatre,
Luglio 1998, Orlando, Florida,
Finalista
Ottawa International Animation Festival,
177
Ottobre 1998,
Media Prize come Miglior Computer Animation.
Chicago International Film Festival,
Ottobre 1998,
Placca d’argento per Cortometraggio Animato
Sundance Film Festival,
Gennaio 1999,
Invited Short Film
Imagina 99,
Monaco, Gennaio 1999,
Prix SACD come Most Innovative Narrative and Production
Academy of Canadian Film and Television:
1999 Genie Award come Miglior Corto Animato
Aspen Short Film Festival,
Aprile 1999,
Miglior Film Animato
Los Angeles Independent Film Festival,
Aprile 1999,
Miglior Cortometraggio
Computer Animaton Festival,
Ginevra, Giugno 1999,
Grand Prix du Ville Geneve, Miglior Computer Animation
178
Ryan 2003
enzo Kinoshita Prize
10° International Animation Festival,
Hiroshima, Giappone, Agosto 19-23, 2004
Special Jury Award
Categoria Short Fiction Films
28° International Animated Film Festival,
Annecy, Francia, Giugno 7-12, 2004
Kodak Discovery Award come Miglior Cortometraggio
(Very) Young Critic Award come Miglior Cortometraggio
Canal + Award come Migliro Cortometraggio
43° International Critics' Week
Cannes, Francia, Maggio 13-21, 2004
The Sun Life Financial Award come Miglior Corto Canadese
Generosamente offerto da Sun Life Financial, questo award consisteva in
25,000 dollari - uno dei più alti premi per cortometraggi al mondo
2004 Worldwide Short Film Festival
Toronto,Ontario, Canada, Maggio 11-16, 2004
Jury Award
179
SIGGRAPH 2004 Computer Animation Film Festival
Los Angeles, California, USA, Agosto 8-12, 2004
Golden Nica
Computer Animation/Visual Effects category
PRIX ARS Electronica 2004 - International Competition come Cyber Arts
Linz, Austria, Settembre 2-7, 2004
Best Experimental Film Award
Los Angeles International Short Film Festival
Hollywood, Los Angeles Settembre 7-13, 2004
Grand Prix- Miglior Corto Indipendente
Ottawa International Animation Festival
Ottawa, Canada Settembre 22-26, 2004
Miglior Corto Canadese(ex-aequo)
Atlantic Film Festival
Halifax, Canada Settembre 17-25, 2004
Miglior Corto Animato
Woodstock Film Festival
Woodstock, New York, USA, Ottobre 13 - 17, 2004
Prix de la découverte Z TÉLÉ / Z TÉLÉ New Discovery Award
5,000 $ Cdn
Festival du Nouveau cinéma de Montréal
Ottobre 14 - 24, 2004
Golden Dove – Primo Premio – Categoria Film Animati e Video
donato da MotionWorks, accompagnato da un premio di 3.000 Euro
47° Festival for Documentary and Animated Film, Leipzig, Germania,
19-24 Ottobre, 2004
180
Premio Speciale della Giuria
23rd International Short Film Festival
Uppsala, Sweden, Ottobre 2004
Golden Spike
Miglior Corto
International Film Festival
Valladolid, Spagna, Ottobre 22 - 30, 2004
Grand Prix 2004
Categoria Narrative Shorts
Award - AnyZone Competition
10° Annual Holland Animation Festival
Utrecht, Olanda, Novembre 3-7, 2004
World Animation Award
International Film Festival
Leeds, Inghilterra, dal 28 Ottobre al 7 November, 2004
Special Mention - International Shorts Competition
AFI International Film Festival
Los Angeles, California, USA Novembre 4 - 14, 2004
Grand Prix - Prize Caixa Geral de Depositos
(con un premio in contanti di 3.800 Euro)
Int´l Animated Film Festival / CINANIMA
Espinho, Portogallo, Novembre 8 - 14, 2004
Miglior Cortometraggio
World Cinema Festival
Città del Capo, Sud Africa, Novembre 12 - 20, 2004
Primo Premio
181
Art Futura 2004
28 - 31 Ottobre
Barcellona, Spagna
AUDIENCE AWARD - Categoria: Digital Shorts Competition
con un premio in contanti di 4,280 Dollari
Golden Horse International Film Festival
Taipei, Taiwan, dal 25 Novembre al 3 Dicembre, 2004
Silver Mikeldi for Animation
con un premio in contanti di 1,803 Euro
International Festival of Documentary and Short Film
Bilbao, Spagna, dal 29 Novembre al 4 Dicembre, 2004
6.3.3 Ryan
Nel 1969, il leggendario animatore Ryan Larkin era all’apice della carriera. Il suo
cortometraggio innovativo, Walking, uno dei tanti film realizzati mentre si trovava
presso il National Film Board of Canada, aveva ricevuto una nomination all’Oscar e un
successo internazionale. La Montreal Gazzette lo aveva ribattezzato il “Frank Zappa o
George Harrison dell’animazione”. Era una star. Ma nel 1978, Larkin era diventato
cocainomane e alcolizzato senza lavoro e senza soldi. Oggi vive nella Old Brewery
Mission di Montreal, e chiede l’elemosina di fronte al ristorante Schwartz lungo la
Boulevard St. Laurent di Montreal.
Quattro anni fa, l’animatore Chris Landreth, che ha ricevuto una nomination
all’Oscar per un cortometraggio innovativo (The End 1995), faceva parte del comitato
di selezione dell’Ottawa International Animation Festival e stava per avere un incontro
fatale con Ryan Larkin. Poco prima che il comitato si riunisse, il direttore del festival
Chris Robinson aveva saputo da un amico di un membro dello staff che Larkin si
trovava a Montreal, e chiedeva l’elemosina. Robinson ha pensato che se fosse riuscito a
trovarlo, poteva portare Larkin al festival. Forse lo avrebbe aiutato.
Lo ha trovato sulla St. Lauren, a chiedere l’elemosina. Dopo aver bevuto un paio di
birre, Larkin ha acconsentito ad andare ad Ottawa, con l’assicurazione di Robinson che
avrebbe ricevuto vitto, alloggio e i soldi per la birra. Successivamente, quando uno dei
182
quattro membri del comitato si è dovuto ritirare all’ultimo momento, Robinson ha
chiesto a Larkin di sostituirlo.
«All’inizio Ryan si sentiva un pesce fuor d’acqua», ricorda Landreth. «Negli ultimi
vent’anni aveva chiesto l’elemosina nelle strade. Ma alla fine della settimana, una parte
della sua persona si è ricordata di cosa si prova ad essere un animatore, ed è tornato in
vita». L’ultimo giorno, dopo che il comitato aveva finito di selezionare i film per il
festival ognuno ha mostrato agli altri i propri film. «Ryan è stato l’ultimo, e ha
presentato Walking e altri tre o quattro film», racconta Landreth. «Siamo rimasti a
bocca aperta. Era un animatore brillante che aveva dato vita a cortometraggi che
mostravano un’incredibile creatività. L’ho guardato e mi sono chiesto: com’era potuto
succedere? È iniziato tutto da qui».
In quel periodo, Landreth era senza lavoro, dato che aveva lasciato un’occupazione
che non lo soddisfaceva dal punto di vista creativo, ma non era senza risorse. «Ho
pensato che era arrivato il momento di sviluppare un nuovo film», afferma. Quattro
anni dopo, Landreth ha presentato Ryan, un documentario animato basato sulla vita di
Ryan Larkin. Le voci del film sono quelle di Landreth che intervista Larkin, oltre a
quelle di artisti, animatori e persona del passato di Larkin, e le persone della strada del
presente. Parlano tutti attraverso personaggi 3D.
183
Realismo emotivo
Ryan si svolge in gran parte in una tavola calda decadente. I personaggi Chris e
Ryan sono seduti ad un tavolo, uno di fronte all’altro; l’inquadratura si sposta dall’uno
all’altro. A accezione dei filmati storici, tutto e tutti sono stati modellati, animati e
renderizzati con Maya della Alias, ma niente e nessuno appare come siamo abituati a
vedere, compreso Landreth. Il film ricorda La mia cena con André di Louis Malle ma
con personaggi surreali e incorporei invece che con attori veri.
«Le mie animazioni hanno usato e continuano ad usare il fotorealismo», scrive
Landreth a proposito di Ryan, «ma quel che m’interessa di più non è raggiungere il
fotorealismo con le immagini create col computer, bensì servirmi di elementi
fotorealistici per uno scopo diverso: mostrare il realismo della qualità incredibilmente
complessa, difficile, caotica a volte banale e sempre in conflitto che chiamiamo natura
umana. Chiamo tutto questo psicorealismo».Quindi anche se il personaggio Chris
assomiglia a Landreth, il volto è dipinto con scanalature che rappresentano i suoi
demoni e con espansioni che amplificano le sue emozioni : un’aureola al neon emerge
dalla sua testa quando inizia a fare delle prediche. Un effetto che Ryan descrive dicendo
che elettrizza i capelli di Chris. Una piccola mano color porpora si estende dal suo collo
verso Ryan. Landreth ha creato ancora più modifiche su Ryan: come lo stesso Larkin, il
volto del personaggio è dissipato e consumato. Grandi parti della testa di Ryan sono
scomparse, come metà della sua vista; indossa un paio di occhiali, ma ha un occhio
solo. Quando si arrabbia, spuntano della sua testa corna rosse.
Con lo scorrere del film, la combinazione della storia di Larkin con la crescente
autocoscienza di Chris (interpretati dalla grafica psicorealistica che offre una terza voce
narrante che è a volte critica altre partecipe) unisce i generi dell’animazione e del
documentario in una nuova e straordinaria forma d’arte.
184
A detta di tutti, il risultato è stato un grande successo tecnico e di critica. Infatti,
prima dell’uscita in anteprima a Cannes, il 14 maggio, come selezione della Settimana
internazionale della critica, il film di 14 minuti aveva già vinto tre premi importanti: il
premio della giuria del SIGGRAPH 2004, il Golden Nica del Prix Ars Alectronica e il
Sun Life Financial Award come miglior cortometraggio canadese durante il Worldwide
Short Film Festival del 2004. A Cannes, ha ricevuto tre premi come miglior
cortometraggio: il Premio rivelazione Kodak, il Premio Canal + e il Premio della
giovane critica. A giugno, Ryan ha vinto il Premio speciale della giuria al prestigioso
festival d’animazione di Annecy. Ad agosto è stata la volta del Renzo Kinoshita Prize
al Festival dell’animazione di Hiroshima, in Giappone. Evidentemente, la storia e la
tecnica hanno attirato l’attenzione di critica e pubblico.
La fase iniziale del progetto
Landreth ha iniziato a lavorare al corto videoregistrando le interviste con Larkin e
allo stesso tempo registrando l’audio e scattando fotografie dei primi piani. «Pensavo a
Creature Comforts di Nick Park,110 nel quale intervista le persone allo zoo di Bristol e
Fig
59)
Chris
Landreth.
http://www.animationtrip.com/news/features/chrislandreth/images/ChrisLandreth.jpg
Fonte:
Fig 60) The End. Fonte: http://accad.osu.edu/~waynec/history/tree/images/landreth-end.JPG
Fig 61) Bingo. Fonte: http://accad.osu.edu/~waynec/history/tree/images/bingo.JPG
Fig 62) Ryan. Fonte: http://www.londoncanfilmfest.ca/images/alter.jpg
Fig 63) Ryan 2. Fonte: http://www.aec.at/bilderclient/PR_2004_ryan_002_p.jpg
Fig 64) Purple Hand. Fonte:
515847.jpg
http://www.cgtimes.com.cn/upload20040401/watermark_2004-5-
110
Nick Park: Nick Park è nato a Preston, Lancashire nel 1958. Nick sì è interessato di animazione
mentre andava ancora a scuola ed ha cominciato a creare film nella soffitta dei suoi genitori all'età di
tredici anni. Nick si è laureato in lettere alla Sheffield Art School nel 1980 e nello stesso anno è andato a
studiare animazione alla National Film and Television School di Beaconsfield. Mentre era alla scuola
Nick ha iniziato a lavorare al cortometraggio "Una Fantastica Gita" (A Grand Day Out) e l'ho ha
completato all’Aardman Animations dopo essersi unito a loro nel 1985. Mentre era impiegato
all’Aardman Animations, Nick ha lavorato come regista ed animatore su numerosi progetti televisivi
compresi inserti per trasmissioni per bambini. Nel 1989 l’Aardman Animations ha prodotto "Lip Synch"
una serie per la Channel Four Television e il contributo di Nick è stato il film "Creature Comforts" che ha
vinto un Oscar nel 1990 come il miglior cortometraggio d'animazione. "Creature Comforts" è stato
d'inspirazione per varie pubblicitá. Il film di Nick "I Pantaloni Sbagliati" (The Wrong Trousers), è stato
trasmesso sulla BBC2 nel 1993 e ha vinto un Oscar come Miglior Cortometraggio Animato dall'
Academy of Motion Picture Arts and Sciences nel marzo del 1994. Nick ha vinto il suo terzo Oscar con
"Una Tosatura Perfetta" (A Close Shave) nel 1996. Tratto da: http://mario.lapam.mo.it/Wallace-andGromit/NickPark.htm
185
quindi costruisce un film d’animazione basandosi sulle interviste». Con la primavera e
l’inizio dell’estate del 2002, Landreth aveva raccolto 20 ore di registrazioni audio oltre
al materiale di riferimento come i film di Larkin degli archivi del Film Board. Ma non
era ancora abbastanza. Non aveva una storia. Ha continuato ad intervistare Larkin.
«Ad agosto, abbiamo parlato dell’alcol», ricorda Landreth. «Non avevo
programmato di affrontare questo argomento, ma era necessario, ed è venuto fuori così
come si sente nel film, parola per parola. A quel punto, mi sono reso conto che il film
non sarebbe stato solo su Ryan». L’intervistatore, la cui madre aveva sofferto di
problemi legati all’alcol, era rimasto intrappolato nella storia; la conversazione
sull’alcol è diventata un momento decisivo del film. Entro dicembre, Landreth ha
scritto una sceneggiatura e ha riunito una produzione indipendente con l’aiuto della
Copper Heart Entertainment di Toronto. Il gruppo di lavoro di Ryan ha ricevuto un
finanziamento da parte del Canada Council for Arts, e quindi il National Film Board of
Canada ha prodotto il film. Inoltre il Seneca College di Toronto ha messo a
disposizione di Landreth dello spazio nello studio e ha segnalato alcuni studenti del
corso d’animazione per la collaborazione al progetto.
Creare i personaggi
Durante le interviste, Landreth ha preparato degli schizzi di Chris e Ryan. Questi
disegni sono diventati la base di rappresentazioni 3D dei due animatori che dovevano
apparire nel film. «Il nostro aspetto visivo riflette pena, follia, paura, pietà, vergogna e
creatività», osserva Landreth.
I modelli degli altri due personaggi principali del film (Derek Lamb, che è stato un
caro amico di Larkin e il suo produttore esecutivo, e Felicity Fanjoy, la sua compagna
di allora) si basavano sui disegni di larkin. «Il fotorealismo di Chris e Ryan è filtrato
dalla mia percezione psicorealistica», afferma Landreth, «ma volevo mostrare Derek e
Felicity così come li percepisce Ryan. Così abbiamo preso i suoi schizzi e li abbiamo
mappati su modelli 3D articolati di Derek e Felicity, dando loro l’aspetto di un disegno,
come si vede nel film».
Derek lo vediamo come immagine animata seduta sun una poltrona, mentre Felicity
si siede al tavolo con Chris e Ryan. Mentre si abbandona ai ricordi, Ryan le stringe le
mani.
186
Anche se i movimenti dei personaggi sono realistici, Landreth ha scelto di non
basarsi sul motion capture. Lo stesso Landreth si è occupato di circa la metà
dell’animazione dei volti; gli studenti del corso d’animazione hanno completato il resto.
«C’è un certo orgoglio dell’animatore nel non usare il motion capture», afferma. «Ma
per ottenere recitazioni realistiche che non sembrassero animate a mano, abbiamo
dovuto eliminare la mentalità dell’animazione pose-to-pose che hanno gli studenti».
Con l’animazione pose-to-pose, gli animatori attribuiscono al personaggio una posa e
quindi creano la successiva, e il computer gestisce il movimento intermedio. «Se non si
fa nient’altro, il personaggio assume un atteggiamento innaturale», afferma Landreth.
«Quindi, gli animatori cercano di perfezionare il tutto per ottenere un movimento più
fluido, ma rimane sempre una parte residua, forse più nella mentalità che
nell’animazione».
Per spiegare a cosa si riferisce quando parla di mentalità pose-to-pose, Landreth
riprende l’animazione di prova realizzata dalla squadra d’animazione, con Ryan che
dice: «non pago le tasse, non pago contributi sindacali. È qualcosa che si può portare a
casa. Uno stipendio che si può portare a casa». Mostra come gli animatori impostano
una posa per ogni frase. «Questo si verifica in molti studi d’animazione», afferma. «Un
personaggio dice qualcosa e fa un gesto, dice qualcos’altro e fa un altro gesto».
Landreth spiega che questo tipo d’animazione non solo appare innaturale, ma non era il
modo in cui si muoveva Ryan. «Ryan gesticola molto, e un aspetto singolare è che il
movimento delle mano è totalmente scollegato da quello che sta dicendo», spiega
Landreth. «Non ha neppure lo stesso ritmo. Quindi ottenere queste sfumature nella
versione animata di Ryan ha richiesto un grosso lavoro per concepire e realizzare i
movimenti».
187
Landreth e il supervisore della computer grafica hanno quindi insegnato agli
animatori ad usare uno stile d’animazione più lineare. «È quello che si farebbe con la
tecnica d’animazione che conosciamo come claymation111 dove non si ha il flusso dei
fotogrammi d’intermezzo», afferma Landreth. Per esempio, invece di far inchinare
Ryan con una serie di pose (mettere in piedi il personaggio, alzare il braccio destro,
piegare nel mezzo e rialzarlo) ha chiesto agli animatori di pensare al comportamento
delle diverse parti del corpo. «Si può immaginare il modo in cui si muoverebbe il
braccio di Ryan nel corso di due o tre secondi, animare il movimento completo del
braccio, e quindi occuparsi del resto del corpo», afferma. «Può funzionare oppure no,
ma in questo modo si ottiene il flusso dell’intero movimento».
Landreth ha anche cercato di liberare l’animazione dal tipico stile basato su curve
spline con il quale il movimento si costruisce archi irregolari. «Ho cercato di far capire
agli animatori che si tratta di far tendere della carne», afferma. «La parte che riguarda la
carne è legata alla massa, alla velocità e al peso; la parte che riguarda la tensione è
universale nel modo in cui si muovono le persone. Le persone non si muovono
seguendo delle curve, si muovono in modo impulsivo, di solito con un veloce
rallentamento in entrata e un’uscita più lenta. Assomiglia ad un percorso seghettato
piuttosto che ad un’onda sinusoidale».
Per creare le texture dei modelli di chris e Ryan, il gruppo di Landreth ha unito
diverse fotografie all’interno di Photoshop della Adobe che ha applicato ai modelli 3D.
Per Derek e Felicity, invece, ha usato Paint Effect per imitare il tratto dei disegni di
Larkin e creare i modelli in CG animati per dare l’impressione che fossero disegnati a
mano. Anche l’illuminazione crea effetti drammatici. Nonostante i personaggi
principali di solito abbiano delle luci di alone intorno a loro (rim), Landreth ha fatto una
scelta diversa. «Non è il modo in cui apparivano oggetti e personaggi, così abbiamo
deciso di non usarle», afferma. Invece, assieme al supervisore del rendering Belma
Abdicevic ha ricostruito l’illuminazione della tavola calda. «Avevamo luci provenienti
dall’alto ad alta intensità, luci riflesse dalle pareti e illuminazione diffusa. La luce è più
piatta di quanto volevamo, ma non eccede nella drammatizzazione della scena. E una
luce rim avrebbe rivelato la mancanza del sub-surface scattering». Quindi, anche se
111
Claymation: Claymation un tipo di animazione che usa i modelli dell'argilla o del plastico anziché le
illustrazioni.
Tratto
da:
http://cyclopedia.ws/lang.aspx/it/home.aspx/Kids/Entertainment/Anime_and_Cartoons
188
l’illuminazione corrispondeva alla realtà, dato che non era la tipica soluzione usata per i
personaggi in CG e le star del cinema, ha aggiunto un effetto surreale.
Come per altre tecniche e strumenti, Landreth ha usato Maya per il rendering e
Combustion della Discreet per il compositing. «Abbiamo usato Maya 4.0», spiega.
«Non avevamo neppure Mental Ray che adesso si trova all’interno di Maya, ma
potevamo sfruttare Paint Effects integrato nel programma». Per il montaggio, anche se
ha usato Premiere della Adobe durante la creazione dello storyboard, per la fase finale
si è rivolto allo studio di post-produzione Coptor Production. «ero seduto su un divano
mentre il montatore faceva tutto il lavoro pesante», afferma, osservando che lo studio
ha usato Final Cut Pro per l’editing online.
Distorsione e disorientamento
Tutti gli ambienti di Ryan (la tavola calda, il gabinetto e la Boulevard St. Laurent)
sono stati modellati con Maya e distorti in due modi. La squadra ha aggiunto una
prospettiva non lineare agli oggetti nell’immagine renderizzati usando un plug-in
sviluppato internamente per Maya e ha sbiadito gli oggetti selezionati usando Maya
Paint Effects. «Abbiamo usato questo effetto per creare uno spazio irreale in grado di
disorientare, che riflette lo stato d’animo distorto che Ryan e Chris provano
nell’ambiente in cui si trovano», osserva Landreth. Per la scena della strada la
modellista Helen Zotalist Van Emmerik ha impiegato quattro mesi per ricreare con
estrema precisione un quartiere di Montreal in 3D a partire da migliaia di fotografie.
Quindi lo ha distorto. «Lo ha modificato seguendo le mie indicazioni per dargli un
aspetto maggiormente pittorico ed interpretativo», spiega Landreth. «Abbiamo usato
Paint Effects per macchiarlo con pennellate collocate strategicamente sul modello 3D».
Dato che le pennellate di Paint Effects sono collegate ad un modello, Landreth
poteva muovere una telecamera virtuale attraverso l’ambiente urbano non
fotorealistico. «La strada, i negozi, i parchimetri, avevano tutti questo aspetto
pittorico», afferma Landreth. «Ci ha permesso di entrare in uno spazio interpretativo».
Nella tavola calda, Landreth ha applicato la stessa tecnica, trasformando il modello
3D della stanza, dei tavoli e delle sedie in una copia surreale. Ma in questo caso ha
dipinto l’idea ancora più avanti. «All’inizio la tavola calda ha un aspetto chiaro e pulito,
che peggiora gradualmente», afferma Landreth. Quando la conversazione tra i due
animatori si accende, la tavola calda diventa quasi irriconoscibile. «Abbiamo
189
trasformato la stanza in un tessuto SyFlex112 e lo abbiamo “fuso”». Spiega Landreth. Ha
anche esteso la distorsione a Zaz, uno dei personaggi sfortunati che la telecamera
inquadra all’intero della tavola calda, sciogliendolo col software SyFlex e quindi
riversando il suo corpo su un tavolo come un ubriaco svenuto in un bar. «Alcuni dei
personaggi secondari sono basati su persone reali che Ryan ha conosciuto nella
missione in cui vive, ma Zaz, l’uomo liquefatto, è una mia creazione».
Modellare il surrealismo
Tutti i personaggi 3D di ryan sono stati creati con Maya della Alias. «Abbiamo
iniziato con le superfici di suddivisione, che abbiamo convertito in NURBS», afferma
Landreth. Sono anche stati distrutti e distorti con Maya. «Abbiamo usato strumenti trim
e free form filled blend, e per il personaggio di Chris abbiamo aggiunto molti
abbellimenti con le NURBS di Maya. Per Ryan, abbiamo usato soprattutto NURBS
basandoci molto sulla construction history».
Per i capelli e per molti altri effetti del film. Landreth ha usato Maya Paint Effects.
«Nella versione Enhanced di Maya 5 c’è una pennellata apposite per I capelli. Con una
pennellata, una linea sottile, si possono ottenere un sacco di capelli, e il risultato è
ottimo».
Organizzando il modello di chris su più layer, Landreth ha ridotto la quantità di
geometria necessarie agli animatori, con la possibilità di passare continuamente dai
modelli psicorealistica a quelli reali. Questo si è dimostrato utile per un’inquadratura in
particolare, quando Chris guarda in uno specchio. «Da una parte dello specchio si vede
Chris senza scanalature, mentre dall’altra parte le scanalature sono presenti», afferma
Landreth. «Il modello con tutti i tagli e gli abbellimenti era sempre lo stesso, ma gli
animatori avevano la possibilità di lavorare più velocemente senza questi elementi».
Per Ryan, comunque, dato che raramente appare completamente intatto, gli
animatori hanno lavorato soprattutto col volto scavato. Il volto completo lo si vede solo
col personaggio di Ryan più giovane. In una scena, per esempio, mentre ricorda con
112
SyFlex: è un software di simulazione di abbigliamento e panneggi compatibile con la versione per
Mac OS X del noto software di modellazione 3D Maya di Alias|Wavefront. Usato anche per la
realizzazione del film Final Fantasy, possiede un motore in grado di rendere assai naturale i movimenti di
camicie, pantaloni, gonne, restituendo allo spettatore anche la consistenza del materiale di cui sarebbero
fatti (cotone, seta, lana e così via). I produttori sottolineano che "non è necessaria alcuna conoscenza
particolare in taglio e cucito". Venduto a 2.200 dollari per ogni licenza è uno dei primi prodotti realizzati
da
terze
parti
per
Maya
per
Mac.
Tratto
da:
http://www.macworld.it/showPage.php?template=notizie&id=6942
190
Felicity i tempi migliori, il giovane Ryan danza felice dietro di loro accanto ad
un’animazione dei suoi primi film.
Una sfida per il filmmaker
In tutto, la produzione ha richiesto 18 mesi. Uno staff composto da tre professionisti
(Landreth,
un
supervisore
della
computer
grafica
e
uno
specialista
d’illuminazione/rendering/compositing) è stato aiutato da quattro animatori, una
persona che si occupa delle texture e un modellista dei personaggi del gruppo di
studenti del Seneca College, oltre a 20 volontari.
Ryan, che è stato creato come produzione indipendente da un animatore
temporaneamente senza lavoro, lancia una sfida ai filmmaker che vogliono creare i loro
film. «Tutte queste risorse, dalla Copper Heart al National Film Board, dal Seneca
College ai finanziamenti, le donazioni e molti volontari, si sono riunite per produrre
questo film perché persone ci credevano», afferma Landreth. «Il cortometraggio ha una
lunga lista di nomi che hanno partecipato alla produzione, ed è promosso e distribuito
dalla National Film Board, ma è stato realizzato con un budget relativamente ridotto.
Non vedo l’ora di vedere lungometraggi indipendenti realizzati in questo modo».
Nel creare Ryan, Landreth si è assunto dei rischi professionali. Lavorando con
l’animazione, supera i limiti del documentario, esplora nuove possibilità per
l’animazione e usando grafica 3D per creare un realismo emotivo invece del
fotorealismo, sfida i registi, gli animatori e i professionisti della computer grafica a
superare l’idea dei cartoni animati, dell’animazione delle creature e delle controfigure
digitali. Visti i risultati sono rischi che è valso la pena prendere.113
Fig 62) Felicity. Fonte: http://www.iua.upf.es/~berenguer/cursos/filmografia3D/diapos/ryan.jpg
113
Computer Gazzette – La rivista del visual computing n°10 Ottobre 2004 p. 44-48
191
7 Fonti e Riferimenti
7.1 Bibliografia
1) Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e
digitale. Fondamenti di eidomatica. Addison-Wesley, Milano
2) Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione.
Arnoldo Mondatori Editore
3) Pier Luigi Capucci, Realtà del virtual.
4) Computer Gazzette – La rivista del visual computing n°10 Ottobre 2001.
5) Computer Gazzette – La rivista del visual computing n°10 Ottobre 2004.
6) Ettore Pasculli, Il cinema dell'ingegno, Milano, Mazzotta, 1990, pp. 221-240.
7) Riccardo Rizzo, "Linguaggio dei cartoon e grafica computerizzata", in Computer
Graphics & Publishing, n. 4, lug-ago 2001.
8) Cfr. Ferruccio Giromini, Maria Grazia Mattei, "Il Cinema Digitale", in Computer
Animation Stories, Roma, Mare Nero, 1998.
7.2 Sitografia
7.2.1 Sitografia note e glossario
http://it.wikipedia.org/wiki/Pixel
http://it.wikipedia.org/wiki/Risoluzione
http://www.noemalab.org/sections/specials/tetcm/2001-02/shrek/definizione.html
http://www.pavonerisorse.to.it/museocinema/fena.htm
http://www.pavonerisorse.to.it/museocinema/prassi.htm
http://www.noemalab.org/sections/specials/tetcm/200102/shrek/storia_computer_animation.html
http://it.wikipedia.org/wiki/Chroma_key
http://it.wikipedia.org/wiki/ Rasterizzazione
http://it.wikipedia.org/wiki/Antialiasing
http://www.visingenii.com/pagine/varie/subsurf/sub.htm
http://it.wikipedia.org/wiki/Avatar
192
http://it.wikipedia.org/wiki/Hall
http://it.wikipedia.org/wiki/Rendering
http://www.dm.unibo.it/matematica/GeometrieNonEulidee/lambert.html
http://www.nvitalia.com/articoli/glossario_3d/glossario_2.htm
wikipedia.org/wiki/Rendering
http://magazine.enel.it/boiler/arretrati/wired_dett.asp?iddoc=924829&titolo=Wired&20%20Come+nasce+una+stella
http://www.plecxus.com/gallery/albums/3d/treed_103.jpg
wikipedia.org/wiki/Rendering
http://astroemagazine.astrofili.org/num9/collimazione/
http://www.revisioncinema.com/ci_nirva.htm
http://xoomer.virgilio.it/liciabar/informatica/pag1.htm
http://www.primissima.it/attualita/sommario.html?id-articolo=56
http://www.trax.it/lev_manovich.htm
http://www.hackerart.org/corsi/tesi/musante/cap4.htm
http://www.noemalab.org/sections/specials/tetcm/2001-02/final_fantasy/trama.html
http://www.iht.it/cinema/final.pdf
http://mario.lapam.mo.it/Wallace-and-Gromit/NickPark.htm
http://cyclopedia.ws/lang.aspx/it/home.aspx/Kids/Entertainment/Anime_and_Cartoons
http://www.macworld.it/showPage.php?template=notizie&id=6942
7.2.2 Sitografia immagini
http://chronicle.altervista.org/immagini/fenachistiscopio.jpg
http://www.illuweb.it/cinema/prassi01.jpg
http://www.80smusiclyrics.com/games/pacman/pac.jpg
http://spider.alleg.edu/dept/art/composition/illus/illus6.11.jpg
http://rhein-zeitung.de/on/98/09/17/magazin/news/gump_kennedy.jpg
http://www.richleader.com/images/Pulse/bargainbin/bargain_bin_review/anti-aliasing.png
http://www.gruponemesis.com/fx/efect/morph/morph02.jpg
http://psycho.usr.dsi.unimi.it/~spa/corso9798/f513a.gif
http://www.etereaestudios.com/worksweb/tutankhamon/tutankh_nurbs.jpg
http://www.tipus.uniroma3.it/DCaad/CAAD-04/lezCAAD_LS/immagini/sweep.jpg
http://visindavefur.hi.is/myndir/geris_game_110103.jpg
193
http://www.marcostefanelli.com/subliminale/mandelbrot.jpg
http://www.matematicamente.it/immagini/curva_di_koch.jpg
http://www.lighthouse3d.com/opengl/terrain/mpd5.jpg
http://innovis.cpsc.ucalgary.ca/3DWeb/projects/PlantswithHairs/smallpoppyRendering.jp
g
http://www.linuxgraphic.org/section3d/articles/ArticAyamCSG/CSGTV.png
http://www.effectware.com/download/images/efx_voxel2.jpg
http://www.danhausertrek.com/AnimatedSeries/Storyboard.gif
http://www.lysator.liu.se/~eru/research/c001.jpg
http://www.lysator.liu.se/~eru/research/c131.jpg
http://www.lysator.liu.se/~eru/research/c070.jpg
http://www.screen-novelties.com/press/page1/images/bottom.jpg
http://www.animatedideas.net/t-rex-mechy-composite.jpg
http://mag.awn.com/issue8.01/8.01images/beck0304_findingNemo.jpg
http://www.caffeineoverdose.net/cod/3d_art/ima_3Dmark03_12.jpg
http://accad.osu.edu/~waynec/history/images/two-towers.jpg
http://www.agirlsworld.com/rachel/hangin-with/pix/polarex1.jpg
http://www.cs.washington.edu/homes/zoran/mocap/mocap-front.jpg
http://www.vuse.vanderbilt.edu/~bobbyb/images/linda.jpg
http://www.euclideanspace.com/mjbWorld/userGuide/animation/keyframe/timeline.gif
http://www.softimage.com/Products/3d/v4/media/alien_lg.jpg
http://www.skullbox.net/clusters/renderfarm.jpg
http://www.videocom.it/immagini_formz/interiorwire.gif
http://www.cs.newcastle.edu.au/~richard/research/thesis/fig2-38a.gif
http://aspc.cs.utt.ro/~egc/Lab/Labs/Lab09/01.gif
http://medvis.vrvis.at/typo3temp/pics/e05a6e9a6b.png
http://www.tech-hounds.com/article8/DIFFUSE.GIF
http://www.nvitalia.com/articoli/glossario_3d/glossario_2.htm
http://wwweic.eri.utokyo.ac.jp/computer/manual/lx/SGI_Developer/books/Perf_GetStarted/sgi_html/figure
s/04.3.frustum.gif
http://renderman.ru/viagra/stass3d/images/bump.jpg
http://renderman.ru/viagra/stass3d/images/3d/iron.jpg
http://renderman.ru/viagra/stass3d/images/3d/rock.jpg
194
http://renderman.ru/viagra/stass3d/images/3d/wood1.jpg
http://renderman.ru/viagra/stass3d/images/3d/marble.jpg
http://www.lightwork.com/pix/aclass1k_640.jpg
http://wwwokino.com/conv/features/caustics/chess_pieces_by_rcl.jpg
http://www.cs.berkeley.edu/~sequin/CS184/IMGS/TranspRayTrace.gif
http://radsite.lbl.gov/radiance/book/img/plate10.jpg
http://upload.wikimedia.org/wikimedia/de/thumb/4/43/Radiosity-yes.jpg/300pxRadiosity-yes.jpg
http://www.calidos.com/quefem/gifs-qtvr/VR-1.gif
http://www.ioffergames.com/gimg/612236-Myst-Mac-Games.jpg
http://www.carpages.co.uk/citroen/citroen_images/citroen_c4_robot_15_09_05.jpg
http://www.alfanet.de/home/ballett/fantasieducorp/find%20sign%.jpg
http://www.numerica-srl.it/immagini/manichini.gif
http://www.gamenavigator.ru/gallery/screenshots/851.jpg
http://digilander.libero,it/mafyweb/aki_ross/aki_swimsuit.jpg
http://qualitywallpapers.x-istence.com/Movies/Final%20Fantasy.jpg
http://www.hollywoodjesus.com/movie/final_fantasy/31.jpg
http://www.hollywoodjesus.com/movie/final_fantasy/32.jpg
http://neo1999.free.fr/jeux/wall_final_fantasy/images/final_fantasy8_jpg.jpg
http://www.animationtrip.com/news/features/chrislandreth/images/ChrisLandreth.jpg
http://accad.osu.edu/~waynec/history/tree/images/landreth-end.JPG
http://accad.osu.edu/~waynec/history/tree/images/bingo.JPG
http://www.londoncanfilmfest.ca/images/alter.jpg
http://www.aec.at/bilderclient/PR_2004_ryan_002_p.jpg
http://www.cgtimes.com.cn/upload20040401/watermark_2004-5-515847.jpg
http://www.iua.upf.es/~berenguer/cursos/filmografia3D/diapos/ryan.jpg
195
Scarica

L`animazione tridimensionale. Analisi funzionale e