UNIVERSITÀ DEGLI STUDI DI URBINO “CARLO BO” Facoltà di Sociologia CORSO DI LAUREA IN COMUNICAZIONE PUBBLICITARIA L’animazione tridimensionale. Analisi funzionale e applicazioni. Relatore: Chiar.mo Prof. PIER LUIGI CAPUCCI Tesi di laurea di: MATTEO PIERINI ANNO ACCADEMICO 2004-2005 L’animazione tridimensionale. Analisi funzionale e applicazioni. Premessa L’animazione costituisce il modo con cui un’immagine digitale acquisita o creata con metodi di modellazione e rendering acquista vita. Nel cinema, nei video-giochi, nei siti Internet, incontriamo sempre più animazioni create con l’elaboratore, o ispirandosi al lavoro degli animatori tradizionali o con tecniche interamente nuove che solo il computer permette di usare. L’animazione, corredata da sofisticati dispositivi di input e output (guanti digitali, caschi con visori stereo, suono diffuso spazialmente, ecc.) è il cardine dei sistemi di interazione del futuro, basati sulle realtà virtuali.1 Introduzione Per analizzare meglio il campo dell’animazione tridimensionale è necessario introdurre alcuni concetti base sulla Computer Animation. La Computer Animation o Animazione Digitale, è un termine che designa delle immagini in movimento generate dal computer (elettronicamente). Tali immagini sono costituite da migliaia di punti (pixel)2, ottenuti attraverso calcoli matematici. Ogni punto ha una determinata posizione sullo schermo, e il computer ha immagazzinata nella sua memoria le informazioni sulla posizione di ogni pixel. Ad ogni pixel possono venir cambiati colore e luminosità. Il calcolatore utilizza segnali e informazioni di tipo digitale, cioè formate da impulsi binari, discontinui. Un'immagine digitale è formata da una griglia di pixel (mosaico elettronico), dove ogni punto ha uno specifico valore. L'animazione digitale è 1 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p.177 2 Pixel: abbreviazione inglese di picture element; è uno dei molti minuscoli puntini che compongono la rappresentazione di un'immagine nella memoria di un computer. Solitamente i punti sono così piccoli e così numerosi che se vengono stampati su carta o visti su un monitor appaiono fusi in un’unica immagine. Colore e intensità di ciascun punto sono usati dal computer per rappresentare una piccola area dell'immagine. Tratto da: http://it.wikipedia.org/wiki/Pixel 1 caratterizzata da una bassa qualità di visione (risoluzione)3.Tramite il calcolatore si possono manipolare informazioni di vario tipo come fotografie, pellicole cinematografiche, disegni, etc, prima però ogni materiale dev'essere scannerizzato, per consentire la digitalizzazione delle varie informazioni, omogeneizzandole sotto l'egida del pixel. Le animazioni digitali vengono realizzate tramite la Computer Grafica o CGI (Computer Generated Imagery). Scopo della computer animation Il computer permette di creare animazioni bidimensionali (2D) e tridimensionali (3D), permette di creare nuove immagini (realizzazioni integralmente ottenute al computer), intervenire con modificazioni su riprese reali o realizzare effetti speciali (realizzazioni miste)4, e programmare il lavoro di ripresa cinematografica. Con l'utilizzo della Computer Animation sono stati sperimentati film astratti, inventati mondi illusori (come nel caso della Realtà Virtuale), create delle evoluzioni morfogenetiche di forme virtuali (che si evolvono all'interno del computer, sembrando quasi delle forme organiche). Le immagini 3D interamente create al computer sono definite "immagini di sintesi". L'immagine di sintesi è estranea alle diverse forme di rappresentazione della realtà: è la riproduzione di un'idea, dell'immaginario, non ha come referente la realtà, come invece accade per cinematografo e fotografia. Oggi la Computer Animation viene spesso usata per creare spot pubblicitari, sequenze per film ad effetti speciali, film d'animazione, grafica per il web, videogiochi. Il suo impiego nell'ambito della pre-produzione e post-produzione cinematografica è assai vasto poiché abbassa i tempi ed i costi di lavorazione (costruzione di scenografie virtuali, studio delle inquadrature, della luce, dei movimenti degli attori) e permette di realizzare inquadrature originali, fatte da punti di vista inediti. Le immagini prodotte 3 Risoluzione: La risoluzione di un'immagine indica il grado di qualità di un'immagine. Generalmente si usa questo termine parlando di immagini digitali, ma anche una qualunque fotografia"classica" ha una certa risoluzione. Parlando di immagini su computer, la risoluzione indica la densità dei pixel ovvero dei puntini elementari che formano l'immagine. Lo schermo di un computer, infatti, non può mostrare linee o disegni, ma soltanto, in definitiva, punti: se questi sono sufficientemente piccoli (tali, in pratica, da essere più piccoli della risoluzione percepita dall'occhio umano), l'osservatore ha l'impressione di vedere linee anziché punti allineati, e disegni anziché ammassi di puntini distinti. Tratto da: http://it.wikipedia.org/wiki/Risoluzione 4 Cfr. Pier Luigi Capucci, Realtà del virtuale , CLUEB, Bologna, 1993, p.57. Tratto da: http://www.noemalab.org/sections/specials/tetcm/2001-02/shrek/definizione.html 2 dal calcolatore spesso mescolano il reale con l'irreale, e vengono utilizzate per rappresentare visualmente un immaginario fantastico; non hanno come referente la realtà, quindi non sono soggette alla forza di gravità, possono andare in qualsiasi direzione, a qualunque velocità, in qualunque momento della sequenza, e ogni pixel è sempre manipolabile. 1. Storia dell’animazione L’animazione che conosciamo oggi ha radici antiche, ed è l’evoluzione dell’illustrazione, di cui troviamo esempi anche nei periodi storici a noi più lontani, dalle incisioni alle miniature medievali. Una scena, un racconto, una cronaca reale o immaginaria vengono accompagnate da immagini che ne illustrano i momenti salienti e la arricchiscono. I vuoti visivi o narrativi che sussistono negli spazi tra un’illustrazione e l’altra possono venire colmati dal lettore, che ricostruisce la storia con la propria immaginazione. Un passo intermedio tra l’illustrazione e l’animazione è il fumetto: qui la storia viene narrata interamente in forma grafica e trasmessa visivamente. Il testo è limitato alle sole frasi dei personaggi e la sua funzione è di accompagnamento alle immagini. I vuoti visivi sono quasi scomparsi e la parte creativa lasciata all’immaginazione del lettore diminuisce, così come la distanza temporale tra le illustrazioni. L’animazione dal punto di vista del fruitore finale non è altro che una sequenza di immagini visualizzate a velocità predefinita, opportunamente costruite in modo da simulare il movimento. Ogni immagine della sequenza viene chiamata fotogramma o frame; nel mondo della produzione televisiva le immagini si susseguono al ritmo di 24 o 25 al secondo. Questa velocità è tale che l’occhio umano ne percepisce fluidamente lo scorrere, senza rilevare scatti o momenti vuoti, poiché il segnale visivo permane per un breve periodo sui fotorecettori. La visualizzazione di sequenze di immagini ha una storia ricca di tecniche non informatiche, alcune sofisticate, altre semplici e di facile realizzazione. La più semplice da realizzare è il libretto animato, nel quale le immagini della sequenza sono stampate o disegnate una per pagina. Scorrendo velocemente le pagine, la sequenza prende vita. 3 Altri strumenti furono il fenachistiscopio5, il prassinoscopio6 ideato da Athanasius Kircher alla metà del ’600. Il cinematografo, termine derivante dal francese cinématographe, venne brevettato nel 1893 e comunemente abbreviato in “cinema”. Dopo il cinema venne la televisione che, pur generando anch’essa animazioni visualizzando sequenze di immagini, si basa su principi tecnologici diversi.7 Per quanto riguarda l’animazione digitale nel 1950 il Servomechanisms Laboratory of Massachuttes Institute of Technology mette a punto il primo sistema numericamente controllato: il CAM (computer-aided manifacture), una macchina che, guidata, ripeteva Fig 1) Fonte: http://chronicle.altervista.org/immagini/fenachistiscopio.jpg Fig 2) Fonte: http://www.illuweb.it/cinema/prassi01.jpg 5 Fenachistiscopio: Il fenachistiscopio di Joseph Plateau consisteva in due dischi coassiali, ruotanti solidalmente. Sul primo disco erano riportate diverse posizioni di una stessa figura, mentre nel secondo erano ricavate delle fessure, attraverso le quali l'occhio dell'osservatore riceveva, guardando attraverso uno specchio, l'impressione della figura in movimento. Si cimentarono in esperienze di dinamismo, applicate a figure disegnate su strisce di carta predisposte ad essere animate, anche Simon Stampfer, creatore dello stroboscopio, William G. Horner, il padre dello zootropio, ed Emile Reynaud, l'inventore del prassinoscopio. Tratto da: http://www.pavonerisorse.to.it/museocinema/fena.htm 6 Prassinoscopio: Costruendo il prassinoscopio, Emile Reynaud sostituì le fessure del fenachistoscopio con un prisma di specchi da collocare al centro del tamburo. "In questo modo i disegni sulla striscia posta intorno alla circonferenza interna del cilindro si riflettevano negli specchi, ciascuno dei quali, ruotando, lasciava cogliere all'occhio un'immagine alla volta". In seguito progettò il prassinoscopio-teatro, inserito in una speciale scatola fatta su misura. "Le figure in movimento venivano viste attraverso un vetro, incorniciato in un piccolo proscenio. Il vetro rifletteva l'immagine di una scenografia teatrale in modo tale da far apparire sovrapposte alla scenografia le immagini in movimento". (dalla Guida alla Mostra “La magia dell’immagine” - Macchine e spettacoli prima dei Lumière nelle Collezioni del Museo Nazionale del Cinema - Torino, Palazzina della Società Promotrice delle Belle Arti, Parco del Valentino, 8 novembre 1996 - 31 marzo 1997) Tratto da: http://www.pavonerisorse.to.it/museocinema/prassi.htm 7 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 178-183 4 semplici lavori. Poi venne il CAD (computer-aided design), un sistema creato per il disegno tecnico al computer. In seguito, un tecnico del MIT (Massachuttes Institute of Technology), Ivan Sutherland, creò il primo programma di grafica computerizzata con cui si poteva disegnare attraverso il collegamento di un display (tubo catodico) al computer: lo Sketchpad (1962), e con esso produsse un film avente lo stesso nome.8 Questo sistema permetteva di tracciare disegni bidimensionali lineari e monocromatici, simili ai grafici dei primi schermi radar, però era un sistema molto lento e complesso, dove era necessario istruire il computer punto per punto per riuscire a tracciare una linea. A quel tempo, le ricerche su questa nuova tecnologia erano finanziate da vari enti governativi degli USA, che intendevano sfruttarla per simulazioni di volo spaziale e per lo sviluppo della tecnologia aerea militare. Alla metà degli anni sessanta fu introdotta la penna ottica, più pratica e veloce, con cui si può tracciare una linea su una tavoletta e vederla sul display. La penna ottica è basata su un sistema grafico vettoriale. Ulteriori sperimentazioni vennero condotte al MIT, ai Bell Laboratories e all'università dello Utah. Agli inizi degli anni settanta si potevano tracciare immagini al computer tramite vettori grafici; questo sistema era assai limitato dal punto di vista della resa dei colori e delle sfumature, anche se potenziato dai frame buffers, una forma di memoria video digitalizzata che contiene informazioni su ogni pixel che forma un'immagine video. Questo consentì ai programmatori di pensare alla CGI come aree di sfumature di colore, invece che come vettori lineari. Questa forma di CGI è chiamata Raster Graphic, e fu sperimentata da società come la Magi/Syntavision fin dal 1973 per commercials televisivi. Robert Abel fondò nel 1971 assieme a Con Pederson la Robert Abel & Associates, introducendo nel 1972 un software basato su grafica vettoriale (Grafica Wire Frame) per creare gli animatics, cioè gli storyboard animati. Con la grafica vettoriale si ottengono delle immagini composte solo da linee, e che quindi risultano vuote. Oggi ci sono tre sistemi per ottenere immagini tridimensionali usando il computer: 8 Ettore Pasculli, Il cinema dell'ingegno, Milano, Mazzotta, 1990, pp.221-240. 5 - la memoria del computer contiene informazioni relative a forme tradizionali di base (coni, sfere, cubi), e l'oggetto viene costruito attraverso forme geometriche. Sistema della Magi/Syntavision. - si prepara un disegno schematico dell'oggetto, inserendo le sue coordinate nella memoria del computer, e poi si costruisce la forma con migliaia di piccoli poligoni. Spesso i bordi di queste figure solide non sono uniformi, e questo fenomeno detto aliasing, può essere corretto successivamente. Una volta costruito l'oggetto, gli si addizionano riflessi e trasparenze. - si applica il modello procedurale, cioè un metodo in cui le immagini in movimento vengono create dal computer tramite specifiche equazioni o algoritmi. Il computer crea le forme non tramite punti, ma tramite particelle, di cui vengono fissati determinati parametri (colore, aspetto, peso, elasticità, velocità, durata di vita, etc.). Un esempio è quello dei Frattali, calcoli matematici che permettono di rappresentare forme naturali irregolari come montagne, alberi, fumo, etc. Il primo periodo della computer grafica, negli anni sessanta, fu caratterizzato da un'intensa sperimentazione linguistico-estetica: Ken Knowlton creò il BEFLIX, un programma per generare immagini a mosaico attraverso una serie di punti con varie gradazioni di grigio; Micheal Knoll creò i primi film stereoscopici costruiti su regole matematiche; Larry Cuba, John Whitney e Stan Vanderbeek si dedicarono ai film astratti. Negli anni settanta prende avvio l'industria informatica: La Apple di Wozniak e Jobs nasce nel 1976, come anche la Microsoft di Bill Gates. C'è sempre una maggior ricerca di realismo, accompagnata dall'evoluzione della tecnologia. Nel 1981 arrivano i primi videogiochi: Pac-Man della Namco e Mario della Nintendo. Nascono le prime fiere del settore: nel 1974 apre i battenti il Siggraph negli USA, e nel 1982 nasce il festival Imagina a Montecarlo. Jaron Lanier lancia le ricerche sulla realtà virtuale nel 1985 con VPL, e Myron Krueger lancia Videoplace, un mondo interattivo digitale. 6 A cavallo tra anni settanta e anni ottanta, la tecnologia aveva fatto notevoli progressi, ma il computer rimaneva sempre uno strumento scomodo perchè non si riusciva a produrre forme morbide e movimenti fluidi, come avveniva nell'animazione tradizionale: l'animazione al computer produceva forme geometriche rigide, il lavoro doveva essere svolto a contatto con i tecnici e richiedeva computer potenti e grandi risorse finanziarie. Nel 1975 Benoit Mandelbrot scrive un libro, A theory of fractal set, dove espone la sua teoria: i calcoli frattali possono servire per rappresentare paesaggi. Queste teorie trovano un'applicazione nel primo film della Pixar (ex Lucasfilm): Andrè and Wally B di John Lasseter (1984), dove viene usata l'animazione tridimensionale al computer adattata al "carattere animato" (Character Animation), e quindi i personaggi animati subiscono anche schiacciamenti e deformazioni espressive. Per "Character Animation" si intende l'infusione di movimento e vita apparente in figurine disegnate o modellate. I personaggi sono una folla di "Caratteri" avente ognuno una serie di caratteristiche immediatamente riconoscibili. Nel seguente lavoro di John Lasseter, Luxo Jr (1986), delle lampade da tavolo prendono vita. John Lasseter introduce nel campo dell'animazione digitale la regia cinematografica, quindi fa uso di inquadrature variate e tagli di montaggio significante, riscoprendo il valore essenziale della narrazione. A questo proposito scrive Riccardo Rizzo: "Domandiamoci cosa renda quelle lampade così simpatiche, comunicative, uniche. A parte le movenze, sicuramente ben studiate, Luxo ha un'espressione: … è sinceramente affranto quando il pallone piccolo si sgonfia… ma le lampade da tavolo non hanno nemmeno una faccia…La postura e i movimenti ci aiutano, e la mancanza totale di una faccia è stata riempita da noi che osserviamo la scena e i personaggi."9 Fig 4) PacMan. Fonte: http://www.80smusiclyrics.com/games/pacman/pac.jpg Fig 5) Luxo Jr. Fonte: http://spider.alleg.edu/dept/art/composition/illus/illus6.11.jpg 9 Riccardo Rizzo, "Linguaggio dei cartoon e grafica computerizzata", in Computer Graphics & Publishing, n.4, lug-ago 2001, p.18. 7 Negli anni settanta viene sperimentata anche l'applicazione del calcolatore elettronico all'animazione. Nel 1987 Nadia Magnenat-Thalmann e Daniel Thalmann tentano di ricreare due attori virtuali: Marilyn e Humphrey Bogart, ma la strada verso la perfezione nella verosimiglianza della figura umana è ancora lunga. Il primo lungometraggio che utilizza immagini digitali in grafica 3D è Tron(1982) della Disney. Dalla fine degli anni ottanta esplode l'uso di grafica computerizzata per effetti speciali di film, e quindi c'è una maggior tendenza verso il realismo. Nel 1986 nasce la Softimages di Daniel Langlois, una società che sviluppa software per effetti speciali. Negli stessi anni nasce il dipartimento di computer grafica della Disney (gli Studios di Burbank), ma solo con Toy Story di John Lasseter (1995) la Disney realizza in collaborazione con la Pixar, il primo lungometraggio totalmente sintetico. Il primo film con effetti speciali digitali è Star Wars del 1977. In quell'anno George Lucas fondò la Industrial Light+Magic (ILM), proprio per sperimentare l'introduzione delle immagini di sintesi all'interno del suo film. Da allora sono nati i nuovi studios di Hollywood: la Digital Domain di James Cameron e la Dreamworks di Steven Spielberg. Nel frattempo è nata all'interno della Industrial Light+Magic la Pixar Animation Studios, specializzata nel campo del cinema d'animazione. La Pixar sperimenterà le immagini di sintesi nei cortometraggi di John Lasseter. Naturalmente bisogna notare che lo sviluppo dell'animazione al computer è legata all'evoluzione della tecnologia, sia software (programmi), che hardware (macchine), e col tempo i mezzi tecnologici diventano sempre più economici, tanto da permetterne l'uso anche agli animatori tradizionali, che finalmente possono lavorare con questi sistemi nel loro studio. 8 Dagli anni ottanta - novanta in poi, lo sviluppo della tecnologia ha permesso di ottenere effetti sorprendentemente realistici, grazie ad un rendering (resa delle superfici) tendente alla simulazione del realismo, tant'è vero che per la società di produzione di effetti speciali di James Cameron, la Digital Domain (fondata nel 1983), si è parlato di fotorealismo digitale.10 Oggi l'esasperazione del realismo sembra essersi ridimensionata, mentre “acquista notevole rilievo la qualità narratologica della storia raccontata (le modalità narrative, la drammaturgia, il montaggio, ecc.).”11 Da Luxo Jr. di John Lasseter in poi, sembra che i tecnici creativi delle immagini digitali abbiano compreso che gli effetti strabilianti che la CGI può realizzare da soli non bastano: è la storia che conta, la narrazione e le modalità narrative sono il pilastro fondamentale di ogni lavoro relativo alla Computer Animation. 1.1 Cosa significa animare Animare è un processo complesso, le cui fasi sono state sviluppate e perfezionate negli anni da artigiani e industrie. In un’animazione troviamo una scena ed alcuni personaggi. Questi elementi sono il risultato della modellazione a cui dedicheremo un capitolo più avanti. Con scena intendiamo il luogo, reale o immaginario, in cui avviene l’azione, mentre i “personaggi” sono tutti gli elementi della scena che concorrono all’animazione. Ogni elemento dell’animazione incluse le sorgenti di luce, i punti di vista, le dimensioni, i colori, le ombre, va dotato di un movimento, inteso come variazione di un parametro (es: lo spostamento di un oggetto in una scena è la variazione di del parametro di posizione). Una volta quindi individuati e modellati i personaggi e gli oggetti dell’animazione, occorre renderne percepibile il movimento, generando una sequenza di pose di 10 Cfr. Ferruccio Giromini, Maria Grazia Mattei, "Il Cinema Digitale", in Computer Animation Stories, Roma, Mare Nero, 1998. 11 Pier Luigi Capucci, Realtà del virtuale, cit., p.58. Tratto da: 02/shrek/storia_computer_animation.html http://www.noemalab.org/sections/specials/tetcm/2001- 9 fotogrammi, nella quale sia espressa visivamente l’energia del movimento, le cui linee di forza possono essere tracciate o immaginate durante la fase di progettazione dell’animazione. 1.2 Dall’animazione 2D all’animazione 3D L’animazione bidimensionale prima dell’era informatica ha una storia ricca di tecniche e di produzioni, che si è sviluppata fino ad assumere la forma di un’industria ben strutturata, dotata di figure professionali particolari e che segue fasi di lavorazione precise, che possono essere riassunte in una sequenza: soggetto/sceneggiatura, personaggi, storyboard, rullo di prova, animazione, operazioni conclusive. L’ingresso dell’informatica nel mondo dell’animazione 2D ha portato più di un’innovazione tecnologica che progettuale. I programmi utilizzati si inseriscono nella fase dell’animazione, lasciando inalterate le fasi di stesura del soggetto, dello storyboard e della progettazione dei personaggi. Il metodo per produrre animazione bidimensionale a computer vede la creazione ed elaborazione di ogni fotogramma dell’animazione con tecnologie informatiche e quindi montaggio dell’animazione. Un esempio classico di elaborazione è il chrome key,12 molto utilizzato negli effetti speciali per cinema e televisione. Questa tecnica nasce dall’esigenza di sovrapporre parti di due o più animazioni di provenienza diversa, in una sorta di fotomontaggio animato che sfrutta le trasparenze. Le applicazioni di questa tecnica sono numerosissime e possiamo osservarle quotidianamente in televisione durante telegiornali e spettacoli di vario tipo, o al cinema, in cui sono largamente diffuse. Ricordiamo alcuni esempi. I fantasmi di Ghostbusters II; L’inseguimento su skateboard volante in Ritorno al Futuro III; numerose scene in La Morte ti fa bella; Forrest Gump (tra cui la famosa stretta di mano con Kennedy), Matrix e Star War – Episodio 1. 12 Chrome key: Il chrome key permette di unire due sorgenti video, sfruttando un particolare colore (appunto il "colore chiave") per segnalare alla consolle video quale sorgente usare in un dato momento: supponendo di avere un video di sfondo e il video di un presentatore che si muove su uno sfondo uniforme di colore chiave, la consolle video trasmetterà in uscita il video del presentatore soltanto nei punti con un colore diverso dalla chiave: nei punti del video in cui c'è il colore chiave, invece, la consolle userà il video di sfondo. In altre parole, il colore chiave viene interpretato dalla consolle video come "trasparente". La tecnica del chroma key ebbe una prima versione con il Blue Back (alle scene con gli attori venivano integrate scene girate altrove). Viene realizzata attualmente tramite il cosiddetto Green screen (in precedenza Blue screen, derivazione del Blue Back). Tratto da: http://it.wikipedia.org/wiki/Chroma_key 10 11 2. Modellazione Prima di addentrarci nell’analisi è necessario soffermarsi sull’origine dell’animazione. Oggetti e personaggi di una scena infatti sono il frutto dell’operazione di modellazione. 2.1 Modellazione nel piano Alla base di ogni elemento troviamo i metodi della modellazione geometrica. Nella geometria euclidea gli oggetti fondamentali sono punti, linee e piani. I punti possono essere definiti con una coppia di coordinate. Generalmente si usano x per l’asse orizzontale ed y per l’asse verticale. Le linee congiungendo i punti permettono di determinare le proprietà dei punti che si utilizzano per tracciarle. Le coordinate geometriche di un punto ne individuano la posizione nel piano rispetto ad un sistema di riferimento scelto liberamente. Una forma geometrica nel piano può essere raffigurata come una serie di segmenti, alcuni con gli estremi in comune; in questo modo possiamo costruire dei segmenti e delle spezzate. Altre forme possono essere descritte con delle funzioni oppure secondo i metodi della geometria costruttiva, come “luoghi di punti”. I luoghi di punti sono, ad esempio, circonferenze, rette…: per tracciarli occorre conoscere la proprietà e costruire delle spezzate, più o meno accurate, che congiungono i punti che soddisfano la proprietà scelta. Emergono quindi due questioni: per disegnare forme con l’aiuto dell’elaboratore è necessario in primo luogo conoscere una serie di punti significativi e, successivamente, congiungerli per creare segmenti, con i quali potremo disegnare poligoni, funzioni o curve con determinate proprietà geometriche e con il grado di accuratezza che desideriamo. La seconda questione riguarda il problema di come trasformare la conoscenza delle coordinate geometriche dei punti e dei segmenti, in conoscenza relativa alla posizione materiale della penna meccanica sul foglio di lavoro – o di quel pixel sullo schermo debba venire attivato per raffigurare il pixel o il segmento. In ogni caso, questa metodologia è il pilastro della modellazione geometrica per la creazione di immagini sintetiche. Gli elementi del disegno sono organizzati in oggetti, ogni oggetto è composto da segmenti e ogni segmento da una coppia di vertici: qualche segmento può avere vertici 12 in comune con altri segmenti e qualche oggetto può avere segmenti in comune con altri oggetti. In questo modo si evitano duplicazioni di informazione. 2.1.1 Rasterizzazione Gli elementi geometrici sono anche chiamati primitive grafiche perché possono essere direttamente tracciati sullo schermo sfruttando operazioni elementari. Il procedimento che permette di raffigurare queste primitive viene chiamato rasterizzazione13 o scan conversione. Il problema da risolvere consiste nel decidere quali pixel devono essere attivati per raffigurare un segmento (Es: Dato un segmento tracciato obliquamente è necessario stabilire quali pixel vanno attivati per continuare a tracciare il segmento). Il procedimento quindi consiste nel valutare quali variabili è opportuno attivare. I criteri di decisione sono molti, il più usato è quello di J.E. Bresenham. Consiste nel valutare se il punto ha superato la mezzeria tra la linea superiore e quella inferiore. Questo metodo evita calcoli inutili ed il risultato sarà che al variare della pendenza, segmenti di uguale lunghezza avranno una densità di pixel variabile. In conseguenza di ciò le linee di diversa pendenza avranno luminosità diverse: massima per le verticali e le orizzontali e minima per quelle di 45°. Una tecnica per attenuare l’effetto seghettato delle linee più pendenti è quello di ricorrere all’anti-aliasing14 13 Rasterizzazione: La rasterizzazione è il lavoro di convertire un’immagine bidimensionale descritta da vettori (in grafica vettoriale), in un’immagine raster o bitmap, ovvero formata da pixels. Questo lavoro è effettuato sia per ottenere un’immagine proiettabile su dispositivi video, come i monitors, sia per la stampa. Tratto da: http://it.wikipedia.org/wiki/ Rasterizzazione 14 Anti-aliasing: L'antialiasing (delle volte abbraviato con AA) è una tecnica per ridurre l'effetto aliasing (scalettamento) quando un segnale ad alta risoluzione viene mostrato a bassa risoluzione. L'antialiansing ammorbidisce le linee smussando i bordi e omogeneizzando l'immagine. Tratto da: http://it.wikipedia.org/wiki/Antialiasing Fig 5) Fonte: http://rhein-zeitung.de/on/98/09/17/magazin/news/gump_kennedy.jpg Fig 6) Fonte: http://www.richleader.com/images/Pulse/bargainbin/bargain_bin_review/anti-aliasing.png 13 2.1.2 Clipping Il clipping è il procedimento che risolve il problema di mostrare o stampare porzioni di un disegno che cadono al di fuori dell’area scelta. Per risolvere ciò si suddivide il piano in 5 regioni, di cui una è l’area di disegno stessa e le altre quattro sono i semi piani esterni, delimitati dalle quattro rette che passano per i contorni dell’area di disegno, che chiamiamo finestra. Il clipping classifica ogni punto di ogni segmento rispetto a queste rette, decidendo a quale semipiano appartiene. Questo metodo è molto efficiente poiché non richiede calcoli complessi. 2.1.3 Trasformazioni Una volta disegnato l’oggetto, può essere utile e necessario eseguire alcune modifiche su di esso. Le modifiche vengono chiamate trasformazioni geometriche e sono: la traslazione, la rotazione e la trasformazione di scala. - per traslare un punto o un’intera figura basta sommare alle coordinate di ogni punto la quantità desiderata e ridisegnare l’intera figura. - per trasformare in scala è necessario invece moltiplicare o dividere la figura o solo una sua parte - per la rotazione invece è obbligatorio traslare la figura all’origine del sistema di riferimento, ruotarlo a nostro piacimento modificando le variabili angolari e traslandolo nuovamente nella posizione di partenza o un’altra posizione. 14 Esistono poi le trasformazioni anamorfiche che considerano il piano come un insieme infinito di punti posti in corrispondenza di numeri complessi traendo il vantaggio di semplicità, eleganza e maggiore varianza. Tra le trasformazioni anamorfiche troviamo le trasformazioni di Möbius chiamate anche trasformazioni omografiche. Altra tecnica di trasformazione interessante e di notevole rilevanza è il morphing ovvero la deformazione. Un esempio di questa tecnica si incontra in numerosi effetti speciali del cinema di intrattenimento, ricordiamo ad esempio il braccio dell’androide trasformato in una lama d’acciaio nel film Terminator 2.15 2.2 Modellazione nello spazio I concetti che abbiamo appena visto si possono generalizzare allo spazio tridimensionale nel quale sono descritte forme geometriche che rappresentano superfici non piane e volumi complessi. Anche in questo caso la primitiva di base è il punto, descritto ora da 3 coordinate reali x, y, z e ancora troviamo la primitiva segmento composta da due punti in relazione tra loro. Una scena è composta da un insieme di oggetti di forma poliedrica, ovvero costituiti da facce piane. Queste sono le figure più semplici che possiamo costruire con un sistema grafico. Un poliedro permette di rappresentare con una buona approssimazione anche oggetti costruiti da superfici curve (sfere, cilindri ecc.). Gli oggetti possono essere pieni o privi di alcune facce, e in tal caso la struttura che abbiamo definito poco Fig 6) Terminator 2. The http://www.gruponemesis.com/fx/efect/morph/morph02.jpg 15 Judgement Day. Fonte: Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 64-80 15 sopra contiene tutta l’informazione necessaria a decidere se ci troviamo di fronte a un volume pieno oppure no. La forma di rappresentazione più semplice che si adotta per descrivere modelli geometrici solidi è il triangolo. Descrivere infatti un solido attraverso la triangolazione o tassellazione, comporta un vantaggio importante: poiché per tre punti nello spazio passa uno e un solo piano, una faccia triangolare definita dai suoi tre vertici evita il rischio di creare facce non piane. Se le facce fossero descritte con dei quadrangoli non avremmo la certezza che i loro quattro vertici giacciano tutti su un medesimo piano. Il problema sta nell’individuare il giusto numero di triangoli. L’accuratezza di descrizione dell’oggetto cresce aumentando il numero dei triangoli. Se però il numero cresce eccessivamente, la complessità di calcolo necessaria ad elaborare la figura diventa intollerabile. Occorre quindi trovare un equilibrio tra accuratezza ed efficienza.16 2.2.1 Schemi di rappresentazione Il principale metodo di costruzione di modelli geometrici tridimensionali si fonda su un’approssimazione poliedrica delle superfici. La conoscenza accurata della superficie dei modelli geometrici è indispensabile affinché questi siano visualizzati con sufficiente realismo visivo e con sufficiente efficienza, giungendo persino ad una visualizzazione che può essere modificata in tempo reale. Dal punto di vista matematico gli schemi di rappresentazione per le superfici sono di due classi: i poliedri e le superfici parametriche. 2.2.2 Poliedri Un poliedro è uno schema di rappresentazione molto appropriato per rappresentare oggetti composti da superfici piane, ad esempio una stanza o un edificio. Indispensabile è la scelta del piano di lavoro poiché occorre indicare al programma su quale piano si sta operando. Nella modellazione 3D si adottano almeno tre piani principali che si identificano come i piani associati al sistema di riferimento principale. Sulle facce degli oggetti costruiti in questo modo si possono applicare le trasformazioni di traslazione, rotazione o scala per spostarli, ruotarli e rilasciarli nel 16 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 86-89 16 modo desiderato e rispetto al piano di lavoro scelto. Un insieme di oggetti è chiamato volume. Per costruire un volume è necessario aggregare gli oggetti selezionandoli e costruendo con quell’insieme un oggetto con un determinato nome e con determinate proprietà. 2.2.3 Superfici Parametriche In lingua inglese per denotare queste forme si usa il termine spline che in italiano significa dima o sagoma. Si tratta dello strumento che i disegnatori chiamano curvilineo e che permette di tracciare curve con raggio variabile mettendo insieme diversi tratti. Negli anni ‘60 P.Bézier riprese questi concetti per sviluppare un metodo innovativo per il disegno di carrozzerie di autoveicoli, un metodo che prese il suo nome: curve e superfici di Bézier. Alla base del metodo di Bézier si trovano due esigenze e un’idea. La prima esigenza è che la curva deve poter essere descritta matematicamente in modo da poter calcolare le coordinate spaziali di ogni punto su di essa; la seconda esigenza è che la curva deve poter essere modificata liberamente, conservando però alcune proprietà fondamentali: deve essere smussata e dev’essere continua, ovvero priva d’interruzioni. L’idea è che una linea curva nello spazio può essere controllata con pochi punti, per cui modificando questi pochi punti si modifica l’aspetto generale della curva. Il limite principale di questo metodo è che le funzioni parametriche di Bézier così costruite permettono di disegnare curve aperte e non consentono di disegnare l’infinita varietà di forme che desideriamo. Per fare ciò esiste una condizione: che il punto finale di una curva coincida con il punto iniziale della successiva. 17 Anche per le superfici di Bézier valgono le proprietà delle curve: continuità, smussatezza, tangenza agli estremi. Modificando la posizione dei punti di controllo modifichiamo la forma della superficie. Un’importante generalizzazione delle curve sono le NURBS (Non Uniforms Rational B_Splines), adottate in tutti i più moderni sistemi di modellazione geometrica sia per il CAD (Computer Aided Design), sia per applicazioni creative. Attraverso le NURBS possiamo modificare anche i pesi delle varie funzioni accrescendo la libertà e la flessibilità della modellazione.17 Anche per le superfici NURBS esistono diversi approcci e uno dei più utilizzati è l’unione di patch. Le patch sono superfici NURBS quadrangolari che in successione vengono agganciate fino ad ottenere la forma desiderata. Uno dei grandi vantaggi delle superfici parametriche è la possibilità di decidere l’accuratezza geometrica nella fase di rendering. 17 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 96-102 Fig 7) Superfici Parametriche. Fonte: http://psycho.usr.dsi.unimi.it/~spa/corso9798/f513a.gif Fig 8) NURBS. Fonte: http://www.etereaestudios.com/worksweb/tutankhamon/tutankh_nurbs.jpg 18 2.2.4 Costruzione di superfici per trascinamento Un vasaio dà forma al vaso facendo ruotare attorno a un asse la massa di creta e modellandola con le mani o con sagome di legno: le mani e le sagome di legno generano curve che possiamo approssimare con curve di Bézier; la rotazione genera una superficie trascinando per rotazione sia i punti di controllo del poligono iniziale sia qualunque punto sulla curva. Questa tecnica è chiamata sweep (trascinamento) di rotazione, e permette di creare forme dotate di simmetria assiale, come appunto un vaso.18 In pratica, occorre disegnare la sezione (profilo) del modello, scegliere l’asse attorno al quale la sezione dovrà essere interpolata e i gradi di rotazione. Il lofting invece, consente di interpolare fra loro un numero arbitrario di sezioni e può essere usato per ottenere una qualsiasi forma tridimensionale.19 Il “metodo loft” può risultare comodo per costruire ad esempio una piramide, dove ogni strato è una sezione che verrà poi interpolata computazionalmente dal software per dargli l’aspetto solido e non più piano. 2.2.5 Superfici di Suddivisione Le superfici di suddivisione (suddivision surface) stanno per diventare lo standard nell’ambito dei film d’animazione 3D e degli effetti speciali. Esistono differenti 18 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 103-104 19 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 140 Fig 9) Trascinamento. Fonte: http://www.tipus.uniroma3.it/DCaad/CAAD-04/lezCAAD_LS/immagini/sweep.jpg 19 tipologie di superfici di suddivisione ma la più diffusa è la Catmull-Clark, ideata nel 1978 con l’estensione di Tony D.DeRose del 1998. Ed Catmull è stato uno dei fondatori della Pixar e dal 2001 ne è presidente. Superfici Catmull-Clark sono state testate in produzione per la prima volta nel cortometraggio Geri’s Game20 prodotto dalla Pixar e successivamente usate nel film A Bug’s Life (A Bug’s Life: megaminimondo) prodotto da Disney/Pixar nel 1998. Pur essendo matematicamente differenti sia dai poligoni che dalle superfici parametriche, uniscono il vantaggio della flessibilità d’uso dei poligono con la precisione delle NURBS. Inoltre queste superfici possono essere generate da una forma poligonale arbitraria ed è possibile definire per ogni spigolo della geometria il grado di smussatura. Per il modellatore, l’approccio è identico alla modellazione per poligoni.21 2.3 Modelli Avanzati È possibile creare modelli geometrici, piani o spaziali non solo con metodi interattivi o per conversione tra schemi di rappresentazione, ma anche con metodi matematici, tra i quali un ruolo di grande rilievo hanno i frattali. I modelli geometrici, infatti, possono anche essere il risultato del calcolo di modelli matematici di processi chimici, fisici, biologici. In questi ultimi casi spesso la rappresentazione geometrica ha 20 Al Siggraph '98, la Pixar inaugurò un cortometraggio intitolato Christened Geri’s Game, che vinse l’Academy Award ed ebbe numerosi riconoscimenti "la storia di un anziano un poco strambo, a cui piace giocare a scacchi nel parco contro se stesso". Tale cortometraggio non fu solo artisticamente sbalorditivo, ma era anche tecnologicamente avanzato. Il filmato servì come veicolo per dimostrare l’evoluzione della Pixar nella realizzazione di particolari superfici basate su schemi conosciuti come subdivision surfaces. Tratto da: http://www.visingenii.com/pagine/varie/subsurf/sub.htm Fig 10) Geri’s Games. Fonte: http://visindavefur.hi.is/myndir/geris_game_110103.jpg 21 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 142 20 un valore metaforico in quanto mezzo di rappresentazione intermedio a un processo di raffigurazione, chiamato visualizzazione scientifica. 2.3.1 Modelli frattali Negli Anni ’80 fecero grande impressione immagini create studiando il comportamento di particolari trasformazioni nel piano dal punto di vista grafico-visivo, tra cui l’insieme di Mandelbrot, studiato da B.B. Mandelbrot come soluzione di un’applicazione ripetuta di una trasformazione quadratica dal piano complesso.22 I frattali erano già noti ai matematici intorno al ventesimo secolo, ma solo nel 1982 Benoit Mandelbrot, ricercatore dell’IBM, pubblicò un libro dal titolo Fractal Geometry of Nature e introdusse così il legame tra i frattali e una descrizione matematica di forme naturali. Successivamente altri matematici e programmatori pubblicarono testi e scrissero software che aumentavano le possibili applicazioni, nel 1993 venne presentato il software MojoWorld. Un frattale può essere descritto in diversi modi: un oggetto complesso, la cui complessità deriva dalla ripetizione di una forma a scale differenti, o una forma geometrica che è ripetuta a differenti scale per ricreare una nuova forma o superficie che non può essere rappresentata da una classica geometria. Questa ripetizione è chiamata self-similary. Un frattale è infatti simile, in scale diverse, alla sua forma originale; per questa caratteristica di scalabilità i frattali sono impiegati per la simulazione di forme naturali. Se infatti pensiamo ad una fotografia di una roccia, è possibile non capirne le dimensioni reali e confondere la porzione di una parete di una montagna con la superficie di un sasso. Anche alcuni fenomeni celesti, come le galassie, possono apparire di forma del tutto simile a una nuvola di fumo di pochi centimetri.23 22 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 134 23 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 145-146 Fig 11) Frattali. Fonte: http://www.marcostefanelli.com/subliminale/mandelbrot.jpg 21 I frattali, inventati da B. Mandelbrot nel 1975, costituiscono una categoria di modelli geometrici molto particolare: come già detto, hanno la caratteristica di poter rappresentare con grande accuratezza forme naturali, come il profilo di montagne, le coste di un’isola, la distribuzione di rami di un albero. Alcune di queste forme hanno caratteristiche casuali, altre corrispondono a leggi e proprietà regolari; tutte hanno però in comune almeno una delle proprietà fondamentali dei frattali: l’autosomiglianza e l’erraticità. Il nome stesso, ideato da Mandelbrot, derivato dal latino fractum, indica il carattere di elevata frastagliatezza di queste forme. L’autosomiglianza è la proprietà che possiede ad esempio una foglia di felce, composta da elementi che riproducono l’intera foglia nel suo insieme e così via fino a un limite determinato. Autosimile, dal punto di vista matematico, significa che una struttura geometrica è simile a se stessa o a parti di sé a meno di una trasformazione di scala. In altre parole, se ingrandiamo o rimpiccioliamo una forma frattale ritroviamo nei particolari, o nell’insieme, la medesima forma. Frattali nel piano Un esempio classico di forma autosimile è la curva di Von Kock, una spezzata costruita in modo che ogni suo segmento riproduca l’intera spezzata ad ogni ardine di scala possibile. 22 L’erraticità è una proprietà più complessa da descrivere; indica in che misura la forma varia le proprie caratteristiche, se lo fa in modo più o meno casuale e se tale variazione è più o meno evidente. Per appoggiare l’intuizione, pensiamo al profilo di una montagna o al profilo di una collina: il primo, di solito, è molto più irregolare del secondo. Le colline sono smussate e hanno profili morbidi, le montagne alternano guglie a valli alte e profonde. Diciamo che il profilo collinare è meno erratico di quello montano. Questa proprietà può essere caratterizzata matematicamente con grande precisione, ed è legata alla dimensione frattale della superficie o della forma che stiamo considerando. Per dimensione in generale intendiamo il numero di gradi di libertà o di variabili indipendenti necessarie ad individuare ogni punto nell’insieme considerato. Se si tratta di una linea sarà sufficiente una variabile, per una superficie avremo bisogno di due variabili, per un volume ne occorreranno tre. Questa nozione di dimensione dà origine a valori strettamente interi: 1,2 o 3 rispettivamente. Nel caso di forme frattali ci troviamo di fronte a una dimensione che non è intera, ma assume un valore frazionario; in altre parole: per caratterizzare pienamente l’erraticità di un frattale è necessario un numero di gradi di libertà non intero, frazionario, e quindi una dimensione non intera. Supponiamo di avere una superficie che modifichiamo progressivamente cambiando l’altezza di una serie di punti scelti a caso e con valori molto variabili. All’inizio la superficie è molto smussata, dopo un poco incominciano ad apparire picchi e valli sempre più ripidi e più fitti, fino ad arrivare ad un punto in cui non si riconosce più una superficie ma un volume completamente pieno di picchi e valli. In questo caso, per individuare la posizione di un punto, all’inizio ci bastano due coordinate, ma alla fine ne abbiamo bisogno di tre, in quanto il fitto alternarsi di picchi e valli ha interamente riempito il volume. In questo procedimento ci troviamo a un certo punto a 23 metà strada tra una dimensione a 2 e una dimensione a 3, con una dimensione non intera: siamo quindi in presenza di un frattale. Superfici frattali La situazione è un po’ diversa se abbiamo a che fare con superfici anziché con curve. In generale le forme frattali si prestano molto bene, come detto, per rappresentare superfici naturali, paesaggi, piante ecc. per un modello del terreno si usa creare un DEM, Digital Elevation Model, ovvero una superficie poliedrica, in generale a facce triangolari, in cui ogni vertice ha una determinata altezza sul livello del mare. Un modello geometrico di questo genere può essere approssimato da un frattale, pur di conoscerne la dimensione non intera, che ne determina il grado di erraticità. Supponiamo di voler approssimare in modo frattale i dati di elevazione di una zona di terreno nota; dobbiamo prima di tutto calcolarne la dimensione frattale ricorrendo a una stima approssimata. Un modo per approssimare la dimensione frattale è la dimensione del box counting. Supponiamo di voler ricoprire la superficie con tante scatole via via più piccole che la racchiudono in ogni punto (questo procedimento equivale, in due dimensioni, a inseguire un contorno con un righello misurandone ogni tratto e sommando i risultati così ottenuti). Una volta nota la dimensione del frattale, possiamo utilizzarla per modificare i dati originari del modello del terreno costringendolo ad avere un’erraticità corrispondente alla dimensione frattale appena stimata. Questo passaggio si compie in molti modi, il più semplice è chiamato mid point displacement: presi due punti contigui del DEM originario si genera un nuovo punto intermedio tra i due spiazzato rispetto ad essi nelle tre direzioni di una quantità proporzionale alla dimensione frattale desiderata. Questo procedimento può essere ripetuto più volte per 24 ogni coppia di punti, raffinando così il DEM che approssima in modo frattale il paesaggio.24 Sistemi di Lindenmeyer La modellazione è un processo che richiede molto tempo; per ricreare la forma di un corpo umano attraverso poligoni, NURBS o suddivision surface, il modellatore può impiegare diversi giorni: dovrà muovere ogni parte della geometria nella posizione spaziale corretta, e in alcuni casi questo approccio “manuale” può risultare altamente inefficace. Ad esempio pensare di modellare un albero o un prato con l’ausilio di poligoni, NURBS o suddivision surface è teoricamente possibile, ma di fatto impraticabile per questioni di tempo. In questi casi vengono usati sistemi di modellazione procedurali i quali consentono di modificare la superficie attraverso una serie di parametri ognuno dei quali è legato a diverse funzioni matematiche. Uno dei più noti sistemi procedurali per la generazione di elementi naturali è l’Lsystem, dal nome del biologo Aristide Lindenmeyer che nel 1969 lo ideò: l’idea che sta alla base dell’L-system è la ripetizione di una regola che si modifica ad ogni duplicazione.25 Diamo dell’L-sytem una nozione intuitiva basata sulla cosiddetta geometria della tartaruga (si immagina una tartaruga che porta legata alla coda una penna che può alzare e abbassare; la tartaruga può muoversi in avanti o ruotare a destra e a sinistra di un angolo qualsiasi). Una qualsiasi curva di Von Kock, può essere descritta, al primo livello, come una successione di ordini alla tartaruga del tipo: abbassa la penna, avanza di un passo, ruota a sinistra di 60°, avanza di un passo, ruota a destra di 120°, avanza di un passo, ruota a sinistra di 60° avanza di un passo. Questa serie di istruzioni può essere codificata con una sequenza di simboli: con il simbolo F denotiamo il comando “avanza con la penna abbassata”, con il simbolo f il comando “avanza con la penna alzata”, con il simbolo + Fig 12) Curva di Von Koch. Fonte: http://www.matematicamente.it/immagini/curva_di_koch.jpg Fig 13) Mid Point Displacement. Fonte: http://www.lighthouse3d.com/opengl/terrain/mpd5.jpg 24 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 129-136 25 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 142 25 indichiamo il comando “gira a destra di un dato numero di gradi”, con – “gira a sinistra di un dato numero di gradi”. Con questi simboli gli ordini per tracciare il primo livello del fiocco di neve sono, supponendo che la rotazione sia di 60°: F-F++F-F Per ottenere la curva frattale completa occorre aggiungere una regola che ad ogni ripetizione sostituisce un simbolo con una nuova sequenza di simboli (che chiamiamo stringa). Nel nostro caso la regola, indicando con “→” l’operazione di sostituzione, sarà: F → F-F++F-F e la lunghezza del passo dovrà essere ridotta di 1/3. Ciò significa che ogni passo del livello precedente viene sostituito dalla serie di passi base accorciati opportunamente. Questo procedimento cattura il carattere intrinsecamente ricorsivo che hanno le forme frattali. Dal punto di vista matematico, un metodo come quello descritto corrisponde alla definizione di una grammatica, in cui deve essere presente un assioma, ovvero una stringa e una regola di produzione, ovvero come deve essere rimpiazzato ogni elemento della stringa iniziale ad ogni passo di iterazione necessario alla generazione di una frase. A questo principio si possono aggiungere moltissime varianti: la regola di produzione può essere applicata sia ad un singolo passo sia ai vertici creati durante un’iterazione precedente, la rotazione a destra o a sinistra potrebbe essere variabile secondo qualche regola oppure può essere un valore scelto casualmente durante l’esecuzione del compito. Si possono inoltre definire più regole di produzione che sostituiscono ad uno stesso simbolo stringhe diverse secondo una probabilità associata a ciascuna delle regole, in modo che ad ogni iterazione venga scelta una delle regole di sostituzione secondo il proprio valore di probabilità. I risultati che si possono ottenere sono infiniti. Per modellare le ramificazioni di un albero o di una pianta sarà sufficiente riconoscere la regola generale che sta alla base del processo di formazione. Lo scheletro della forma così vincolata potrà in seguito essere “vestito” e abbellito con effetti grafici di maggiore o minore realismo. Per raffigurare forme nello spazio si possono estendere le regole di produzione alla terza dimensione, associando trasformazioni di rotazione, traslazione e scala ai vari passi del procedimento fino ad ottenere una struttura a scheletro tridimensionale 26 completa, che in seguito verrà utilizzata per associare attributi di apparenza visiva che portano al grado di realismo desiderato.26 Nel 1984 Alvy Ray Smith applicò l’L-system ad un software grafico e, nel 1990, Lindenmeyer e Prusinkiewicz scrissero un sistema completo di funzioni per la generazione geometrica di piante, alberi ed erba. Molti altri matematici e sviluppatori hanno poi contribuito a perfezionare questo sistema aggiungendo sistemi stocastici per i diversi attributi al fine di simulare con maggiore precisione le forme naturali. Attualmente tutti i programmi di modellazione 3D implementano moduli per la modellazione procedurale e alcuni di questi, come il programma Houdini della Side Effect, consentono l’accesso diretto al linguaggio di programmazione L-system.27 2.4 Modelli solidi La distinzione tra modelli solidi e modelli “non solidi” è rilevante non solo nel contesto degli utilizzi tecnico professionali – quali ad esempio il CAD, ma anche per usi diversi legati, ad esempio, all’intrattenimento, come i videogiochi o le animazioni cinematografiche. Infatti un modello tridimensionale solido presenta caratteristiche che interessano maggiormente gli aspetti costruttivi del modello. Se conosciamo anche la 26 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 136-138 27 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p.143 Fig 14) Forma naturali ottenute per mezzo di frattali. Fonte: http://innovis.cpsc.ucalgary.ca/3DWeb/projects/PlantswithHairs/smallpoppyRendering.jpg 27 struttura interna di un solido siamo infatti in grado di calcolarne proprietà importanti, quali la massa e il peso, e possiamo calcolarne anche le proprietà dinamiche. La conoscenza accurata della superficie dei modelli geometrici è indispensabile affinché questi siano visualizzati con sufficiente realismo visivo e con sufficiente efficienza, giungendo persino a una visualizzazione che può essere modificata in tempo reale. Per quanto riguarda i modelli solidi, gli schemi di rappresentazione principali sono tre: la geometria solida costruttiva, la rappresentazione per contorni e la rappresentazione per suddivisione spaziale.28 2.4.1 Geometria solida costruttiva - CSG Il primo schema di rappresentazione di modelli solidi è quello della geometria solida costruttiva, sinteticamente indicato con la sigla CSG (Contructive Solid Geometry). In questo approccio le forme vengono costruite a partire da una famiglia di volumi elementari: parallelepipedo, sfera, cilindro, cono, toro e prisma a base triangolare. Per poter quindi costruire volumi complessi a partire da volumi elementari occorre disporre di operazioni per unirle o separarle. Somma, sottrazione e scelta delle parti comuni corrispondono alle classiche operazioni (booleane) di unione, differenza e intersezione della teoria degli insiemi. 28 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 105 28 Questo procedimento può essere descritto in modo sintetico con uno schema, chiamato albero CSG: ad ogni foglia dell’albero corrisponde una forma elementare, ad ogni nodo corrisponde un’operazione base che unisce due rami, fino a giungere al tronco dell’albero che individua la forma finale. Un programma di modellazione CSG conserva al proprio interno una rappresentazione simbolica della forma basata sull’albero CSG, e il file stesso di modello dovrà conservare queste stesse informazioni. Il CSG dovrà inoltre consentire al disegnatore di definire ogni singola forma elementare indicandone i parametri fondamentali; il valore delle tre dimensioni per il parallelepipedo; il raggio di base e l’altezza per il cilindro e così via. Però ogni oggetto verrà definito nell’origine del sistema di riferimento assoluto, per posizionare gli oggetti elementari correttamente il disegnatore dovrà applicare a ciascuno di essi le trasformazioni di rotazione e di traslazione necessarie. 2.4.2 Rappresentazione per contorno La rappresentazione per contorno, chiamata anche brep o boundary representation, descrive un volume a partire dalle facce, dai vertici e dagli spigoli che lo delimitano. È importante considerare la formula di Eulero: numero_facce = numero_spigoli – numero_vertici + 2 Se questa relazione non è soddisfatta, quello che crediamo essere un solido in realtà può essere una scatola priva di una faccia o addirittura una figura inconsistente, con segmenti o punti isolati che non contribuiscono al contorno di alcuna faccia. Un solido rappresentato per contorno può essere composto mettendo assieme altri solidi seguendo la logica della CSG: in tal caso il risultato di un’operazione booleana tra due solidi rappresentati per contorno consiste in una nuova struttura dati che contiene nuovi spigoli, nuove facce o nuovi vertici che sono il risultato delle operazioni di intersezione tra i due volumi. 2.4.3 Suddivisione dello spazio: i voxel In questo caso si suddivide il volume che contiene l’oggetto che si desidera modellare in una griglia tridimensionale di posizioni e in ogni posizione si determina la 29 presenza o assenza di materiale. Con questa tecnica possiamo descrivere un volume composto da materiale uniforme ma anche un volume composto da materiali diversi e disomogenei; in questo caso ogni cella conterrà un valore numerico che rappresenta, ad esempio, la densità o il tipo di materiale che essa contiene. Questo elemento di volume viene chiamato solitamente voxel, ovvero pixel di volume. Una struttura a voxel può essere costruita in due modi distinti: partendo da una descrizione geometrica di una forma si può analizzarla variando con un passo regolare le tre coordinate x, y, z e valutando passo passo se nel punto considerato c’è o non c’è volume. L’altra modalità consiste nel creare un volume di voxel a partire da un procedimento di digitalizzazione. Quest’ultimo è il caso relativo alla TAC o alla risonanza magnetica nucleare (NMR). L’elaborazione di questi dati consiste in primo luogo nella classificazione dei voxel ovvero nell’attribuzione a ciascun voxel di una tipologia. Ad esempio nel campo medico occorre decidere a quale tessuto appartiene un determinato voxel. La scelta del metodo di classificazione consente di associare a ogni voxel un colore o un grado di grigio che apparirà nella fase successiva di visualizzazione. Un problema riguarda l’elevata complessità computazionale della qualità dell’immagine che si ottiene con queste tecniche di visualizzazione di volumi. 2.4.4 Primitive grafiche per gestire forme poliedriche Elaborando la geometria tridimensionale con un sistema grafico computazionale conviene utilizzare primitive grafiche più evolute, che consentono di risolvere con grande efficienza, e quindi velocità, i procedimenti di visualizzazione delle forme 30 modellate. Si tratta delle strisce di triangoli o delle maglie di quadrilateri (chiamate mesh), con cui rappresentiamo un poliedro qualsiasi o con cui approssimiamo superfici curve. Considerare come primitiva grafica una striscia di triangoli ha interesse soltanto dal punto di vista computazionale. Il vantaggio consiste nella semplificazione dei calcoli necessari a raffigurare queste strutture. Innanzi tutto ogni vertice appartiene a due triangoli, quindi lo dobbiamo registrare una sola volta. In secondo luogo la colorazione sfumata di una superficie che vogliamo far apparire curva e non spigolosa viene attuata con maggiore semplicità passando da un triangolo all’altro lungo la striscia. Analoghe considerazioni valgono per le maglie di quadrilateri.29 2.5 Trasformazioni nello spazio Una trasformazione è una funzione che trasforma punti (o vettori) nello spazio 3D in punti (o vettori) sempre nello spazio 3D. Un modo immediato per generalizzare le traslazioni, rotazioni e trasformazioni di scala dal piano allo spazio 3D potrebbe essere quello di estenderle semplicemente alla terza coordinata z, tuttavia non permette di cogliere i vantaggi sopra citati. Occorre quindi considerare uno spazio a 4 dimensioni, chiamato spazio delle coordinate omogenee, i cui punti rappresentano i punti 3D, a meno di un fattore si scala. Per applicare le trasformazioni a un oggetto tridimensionale occorre in primo luogo convertirne i punti in coordinate omogenee 4D, applicare ad ogni punto, visto come vettore, le trasformazioni necessarie, ritornare alle coordinate 3D applicando la divisione di ogni componente con la quarta. Questa sequenza di operazioni costituisce il nucleo di una sequenza di operazioni via via più complesse che svilupperemo in seguito e che viene chiamata pipeline di visualizzazione. Il senso di questo nome richiama l’idea che le operazioni necessarie a visualizzare una scena o un oggetto geometrico Fig 15) L’immagine esplica chiaramente le tre operazioni booleane riassumibili in unione, intersezione e differenza. Il primo riquadro in alto a sinistra mostra l’unione tra la sfera verde ed il cubo grigio. La seconda immagine in alto a destra, mostra invece l’intersezione dei due solidi. Il risultato è l’eliminazione di tutte le parti non intersecanti tra loro. Nel riquadro in basso a sinistra viene eseguita l’operazione di differenza della sfera dal cubo mentre nell’ultimo riquadro in basso a destra la differenza è svolta per opera del cubo. Fonte: http://www.linuxgraphic.org/section3d/articles/ArticAyamCSG/CSGTV.png Fig 16) Voxel. Fonte: http://www.effectware.com/download/images/efx_voxel2.jpg 29 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 105-112 31 sono scomponibili in fasi successive e possono essere eseguite in una sequenza preordinata. 2.5.1 Modellare con le trasformazioni In generale le trasformazioni necessarie a istanziare più volte un oggetto sono traslazioni, rotazioni e, qualche volta, trasformazioni di scala. L’ordine con cui le trasformazioni devono essere eseguite è però importante: prima si esegue la scala, poi la rotazione e infine la traslazione; essa deve essere lasciata per ultimo allo scopo di ruotare l’oggetto attorno al proprio centro. Per compiere queste trasformazioni si usano le matrici. Un aspetto importante è che le trasformazioni possono essere applicate più volte. Ciò si rende necessario, ad esempio, quando si desidera trasformare una struttura per creare un’animazione. Pensiamo ad esempio a una figura come un manichino: ad ogni istante dell’animazione le braccia, le gambe, la testa, il tronco modificano la loro posizione mediante rotazioni applicate ai singoli giunti. Queste rotazioni vengono applicate ad ogni giunto della struttura articolata, perciò la rotazione della mano avviene in una configurazione che ha già dato luogo alla rotazione del braccio e prima ancora a quella della spalla. Questa catena di trasformazioni si attua attraverso successive applicazioni di matrici di rotazione agli elementi della struttura geometrica. Alla fine di questa catena incontriamo la trasformazione generale che trasla o ruota l’intera struttura. Per gestire la catena di informazioni di trasformazioni i programmi di animazione mantengono memoria delle varie matrici attraverso una struttura che organizza i dati come una pila di piatti, chiamata stack.30 30 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 112-116 32 3. Animazione Tridimensionale Anche l’animazione tridimensionale ha una storia, antecedente l’era del computer, ricca di produzioni e tecniche. Come per il 2D, una conoscenza delle metodologie di produzione non informatiche ci aiuta a comprendere meglio i meccanismi ed i motivi che hanno portato all’attuale animazione 3D a computer. Sia l’animazione tradizionale che quella 3D iniziano in modo simile il processo della pre-produzione. In entrambi i casi viene creato il design 2D per personaggi, ambienti e oggetti; le parole della sceneggiatura sono visualizzate sullo storyboard, e anche la produzione dell’animatic è molto simile. È il layout 3D che segna la prima differenza tra le due tecniche. Nell’ambito delle due dimensioni i fotogrammi si ottengono fotografando la pila di livelli (reali o informatici); nel 3D i fotogrammi si ottengono fotografando lo stato della scena soggetto dell’animazione. L’animazione tridimensionale, in tal modo, diventa un filmato bidimensionale, su pellicola o su file.31 Elementi principali di una scena sono l’ambientazione (enviroment), gli oggetti (prop) che vi sono contenuti, i personaggi (character) che vi si muovono, le luci (light) che la illuminano e i punti di vista attraverso cui la si osserva e fotografa. Fondamentali sono anche il design delle ambientazioni, gli sfondi (background) e le illustrazioni colorate. Tutti questi elementi sono raccolti nella style guide, una guida stilistica creata raccogliendo tutto il materiale realizzato nella fase di modellazione e design.32 3.1 Elementi Ambientazione Le ambientazioni sono i luoghi o i set materiali e/o virtuali in cui la scena si svilupperà. 31 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 193 32 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 109 33 Oggetti Gli oggetti di una scena sono tutti gli elementi che la compongono e soprattutto che la animano. Dal punto di vista dell’animazione gli oggetti sono elementi dello sfondo o personaggi. Fanno parte dello sfondo tutti quegli oggetti che non variano né vengono spostati durante l’animazione. A seconda della scena e dell’animazione possono far parte dello sfondo alberi, rocce, palazzi, strade, arredi, oggetti di varia natura. Gli oggetti sono creati dal disegnatore del prop. La style guide comprende tutte le proiezioni ortogonali degli oggetti, la dimensione rispetto ai personaggi e alle ambientazioni e le linee guida che descrivono il funzionamento degli stessi. Dal punto di vista tecnico, la tipologia di oggetto dipende dal programma di modellazione utilizzato; in ogni caso l’oggetto è dotato di una certa quantità di parametri che ne definiscono la posizione e l’orientamento nello spazio, la dimensione, il colore, la trasparenza, il tipo di reazione alla luce, la ruvidità, il peso, l’elasticità, la morbidezza, la relazione con gli altri oggetti, e così via. Ogni parametro può variare nel tempo e quindi può essere animato. Fanno parte dello sfondo invece tutti quegli oggetti che non variano durante l’animazione. Personaggi Un personaggio è un oggetto della scena che si modifica durante l’animazione. In base al tipo di scena e di animazione, i personaggi possono essere alberi, rocce, palazzi, strade (Es: durante la simulazione di un terremoto), attori (reali o virtuali), arredi, agenti atmosferici e altro. I personaggi che popoleranno l’animazione vengono studiati e progettati, fino a produrre una serie di tavole (model sheet)33 che descrivono per ognuno di essi forma, dimensioni, colori e nel caso di esseri animati, fisionomia, posizioni, posture ed espressioni particolari, che servirà come riferimento durante la fase di animazione. La creazione del personaggio richiede un approfondito studio anatomico e caratteriale. Il primo ha lo scopo di costruire una struttura cinematica portante che ne consenta movimenti realistici (rispettando i gradi di libertà ed i vincoli delle articolazioni), e di modellarne l’aspetto esteriore in modo realistico e riconoscibile 33 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 110 34 (rispettando i rapporti massa/volume, l’anatomia reale, l’armonia tra movimento ed aspetto esteriore come nel caso del contrarsi dei muscoli e così via). Lo studio caratteriale tende a riportare nel movimento il carattere del personaggio tramite l’impostazione della velocità, della forza, delle movenze e delle gestualità tipiche, in relazione agli avvenimenti dell’animazione.34 In base alle scelte compiute durante la fase di analisi e progetto, viene costruito il modello, generalmente con una descrizione geometrica della sua struttura primordiale. Dopo questa fase i personaggi devono essere preparati al movimento attraverso la creazione del rigging. In base al tipo di cinematica adottata per l’animazione, è possibile dotare il modello di una struttura articolata portante, simile ad uno scheletro. Lo scheletro digitale diventa lo strumento attraverso il quale il character potrà essere messo in posa. La superficie del personaggio è agganciata allo scheletro attraverso lo skinning, in modo che la geometria possa deformarsi seguendo correttamente i movimenti delle ossa digitali sottostanti. Successivamente vengono definite le proprietà estetiche attraverso il texturing e lo shading. Design Il design delle ambientazioni rappresenta il modo in cui i personaggi sono immersi. La guida stilistica include design dagli esterni agli interni da diverse prospettive, una mappa schematica di tutti i set, disegni che indicano la fonte e la direzione della luce (light shot). Luci Animare le luci (lights) è essenziale per dare verosimiglianza allo svolgersi nel tempo dell’animazione: il variare della luce prodotta da una fiamma, l’orientarsi del fascio prodotto da un faro, l’alternarsi di chiari e scuri in un bosco, il movimento delle ombre nell’arco della giornata. Nella cinematografia tradizionale il controllo delle luci è un compito di un direttore delle luci e del suo staff. Anche le luci, come gli oggetti della scena, possono essere considerate come attori virtuali o luci di sfondo. Le luci di una scena sono generalmente di tre tipi: 34 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 198 35 - luci puntiformi (point light) - luci direzionali (directional light) - faretti (spot light) Per ogni tipo di luce è possibile assegnare determinati valori a parametri quali la posizione, il colore, l’intensità, la larghezza del cono prodotto, l’area di penombra ed altri, il cui numero varia a seconda del programma di modellazione utilizzato. La variazione nel tempo di ognuno di questi fattori determina l’animazione della luce. Sfondi Colorando gli sfondi si previsualizza l’atmosfera che si vorrà dare. La funzione di queste illustrazioni è stabilire il tono e lo stile di ogni sequenza. Illustrazioni Il direttore artistico seleziona le scene chiave che, per ogni sequenza, passeranno alla fase di coloritura. In questa fase si creano le illustrazioni colorate che raffigurano i personaggi e gli oggetti, si definiscono i colori per tutti gli elementi: dai costumi, alla pelle, ai capelli dei personaggi. Inoltre viene anche studiato l’aspetto cromatico in relazione a fonti di illuminazione diverse, stabilendo una palette colore per la notte, per il giorno, per la luce artificiale. Successivamente vengono realizzate tavole che mettono in relazione i colori degli ambienti con quelli dei personaggi e degli oggetti per cercare di trovare un’armonia tonale fra tutti gli elementi che comporranno il film. In questa fase vengono realizzate anche texture di riferimento, che in aggiunta allo studio dei materiali, consentiranno di ottenere l’immagine finale. Punti di Vista Il punto di vista è la posizione della telecamera con cui vengono effettuate le riprese. L’animazione dei punti di vista segue le stesse regole della regia dei movimenti e degli stacchi di camera in un set dal vivo. All’interno della scena è possibile posizionare telecamere virtuali, delle quali possiamo definire distanza focale, 36 orientamento e posizione, simulando il funzionamento di una telecamera reale. Chiamiamo punti di vista queste telecamere con cui gli algoritmi di rendering genereranno i fotogrammi dell’animazione. Ogni parametro delle telecamere può essere animato, seguendo le stesse regole di scelta dei movimenti di camera delle riprese nel mondo reale. L’animazione dei punti di vista equivale alla regia dei movimenti e degli stacchi di camera in un set reale, e ne segue le stesse regole. Per ognuno dei parametri animati in una scena, viene creata dal programma di animazione una curva di animazione che descrive l’andamento nel tempo del valore del parametro.35 3.2 Processo di produzione Il processo di produzione di filmati di animazione 3D è simile a quello per il 2D: concept, stesura del soggetto/sceneggiatura, progetto dei personaggi, storyboard, animatic, layout 3D, animazione, rendering, montaggio e post produzione. 3.2.1 Soggetto/sceneggiatura La chiave per il successo in ogni film d’animazione è una buona storia, se la storia è mediocre le possibilità di avere successo sono molto scarse. Il concept è la prima organizzazione razionale di un processo mentale irrazionale. L’autore cerca di organizzare i pensieri e di dare loro un legame logico. Dal concept si inizia ad estrapolare una breve storia, che costituirà il soggetto del film. Il soggetto è la base su cui si costruiranno le fasi successive della scrittura del film: il trattamento e la sceneggiatura. La trasformazione delle idee e delle azioni, da testo a piano organizzato in diverse scene, si definisce trattamento. Il trattamento del soggetto diviene una sequenza di punti a numerazione progressiva, nei quali si descrivono in ordine temporale i passaggi essenziali e importanti del soggetto. Ognuno di questi punti viene definito nei suoi elementi costitutivi fondamentali come la definizione del luogo, dell’ambiente interno o esterno, delle azioni, dei personaggi, dei dialoghi, degli effetti sonori e delle musiche. Ne risulterà una lista schematica di fatti e azioni. 35 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 194- 198 37 In questa fase è opportuno scrivere, sia pure in modo approssimativo, i dialoghi dei protagonisti, indicare la musica e gli effetti onomatopeici e quindi i rumori da inserire nei punti critici, particolari inquadrature ecc. La sceneggiatura è un testo tecnico/letterario e rappresenta la scomposizione analitica del racconto nei suoi particolari, dagli elementi dell’inquadratura a ogni parola del dialogo; non è altro che la descrizione dettagliata delle immagini che si prevede appariranno al pubblico. Una storia, un racconto, un’idea vengono adattati e trasformati in sceneggiatura per l’animazione, in modo del tutto simile a quanto accade per soggetti teatrali, televisivi o cinematografici. Anche nel caso dell’animazione l’adattamento tiene conto del pubblico cui essa è destinata, sia per fasce d’età sia per tipologie sociali e culturali. La sceneggiatura di animazione è in più ricca di azione e ha meno dialoghi rispetto alla sceneggiatura di un film dal vivo. 3.2.2 Storyboard Lo storyboard è il punto intermedio tra sceneggiatura e animazione. Per ogni punto saliente dell’animazione viene realizzato un disegno, a cui si accompagna una descrizione dello stato delle luci, dei punti di osservazione della scena, dell’accompagnamento sonoro e del dialogo, e qualche nota di commento. La lunghezza e la complessità dello storyboard dipendono dalle azioni previste per l’animazione. La qualità dei disegni può variare da semplici schizzi a immagini molto curate. Il regista ha così moltissime possibilità di progettare e modificare velocemente ogni aspetto del film. È molto importante comprendere innanzitutto quale sia il concetto di storyboard: è necessario pensare ad esso come allo schizzo del film. Lo storyboard non è utilizzato solo nell’animazione; registi di film live, sceneggiatori ed esperti di effetti speciali lo usano regolarmente come strumento per esternare le loro idee. Spesso per l’autore è molto difficile spiegare con chiarezza una storia immaginaria e può essere molto complicato descrivere un progetto ricco di elementi fantastici; lo storyboard può aiutare anche in questo passaggio critico. Questa è una fase in cui vengono investite molte risorse per evitare di dover risolvere eventuali problemi in fasi più avanzate della produzione. Se ci sono 38 incompatibilità, difficoltà ed ogni altra sorta di problema è qui che bisogna accorgersene ed intervenire. Le funzioni dello storyboard sono molteplici: - La prima è quella di concettualizzare il progetto. Lo storyboard è uno strumento per lavorare alla struttura e all’idea del film. Quando tutte le nozioni che si hanno in mente appaiono dettagliate e complete, disegnarle aiuta a renderle concrete. Il processo che consente di visualizzarle aiuta a trovare nuove soluzioni e stimola nuove intuizioni consentendo di individuare possibili problemi e di risolverli. - Altra funzione dello storyboard è quella di rappresentare tutti i momenti chiave del film. - Lo storyboard è utile anche per comprendere due elementi strutturali ingannevoli. Il primo è l’ordine o la sequenza delle scene individuali: è necessario capire se il pubblico sarà in grado di seguire il fluire della scena senza esitazioni e se l’enfasi è posta nel momento giusto. In secondo luogo è necessario capire se le transizioni tra le diverse scene siano corrette. - A volte lo storyboard è utile anche per comprendere quanti dettagli è necessario inserire nell’immagine finale. Ogni disegno dello storyboard può essere un semplice schizzo in bianco e nero o un disegno ricco di dettagli: dipende dalla possibilità di tempo e budget di produzione, ma ogni schizzo dello stesso storyboard necessita di essere disegnato allo stesso livello. Per ottenere una qualità omogenea, una volta completati tutti i disegni, è necessario revisionarli e se necessario correggerli, aggiungendo o togliendo dettagli. - Lo storyboard deve infine permettere di capire, anche dal punto di vista pratico, se è possibile realizzare il film. Esaminandolo, il regista, il produttore e il team artistico devono capire se ci sono tutti gli strumenti tecnici e le capacità necessarie, se si devono sviluppare nuovi software, quali saranno i costi e i tempi di produzione effettivi. Lo storyboard è scomponibile in tre fasi: piccoli schizzi (thumbnail), schizzi (rough pass) e pulizia dei disegni (cleanup). Nella prima fase gli artisti creano sullo stesso pannello molte piccole illustrazioni per rappresentare l’azione. Una volta che il regista ha visionato e approvato i thumbanil, si passa alla seconda fase, il rough pass, in cui vengono creati dei pannelli più grandi nei quali gli artisti possono disegnare i 39 personaggi e gli ambienti in modo più dettagliato. Se non ci sono cambiamenti da apportare, lo storyboard è pronto per l’ultima fase: il cleanup. In quest’ultima lavorazione i pannelli sono ridisegnati a grandezza piena, per poter inserire i dettagli necessari a completare ogni scena. Successivamente si realizzerà una copia digitale dei pannelli che verranno uniti cronologicamente in modo da creare un flipbook. La copia originale resta al dipartimento storyboard mentre copie dei flipbook sono distribuite ai montatori, al direttore artistico e al produttore. Lo storyboard è in grado di fornire molte indicazioni sull’aspetto grafico di una sequenza e sullo svolgersi di un’azione, ma una volta digitalizzato, sarà completato da un altro importantissimo elemento: la durata. Questo è il fattore principale che trasforma lo storyboard in animatic e, con l’aggiunta dell’audio, in leica reel.36 3.2.3 Animatic Creato dopo i pannelli dello storyboard e prima dell’animazione finale l’animatic rappresenta una fase intermedia nella realizzazione di un film. In una prima fase i pannelli dello storyboard vengono digitalizzati attraverso l’uso di software. I file vengono temporizzati, cioè ad ogni scena viene assegnata una durata necessaria allo Fig 17) Storyboard. Fonte: http://www.danhausertrek.com/AnimatedSeries/Storyboard.gif 36 Il nome Leica Reel deriva dalla fotocamera tedesca Leica utilizzata per filmare i disegni a matita, pencil test. Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 110-121 40 svolgimento dell’azione. La temporizzazione prosegue con l’ausilio di un sistema di montaggio. Le tracce audio precedentemente registrate vengono anch’esse digitalizzate e collocate nella giusta posizione temporale. L’animatic è utilizzato con un piano di partenza del progetto: il regista ha la possibilità di focalizzarsi sulla temporizzazione di ogni scena osservando sia i disegni che la traccia dei dialoghi modificando o eliminando le parti insoddisfacenti. Solitamente l’animatic include movimenti di camera e i personaggi possono essere animati attraverso due tecniche diverse: tagliati fuori (cutout) o pose grezze (rough pose); queste modifiche vengono solitamente eseguite utilizzando software di motion 2D. Nel cutout gli sfondi e i personaggi vengono separati e collocati su layer diversi; i personaggi saranno poi animati attraverso semplici traslazioni, rotazioni e scalature. Con il rough pose si disegnano invece più pose intermedie del personaggio per ogni scena, e tanto più numerose saranno le pose intermedie, tanto maggiore sarà il senso di fluidità delle azioni.37 3.2.4 Layout 3D Il layout si può definire come un’animatic a tra dimensioni. Nel momento in cui una sequenza dell’animatic è approvata, viene inserita nella fase di produzione. Il primo passo in questo processo è la creazione del layout 3D, che costituirà la prima versione tridimensionale del film. Mentre nell’animatic 2D i movimenti di camera sono tipicamente limitati a carrellate o zoom in e out, nel layout 3D è possibile ogni tipo di movimento. In questa fase l’enfasi è sulla temporizzazione, sulla rappresentazione e sulla composizione d’insieme. La creazione di un layout è costosa e lunga ma è uno strumento in grado di previsualizzare molti aspetti del lungometraggio e permette di risolvere in anticipo potenziali problemi. Per la sua realizzazione vengono create bozze dei modelli, delle ambientazioni; si definiscono le posizioni dei personaggi, le azioni e interazioni grezze, posizioni e movimenti di camera, angoli di ripresa, tipo di lente, situazioni di luce e così via. Una volta che una sequenza è approvata, è possibile utilizzare il layout come strumento di verifica per capire cosa sia necessario fare per migliorare ogni scena. 37 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 116-123 41 Diversi artisti attingono al layout per avere una traccia del lavoro che devono svolgere: i modellatori possono costruire i set partendo da quelli indicati nel layout; gli animatori lo studiano per capire il posizionamento dei personaggi in riferimento al background, alle azioni e ai tempi. Il layout può essere sfruttato anche dai lighter artists (artisti della luce) per determinare il posizionamento e la tipologia della luce da utilizzare. Spesso in molti studi vengono realizzati diversi layout e l’ultimo è sempre più dettagliato del precedente. Si inseriscono geometrie definitive degli ambienti, si sostituiscono gli spostamenti dei personaggi con le animazioni finali. Dopo che il regista ha dato le sue istruzioni per il completamento di ogni scena, i supervisori ne valutano la complessità. I membri dello staff coinvolti nell’analisi della complessità sono solitamente il regista, il produttore, il coordinatore artistico e il supervisore del layout. 3.3 Processo di Animazione Storyboard e layout 3D vengono utilizzati quindi, come riferimento per costruire tutta l’animazione. Nella prima fase viene analizzato il movimento di ogni elemento e si tracciano i movimenti salienti e le linee di energia. Inizialmente, gli elementi da animare venivano scomposti nelle loro parti e fotografati in posizioni successive differenti, come in una sorta di collage, andando dalla posizione iniziale alla finale, seguendo le traiettorie appena impostate. Nasce in questo modo il concetto di estremi di movimento. Per ogni sequenza di animazione vengono individuati un momento iniziale, un momento terminale e una quantità variabile di momenti intermedi più o meno salienti. Gli istanti intermedi vengono costruiti come interpolazione degli estremi e dei momenti salienti (keyframe). L’animatore è colui che determina gli estremi dell’animazione, mentre gli istanti intermedi sono generati dagli intercalatori (inbetween). Durante l’animazione tridimensionale entra in gioco la progettazione del movimento di camera: non basterà più disegnare il frame come da storyboard, dovremo configurare tutti gli elementi della scena (telecamere comprese) in modo tale che, ad ogni frame, la ripresa fornisca esattamente l’immagine desiderata. Il passaggio su pellicola avviene impilando i fogli trasparenti sui quali sono tracciati gli elementi da animare e fotografando ogni istante dell’animazione con una macchina fotografica montata in modo da riprenderli verticalmente. Una volta costruita l’animazione, la pellicola viene trattata in sala di montaggio per il montaggio del 42 sonoro. Diversamente dal cinema, le animazioni non necessitano di una fase di taglio e montaggio: i tempi e i contenuti delle scene sono stabiliti a priori.38 Un fenomeno basilare è l’illusione del movimento. Sullo schermo cinematografico vengono proiettati 24 fotogrammi al secondo (fps). I fotogrammi sono istantanee fotografiche fisse, nel caso del cinema d’animazione, sono immagini di singoli disegni. Nelle proiezioni cinematografiche il movimento viene quindi scomposto in 24 parti per ogni secondo, tuttavia percepiamo un movimento fluido e continuo e non distinguiamo minimamente la successione delle istantanee. Questo è dovuto a una caratteristica fisiologica del nostro occhio: la persistenza dell’immagine sulla retina. L’immagine che si forma sulla retina vi permane, in condizioni normali, per circa un decimo di secondo. Questo intervallo di tempo è relativamente lungo se confrontato con la frequenza dei fotogrammi proiettati sullo schermo. È chiaro come l’occhio non sia in grado di percepire separatamente tutte le 24 immagini proiettate nell’intervallo di un secondo. Ogni fotogramma riflesso dallo schermo cinematografico stimola gli occhi dello spettatore e si sovrappone all’immagine precedentemente percepita, creando l’illusione.39 3.3.1 Carattere dei personaggi Non è possibile descrivere in termini geometrici o fisici il comportamento di un attore virtuale che simula un personaggio umano; occorre un linguaggio nuovo e diverso. Distinguiamo due tipi di comportamento in un attore virtuale: un comportamento automatico (esecuzione di gesti del personaggio, compiuti in modo non ragionato) e un comportamento intelligente, (insieme di azioni e gesti compiuti con uno scopo e basati su conoscenza e ragionamento). Il comportamento automatico di un personaggio può essere programmato ed eseguito automaticamente dall’attore virtuale. Un insieme di gesti automatici attribuiti da attori virtuali si trova spesso in ambienti di realtà virtuale in cui gli avatar,40 nei 38 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 186-187 39 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 156-157 40 Avatar: Presso la religione Induista, un Avatar è l'assunzione di un corpo fisico da parte di Dio, o di uno dei Suoi aspetti. Questa parola deriva dal Sanscrito, e significa "disceso"; nella tradizione religiosa 43 momenti in cui non viene loro richiesta alcuna azione particolare, compiono costantemente piccoli gesti (dondolarsi, guardare l’ora, muovere i piedi, guardarsi attorno,…) allo scopo di dare l’impressione di non essere semplicemente oggetti-statue. Il comportamento automatico consiste quindi in un insieme di piccoli gesti ripetuti, chiamati gesti elementari, che possono essere tipici di tutta la persona o solo del volto e delle mani e la cui quantità può variare a scelta dell’animatore. L’animazione del volto è particolarmente importante, se consideriamo che le espressioni sono un complemento fondamentale della comunicazione orale. Un volto animato ma impassibile non ci fornisce informazioni, se non quella che si tratta di un viso sintetico. Come per il movimento della figura intera, anche nel caso del volto dobbiamo innanzi tutto studiare l’anatomia del modello che vogliamo animare (sia esso umano, animale o di fantasia) ed il modo in cui i suoi movimenti influiscono sulla comunicazione. Le espressioni, la loro intensità e durata, possono comunicarci dati sulla personalità ed il carattere del personaggio, sul suo umore, sulla sua sincerità, o aiutarci a comprendere il significato delle sue parole in presenza di rumore. Il movimento del volto viene ricomposto generalmente a partire dal controllo dei movimenti elementari della muscolatura, per realizzare le espressioni principali ed i movimenti della bocca e (più raramente) della lingua durante il parlato. L’animazione del volto può essere estremamente complessa o estremamente semplice, a seconda del grado di realismo del personaggio e delle scelte registiche . Nel caso di un’animazione semplice generalmente guance e fronte non si muovono. Le sopracciglia si alzano e si abbassano senza mutare forma, mentre le palpebre sbattono ad intervalli regolari automatizzati. L’attenzione è concentrata sulle labbra, che assumono un numero limitato di posizioni di base, a seconda che il personaggio stia tacendo, ridendo, urlando o parlando, pronunciando consonanti o vocali. Quanto più aumento il livello di realismo, tanto più l’animazione si fa complessa e tanto più aumenta la difficoltà di attribuire credibilità al volto, a causa dell’importanza che nella comunicazione hanno i piccoli segnali degli occhi e delle labbra durante l’interazione tra esseri umani: al crescere del realismo cresce l’aspettativa verso questo tipo di movimenti. induista consiste nella deliberata incarnazione di una divinità in un corpo fisico al fine di svolgere determinati compiti. Nella realtà virtuale come nei videogiochi (come i famosi RPG, giochi di ruolo), Avatar identifica il personaggio controllato dal giocatore o un’immagine che lo identifica. Nei programmi d’instant messaging e nei forum Avatar indica un'immagine (come una foto o un disegno) che identifica un'utente insieme al proprio nick name. Tratto da: http://it.wikipedia.org/wiki/Avatar 44 I metodi di animazione più utilizzati sono basati sul movimento di gruppi di controllo o su interpolazione tra forme di riferimento. Nel primo caso dividiamo idealmente in zone il volto (mento, labbra, guance, zigomi, occhi, sopracciglia, fronte,…). Questo significa che i punti del modello di una stessa zona si muovono assieme. Lo spostamento combinato delle zone dà luogo all’animazione. Questo metodo è in realtà piuttosto grossolano e sicuramente inadatto ad animazioni sofisticate. Viene utilizzato per personaggi da cartone animato o comunque privi di realismo. Il metodo però può venir migliorato se la relazione tra le diverse zone segue regole che riproducono il comportamento della muscolatura umana, con le sue caratteristiche di elasticità. Nel secondo caso, costruiamo numerose versioni del modello del volto: a riposo, ad occhi aperti, a bocca aperta, con le sopracciglia alzate o aggrottate e così via. Chiamiamo shape di espressioni di base ognuna di queste versioni: le loro diverse combinazioni ci permetteranno di creare ogni espressione possibile. Per ogni espressione composta, individuiamo quanta parte di ogni espressione di base è coinvolta (ad esempio, il 70% dell’aggrottare delle sopracciglia, il 30% del sollevamento degli zigomi ed il 45% dell’arricciamento delle labbra), e diamo istruzioni al programma affinché visualizzi un modello generato come loro interpolazione pesata. L’animazione è quindi adesso data dal variare delle percentuali d’uso delle espressioni di base. Una terza modalità sfrutta i sistemi di controllo interattivi, come i guanti digitali o i sensori posizionati sul volto di un attore reale. In tal caso il controllo dei vertici delle diverse zone è attuato da un essere umano e si possono raggiungere gradi di realismo molto elevati. Anche il movimento delle mani riveste un ruolo fondamentale nella caratterizzazione dell’attore virtuale. Come nel caso del volto, quanto più aumenta la 45 complessità della struttura articolata della mano e del tipo di gesti che deve compiere, tanto più aumenta la complessità dell’animazione relativa e la verosimiglianza richiesta. In una situazione di questo genere dobbiamo individuare i movimenti elementari di ogni singola articolazione e definire successivamente le posizioni base che la mano virtuale può assumere, corrispondenti a significati particolari quali, ad esempio, contare, esprimersi nel linguaggio dei sordomuti o compiere movimenti di afferrare, ruotare, spostare.41 3.3.2 Cinematica Diretta e Inversa Si parla di cinematica diretta quando la posizione nello spazio di ogni elemento della catena cinematica dipende a cascata dalla posizione dei precedenti. La posizione del primo segmento dipende dalla posizione della radice della catena e dell’angolo che l’asse principale del segmento forma rispetto agli assi dello spazio. La posizione del secondo segmento dipende dalla posizione dell’estremità finale del primo segmento (facilmente calcolabile conoscendo posizione della radice, l’angolo formato dal segmento stesso e la sua lunghezza) e dall’angolo tra gli assi del primo e del secondo segmento. La posizione dei segmenti successivi dipende dalla posizione dell’estremità finale del segmento precedente e dall’angolo formato con esso. In sintesi, il calcolo cinematica diretto consiste in tre passi principali: • Specificare il movimento locale di ogni segmento • Concatenare le trasformazioni di rotazione dei segmenti rispettando l’ordine gerarchico della catena • Posizionare correttamente nello spazio ogni segmento in base alla lunghezza e posizione dei precedenti Lo studio della cinematica e della dinamica di strutture articolate viene ambientato, dal punto di vista geometrico, in uno spazio di coordinate omogenee a 4 dimensioni. Le Fig 18 a) Face tracking 1. Fonte: http://www.lysator.liu.se/~eru/research/c001.jpg Fig 18 b) Face tracking 2. Fonte: http://www.lysator.liu.se/~eru/research/c131.jpg Fig 18 c) Face tracking 3. Fonte: http://www.lysator.liu.se/~eru/research/c070.jpg 41 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 199-201 46 trasformazioni che interessano sono, come si è già detto, rotazioni e traslazioni, che abbiamo già visto nel capitolo sulla modellazione. La possibilità di applicare una serie si trasformazioni concatenata da un giunto al successivo permette di trattare in modo numerico la cinematica diretta che descrive il movimento di un manichino articolato. In altri termini, conoscendo la traiettoria di ogni giunto in ogni istante di tempo si può calcolare in ogni istante anche la configurazione assunta dal manichino stesso durante il movimento. Nel contesto dell’animazione di personaggi virtuali la posizione del modello in un dato istante viene chiamata posa e può quindi essere descritta matematicamente tramite l’elenco dei valori degli angoli, espresso sotto forma di vettore (vettore di posa). Di maggiore complessità è il problema della determinazione delle configurazioni inverse. Nel caso in cui la posizione nello spazio di una struttura dipenda dalla posizione dei suoi estremi (radice), il calcolo degli orientamenti dei segmenti intermedi richiede operazioni di cinematica inversa, le cui equazioni devono rispettare i vincoli cinematica (lunghezza dei segmenti, grado di libertà agli snodi, …). Data quindi la posizione nello spazio di un segmento particolare (solitamente l’effettore), occorre determinare le configurazioni che devono assumere gli altri segmenti, mantenendo le relazioni tra gli elementi della struttura. Questo problema è noto come problema della cinematica inversa e, a differenza del primo, può avere una, nessuna o infinite soluzioni. Infatti posizioni non raggiungibili dalla struttura articolata possono rendere insoddisfacente il problema, oppure una posizione dell’effettore può corrispondere a innumerevoli posizioni dei segmenti intermedi della catena. La soluzione del problema consiste nel calcolare la configurazione di ogni segmento (arto) date le posizioni degli estremi della catena (giunti), cioè nel fare l’operazione inversa alla precedente, in cui la posizione dell’effettore era il risultato del calcolo diretto delle posizioni di ogni segmento. 3.3.4 Tecniche d’animazione tradizionale La progettazione dei personaggi richiede di studiare approfonditamente le caratteristiche anatomiche degli attori da animare, con un procedimento più complesso di quello richiesto per personaggi bidimensionali. Le animazioni tridimensionali, 47 inoltre, richiedono la costruzione della scena e di tutti i suoi elementi e la produzione del movimento di ogni elemento della scena. Animare luci, camere e personaggi non articolati consiste semplicemente nello spostarli nelle posizioni stabilite, fotogramma per fotogramma. Animare i personaggi richiede tecniche più complesse, di cui le due più diffuse sono lo stop motion e i modelli automatizzati. Stop Motion Lo stop motion consiste nell’animazione manuale passo passo di un modello articolato snodabile. In genere i modelli sono costruiti in un materiale plastico e duttile (gomma, pongo), montato su un supporto di sostegno di fili di ferro, o un insieme di pezzi in materiale rigido (plastica, legno) assemblati in modo tale da poter ruotare tra loro rispettando i vincoli ed i gradi di libertà della struttura cinematica. Ad ogni frame l’animatore fa assumere al modello la posizione desiderata, e viene scattata la fotografia. Il modello viene spostato per il fotogramma successivo e così via. Nel caso di interazione tra un modello animato in stop motion ed attori umani, si fanno prima le riprese dal vivo, in base alle quali si adatta il progetto dei tempi dell’animazione, a sua volta collegato alla colonna sonora. Possiamo poi montare le due o più riprese con le tecniche di maschere animate e chroma key. Modello Automatizzato 48 Un modello automatizzato invece è costituito da una struttura portante articolata e dotata di attuatori del movimento, cioè di un insieme di leve, pistoni e motori che ne consente il movimento telecomandato. Sulla struttura viene posizionato un rivestimento (gomma, tessuto) che riproduce l’aspetto esteriore del modello da animare. La struttura articolata viene fatta muovere in tempo reale, eventualmente interagendo con attori umani, e ripresa con le tecniche tipiche delle riprese dal vivo.42 Timing Il timing (regolazione dei tempi) rappresenta la temporizzazione dell’animazione. Il timing è la parte dell’animazione che dà significato al movimento. Nell’animazione il movimento in sé è di secondaria importanza: l’elemento vitale è come l’azione manifesta le fondamentali cause del movimento. Relativamente agli oggetti inanimati queste cause potrebbero essere le forze naturali, in genere la gravità, o forze derivanti dall’interazione con altri oggetti. In un personaggio, oltre alle medesime forze esterne debbono essere considerate anche le forze interne: forze psicologiche, umori, volontà e istinti del personaggio, che lo porteranno ad agire in un certo modo e richiederanno Fig 19) Stop Motion. Fonte: http://www.screen-novelties.com/press/page1/images/bottom.jpg Fig 20) Modelli Automatizzati. Fonte: http://www.animatedideas.net/t-rex-mechy-composite.jpg 42 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 194-195 49 quindi un certo tipo di timing. Deve sempre esistere una ragione psicologica o motivazionale che accompagna l’azione di un personaggio. Le pause e i momenti tranquilli rappresentano il pensiero, rendono espressivo il soggetto. Le interruzioni dei movimenti permettono agli spettatori di notare una posa o di focalizzare l’attenzione su un elemento importante della scena. Questi cambiamenti di ritmo e di tempo renderanno l’animazione convincente. I software 3D danno la possibilità di produrre immagini fotorealistiche. Si può simulare il marmo, la gomma, il metallo o qualsiasi altro materiale, ma creare un oggetto in movimento che sembri di marmo o di gomma ha poco a che fare con l’estetica. L’importante è come l’oggetto viene animato; è l’animazione che assegna le proprietà fisiche. Più di qualsiasi altra cosa, è il timing a definire il peso: due oggetti, identici per forma e dimensioni, possono apparire diversi per peso intervenendo sul timing. Un corpo pesante è più difficile da accelerare di uno leggero, ma a sua volta acquista velocità, tende a mantenerla; quando si animano oggetti pesanti, è necessario imprimere loro molta forza per sostare, mutare e fermare il loro movimento. Gli oggetti leggeri hanno molto meno resistenza al cambiamento di movimento e perciò occorre molta meno energia per farli muovere. Il modo in cui un oggetto si comporta sullo schermo dipende soprattutto dall’intervallo tra le pose chiave e non dalle pose stesse.43 Squash and Stretch Si deve pensare al concetto di squash and stretch come ad un cambiamento di forma. Quasi tutte le azioni richiedono compressione ed estensione. In alcuni casi, la variazione di forma potrebbe essere molto esplicita e accentuata, in altri così leggera da essere difficilmente percepita. Una proprietà del tessuto vivente e di molti altri materiali comuni consiste nell’essere flessibile e deformabile sotto la spinta del moto. Tutti gli oggetti, tranne quelli duri e molto densi, mostrano forme di compressione ed estensione. Se consideriamo una palla da bowling e una di gomma, osserviamo che la prima, dura e pesante, rimbalza poco dopo l’impatto sul terreno, non si deforma e al contrario, date le sue caratteristiche, può deformare il suolo stesso; la seconda, morbida 43 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 171 Fig 21) Squash&Stretch. Fonte: http://mag.awn.com/issue8.01/8.01images/beck0304_findingNemo.jpg 50 e leggera, rimbalza comprimendosi (squash) al contatto con il terreno, ed estendendosi (stretch) nell’ascesa successiva. Un altro approccio a compressione ed estensione concerne le figure composte da giunti, ovvero costituite da più parti legate tra loro gerarchicamente; in questi casi, oltre ad una leggera compressione ed estensione totale della figura, la tecnica dovrà essere applicata alla posizione dei giunti, che modificheranno radicalmente la postura del personaggio. Un esempio è il salto in lungo: la prima fase di piegamento delle gambe sarà una compressione, seguita dall’estensione del salto e conclusa dalla compressione dell’atterraggio. Nella fase di deformazione, una regola ferrea è mantenere costante il volume dell’oggetto. Quando una forma viene compressa su un asse, si dovrà espandere lungo gli altri due per ristabilire il volume iniziale. Anticipation L’anticipation (anticipazione) è un’azione preliminare che imposta un’azione principale. In molte azioni del movimento umano o animale è riscontrabile l’anticipazione. Uno dei trucchi che un animatore deve conoscere è come attrarre al momento giusto l’attenzione del pubblico; l’utilizzo di questa tecnica è di primaria importanza per non far perdere allo spettatore azioni importanti e la trama della storia. 51 Immaginiamo che ci sia una scena con molti oggetti statici, e improvvisamente uno di questi inizi a spostarsi; gli occhi dello spettatore saranno attirati immediatamente dall’oggetto in azione. Se tuttavia verrà fatto un movimento preliminare a quello principale, ad esempio portare indietro il piede prima di calciare, l’attenzione di chi guarda sarà attratta dal piede stesso, prima ancora che esso diventi protagonista dell’azione. Questo assicura che il gesto verrà percepito in modo completo e chiaro. L’utilizzo di questa tecnica permette di mostrare animazioni molto veloci, che risulterebbero incomprensibili se animate senza anticipazione. L’anticipazione non è solo un “trucco”, in molti casi è importante sfruttarla per simulare in modo corretto un certo tipo di movimento, come l’azione di un calciatore nell’atto di colpire il pallone. Azioni sovrapposte Le azioni sovrapposte rendono più credibile un movimento animato; l’applicazione di tale tecnica viene in aiuto soprattutto per l’animazione dei personaggi, ma può essere applicata anche in altri ambiti. Non tutto avviene nello stesso tempo. Osservare dei filmati al rallenty può servire ad analizzare la sovrapposizione di movimenti che avviene nello spazio di frazioni di secondo. Se per esempio si deve animare un braccio di un personaggio, che partendo da una situazione di riposo deve afferrare un bicchiere, un aspirante animatore potrebbe cadere nell’errore di generare dei keyframe per la posa iniziale (braccio appoggiato) e per quella finale (braccio alzato e mano chiusa intorno al bicchiere). Tale metodo produrrebbe un’animazione mediocre che sarebbe percepita come errata; la sequenza corretta richiede che la parte superiore del braccio si muova prima, poi l’avambraccio ruoti, seguito dal movimento all’indietro del polso ed infine che la mano si apra e poi si chiuda ad afferrare il bicchiere. Ciascuno di questi movimenti deve cominciare prima che quello precedente sia terminato, fornendo così la sovrapposizione di gesti realistica che il pubblico inconsciamente percepisce come corretta. Il movimento si avvia dalla spalla e si diffonde fino alla punta delle dita. Nell’animazione tradizionale questa tecnica è anche chiamata rottura successiva dei giunti, perché il movimento è rappresentato dalla rotazione intorno alle articolazioni che si liberano dalla posizione di riposo. 52 Azioni primarie e secondarie Fondamentalmente esistono due tipi di azioni note come primarie e secondarie. L’azione primaria è causata dalla volontà del personaggio di agire: saltare, correre, esultare e così via, mentre l’azione secondaria causata dall’azione primaria (reazione ad un’azione primaria) e non è necessariamente voluta o controllata dal personaggio. Un’azione secondaria potrebbe essere il movimento oscillatorio della coda di un personaggio che sta fuggendo o il fluente movimento di un vestito provocato dai passi di danza di una ballerina. L’animatore deve sempre dare maggiore importanza alle azioni primarie, sono infatti queste ultime ad informare gli spettatori sui principali accadimenti della storia. Le azioni secondarie devono essere sempre animate dopo le azioni primarie e non dovranno distrarre il pubblico. Persino una buona animazione secondaria non sarà mai in grado di coprire i difetti visibili nell’azione primaria. Staging Lo staging (messa in scena) è connesso più alla composizione della scena che all’animazione, tuttavia l’animatore che controlla lo staging potrà avere delle indicazioni che lo aiuteranno a migliorare la recettività della sequenza. Il concetto che sta alla base della messa in scena è che gli oggetti in movimento debbano essere facilmente rilevabili e comprensibili. Un errore diffuso è collocare un’azione dove non può essere osservata, per esempio davanti ad un oggetto interessante che distoglie l’attenzione del pubblico. A volte lo stesso personaggio può coprire i suoi stessi movimenti, se osservato da un’angolazione sbagliata. Se un pugile nell’atto di boxare, viene ripreso frontalmente, i suoi colpi appariranno poco dinamici e veloci; se l’inquadratura coglie i movimenti lateralmente, la stessa animazione risulterà più veloce e chiara, sarà quindi messa in scena correttamente.44 3.3.5 Tecniche d’animazione 3D Sistemi fisici 44 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 156-166 53 Fenomeni come la previsione del tempo, lo studio delle correnti e delle maree, lo studio di strutture celesti di grande complessità, lo studio della portanza di un’ala di un velivolo o di un alettone di un veicolo di Formula 1, come anche lo studio dei flussi finanziari che giornalmente si spostano da un paese all’altro, non sono che alcuni dei tanti possibili esempi in cui l’enorme massa di dati prodotta dal calcolo non può venire interpretata che attraverso un’immagine. La visualizzazione scientifica si è costituita come campo di applicazione che traduce i dati prodotti da programmi numerici, come quelli appena indicati, in figure, illustrazioni che tentano di comunicare all’osservatore il significato del fenomeno studiato. La visualizzazione scientifica si sviluppa come luogo di incontro tra una cultura di carattere fisico-matematico e una cultura di carattere creativo: la cultura dell’illustratore aveva lo scopo di mostrare al grande pubblico o allo scienziato l’anatomia umana, o i colori degli uccelli. Ma già Leonardo Da Vinci aveva ben compreso che lo studio dei fenomeni naturali passa anche attraverso la loro raffigurazione. Oggi utilizzando programmi più sofisticati, il ribollire di una cascata e l’effetto di un’esplosione si simula con immagini di sintesi. Per ottenere questo tipo di immagini, oltre ad applicare la procedura di calcolo adeguata, occorre decidere quale forma di raffigurazione adottare per mostrare i risultati. Per descrivere il modello del risultato finale del calcolo sono state individuate una serie di tipologie principali alle quali riferirsi. Esempi tipici di stili di rappresentazione scientifica sono, come visto, le linee di flusso rappresentate da filetti o piccoli vettori orientati; possono essere linee di livello, che indicano le zone in cui un determinato valore rimane costante (usate ad esempio in cartografia o in meteorologia per denotare altitudine o pressione). A ciascuno stile corrisponde una tipologia di dato. Un insieme di dati (dataset) per la visualizzazione scientifica è costituita da una o più celle; i tipi di celle principali sono vertice, poli vertice, linea o segmento, spezzata, triangolo, striscia di triangoli, quadrilatero, pixel, poligono, tetraedro, esaedro, voxel. Forme più complesse possono venire scomposte in celle: ad esempio una piramide a base rettangolare si può scomporre in due tetraedri, un cuneo in tre tetraedri ecc. Ad ogni cella vengono associati attributi che corrispondono ai parametri fisici che si desiderano calcolare e visualizzare. Ad esempio se il problema consiste nello studio di un fluido, esso può essere decomposto in voxel e ad ogni voxel si possono associare valori di velocità o di temperatura. I possibili attributi di una cella sono: scalare un 54 singolo valore, vettore lunghezza e direzione, normale direzione, tessiture (texture), tensore matrice quadrata. I possibili attributi non sono molti e sono strettamente legati al tipo variabile o di parametro fisico che si sta analizzando. Lo scalare indica un valore numerico (ad esempio la pressione atmosferica in un punto); un vettore è ad esempio la velocità di un fluido in una determinata posizione, mentre la normale indica l’orientamento di una faccia di una struttura poliedrica; le tessiture solitamente permettono di associare ad una forma geometrica una distribuzione di valori scalari (ad esempio il campo di pressione sulla superficie di un contenitore potrebbe essere rappresentato inizialmente come una distribuzione regolare di valori scalari, successivamente “mappati” come una texture sulla superficie del contenitore). Le matrici tensoriali sono utilizzate usualmente per il calcolo di proprietà in volumi tridimensionali. Una volta definita la struttura dati, questa può essere utilizzata sia per il calcolo sia per la visualizzazione. Tuttavia la definizione di questi tipi di dati non sarebbe completa se non indicassimo anche quali sono le operazioni principali che possiamo applicare su di essi. Ovviamente possiamo trattare questi elementi di modello come già abbiamo indicato, e quindi applicare ad essi le trasformazioni geometriche; tuttavia possiamo definire anche operazioni specifiche. In particolare le celle possono essere suddivise o aggregate, e ciò permette di variare la risoluzione con cui si risolve il problema matematico e con cui avverrà la visualizzazione finale del calcolo.45 Particle system I Particle System (sistemi particellari) possono essere utilizzati sia per simulare fenomeni naturali, come fumo, acqua, fuoco e pioggia, sia per modellare come precedentemente accennato, ma anche per controllare una moltitudine di oggetti, come uno sciame d’api o uno stormo di uccelli. L’idea di ispirarsi alla fisica delle particelle per creare modelli per la sintesi di immagini risale a W.T. Reeves che, nel 1983, mise a punto una tecnica di visualizzazione per simulare il comportamento di un fuoco. La tecnica venne utilizzata per la produzione della scena della genesi del pianeta nel film Star Trek II – L’ira di Khan. 45 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 139-143 55 Il riferimento alla teoria delle particelle elementari della fisica nucleare è naturalmente solo parziale, anche se da essa proviene l’idea che ogni particella debba possedere alcune proprietà che ne caratterizzano il comportamento. Un insieme di particelle si sviluppa in un ambiente caratterizzato da un campo di forze che agiscono sulla massa di ciascuna particella. Le particelle vengono create con una velocità iniziale, descritta sia come direzione sia come valore assoluto, che dipende da una probabilità che ne determina la variazione all’interno di un intervallo di valori possibili. Se vogliamo ad esempio modellare con la tecnica dei sistemi di particelle un getto d’acqua emesso da una fontana, potremo descriverlo come un insieme di gocce d’acqua che vengono emesse da un ugello a una determinata velocità iniziale e con una determinata direzione. Ogni goccia è soggetta alla forza di gravità e percorrerà una traiettoria parabolica, ogni goccia ha una vita media, superata la quale scompare (evapora); durante la sua vita può urtare altre gocce e fondersi o rimbalzare, può urtare un ostacolo e fermarsi creando una pozza d’acqua o può rimbalzare in funzione della velocità dell’urto. Ognuna delle proprietà sopra elencate viene calcolata dal programma che simula l’insieme di particelle risolvendo le equazioni del moto per ciascuna particella. Anche questi eventi sono regolati da leggi probabilistiche come quella sopra citata.46 46 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 156-166 Fig 22) Particle System. Fonte: http://www.caffeineoverdose.net/cod/3d_art/ima_3Dmark03_12.jpg 56 In tutti questi casi l’animazione, basata su keyframe, risulterebbe così laboriosa da essere inapplicabile; nessun animatore riuscirebbe a gestire, in tempi ragionevoli, il movimento di centinaia, a volte migliaia o milioni di elementi. I sistemi particellari sono composti da un emettitore e dalle particelle, ognuno di questi elementi può essere controllato attraverso molti parametri che definiscono la quantità di particelle, la direzione, la velocità, l’accelerazione, il peso, l’inerzia, la turbolenza, il tempo di vita, l’aspetto delle singole particelle e così via. Una volta approvato il comportamento di un sistema particellare, è possibile assegnare ad ogni particella un oggetto geometrico, che a sua volta può avere un’animazione propria. Con questa tecnica è possibile quindi animare uno sciame d’api o la lotta di un esercito di guerrieri. Negli ultimi anni questi sistemi sono stati sviluppati moltissimo e attualmente esistono software specifici per le animazioni di massa. Si pensi ad esempio alle innumerevoli scene di battaglia presenti in pellicole come Il Gladiatore, Troy, Il Signore degli Anelli, Alien vs Predator, Star Wars dove sarebbe stato impossibile ricreare realmente orde di personaggi attivi attraverso l’uso di comparse e stuntman in carne e ossa. Questi nuovi software non solo permettono di controllare l’animazione di un insieme di personaggi ma dinamicamente ne cambiano il comportamento in relazione a certi eventi che accadono; per questo sono anche definiti Al system, sistemi di intelligenza artificiale. Uno dei più diffusi è Massive della Massive System, usato per le sequenze di guerra nella produzione della trilogia The lord of the ring (Il Signore degli Anelli).47 47 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 143-144 Fig 23) Massive System. Fonte: http://accad.osu.edu/~waynec/history/images/two-towers.jpg 57 Modelli deterministici Mentre i sistemi di particelle si prestano a modellare fenomeni in cui c’è una significativa dipendenza da fattori probabilistici, quando un fenomeno può essere descritto in modo deterministico si preferisce ricorrere alla soluzione numerica delle equazioni che lo descrivono. È questo il caso, ad esempio, dei fluidi oppure dei sistemi meccanici, come un robot o un veicolo. Nel caso dei sistemi meccanici, la modellazione geometrica ricorre ai metodi già illustrati nei paragrafi precedenti, con in più l’introduzione di condizioni di vincolo. Nel caso di sistemi non meccanici il modello verrà descritto come un insieme di dati per la visualizzazione scientifica e, a seconda del tipo di fenomeno, si utilizzeranno i punti non strutturati usati per i sistemi di particelle o altre celle strutturate più adatte. La presenza di vincoli in un modello geometrico introduce un ordine di complessità maggiore nella modellazione e nei successivi passi per la simulazione grafica. Infatti, oltre a descrivere la geometria delle forme, occorre indicare in modo esplicito se le singole parti dipendono dalle altre, e in quale modo, o se sono soggette ad altri vincoli particolari.48 Dinamica La scelta di percorrere un data traiettoria con una determinata legge oraria non tiene conto delle caratteristiche fisiche e meccaniche degli attuatori, né tiene conto della massa e della forma della struttura articolata stessa. In effetti non è sempre possibile che un dato corpo rigido possa muoversi con una determinata accelerazione e velocità. Un approccio diverso e più rigoroso alla definizione di legge oraria del moto consiste nel risolvere il problema della dinamica della struttura articolata. La dinamica consente di ottenere animazioni senza l’utilizzo dei keyframe. Si assume in questo caso la conoscenza delle proprietà meccaniche degli attuatori, delle proprietà di volume di ogni link della struttura (massa o momenti di inerzia) e, sulla base di questi elementi, imponendo condizioni iniziali o al contorno, si risolvono le equazioni dinamiche del sistema calcolando conseguentemente traiettoria e legge oraria. Più precisamente, il problema dinamico diretto consiste nel calcolare le 48 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 145 58 accelerazioni dei giunti (e quindi integrando rispetto al tempo, le posizioni e le velocità) conoscendo le forze o le coppie applicate ai giunti, mentre il problema di dinamica inversa consiste nel calcolo delle forze o delle coppie da applicare agli attuatori a partire dalla conoscenza delle posizioni e delle velocità oppure delle accelerazioni dei giunti. Un metodo iterativo derivato dalle equazioni di Newton-Eulero richiede la soluzione di una serie di equazioni differenziali di ogni giunto, naturalmente distinguendo se si tratta di un giunto di rotazione o di traslazione. Utilizzando programmi che consentono la dinamica diretta, le strutture cinematiche devono essere animate muovendo ogni segmento in base ai precedenti, come se si stesse muovendo nel mondo reale un modellino di gomma e fil di ferro con un metodo di stop motion. Tuttavia sistemi di questo genere sono ancora a uno stadio di prototipi. Programmi che calcolano la cinematica inversa consentono invece di animare le catene utilizzando il paradigma della marionetta, in cui il movimento del soggetto è dato dalla tensione nei fili e dal movimento della mano del marionettista. In tal caso l’animatore muove l’effettore e il sistema risolve la configurazione dell’intera catena cinematica.49 La principale applicazione della dinamica è quella di controllare, attraverso l’impostazione di field (campi di forza), i sistemi particellari. È possibile creare delle entità che simulino la gravità, il vento e la turbolenza. Questi elementi, una volta collegati alle particelle, ne influenzano il moto. La dinamica può essere anche applicata a oggetti geometrici per automatizzare animazioni complesse. Una semplice applicazione potrebbe essere l’animazione di una palla da bowling che impatta contro i birilli. Utilizzando il sistema basato su keyframe, dovremo animare lo spostamento di ogni singolo birillo; attraverso la dinamica è sufficiente assegnare alla pista l’attributo di essere un oggetto dinamico passivo, in grado quindi di interagire con altri oggetti dinamici senza modificare il suo stato, mentre ai birilli e alla palla si assegna la proprietà di oggetti dinamici attivi, ossia capaci di subire delle alterazioni di movimento al contatto con forze esterne o derivanti da altri oggetti. Successivamente dovremo “spingere” la palla usando un campo di forza; sarà poi necessario determinare la massa di tutti gli elementi, il loro grado di elasticità e di frizione. Avviando la simulazione, il software considererà tutti gli attributi e genererà automaticamente l’animazione. 49 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 215-216 59 Questo approccio all’animazione è usato in casi molto complessi in cui difficilmente l’animatore può lavorare attraverso l’impostazione dei keyframe per ogni oggetto; a volte questo sistema è utilizzato anche per velocizzare animazioni che non necessitano di particolare espressività e che quindi non hanno bisogno dell’estro creativo degli animatori. Questa metodologia ha lo svantaggio di essere difficilmente controllabile dal punto di vista artistico: il software calcolerà con precisione le forze in campo e le interazioni, ma sebbene il risultato possa essere fisicamente corretto, potrebbe rivelarsi comunque inaccettabile per le esigenze della scena. Attualmente molte case che sviluppano software stanno implementando dei sistemi ibridi che consentano agli animatori di impostare movimenti di base che il simulatore dinamico considererà come vincoli nella fase di calcolo. Un sistema simile è stato usato per animare i capelli di Fiona, uno dei personaggi nel film d’animazione Shrek della PDI/Dreamworks SKG, uscito nelle sale nel 2001.50 Motion Capture Il motion capture, detto anche mocap, è una tecnica di registrazione computerizzata di movimenti, che può essere applicata anche ad oggetti, ma comunemente viene usata per catturare movimenti umani. Nello specifico è il procedimento di acquisizione di dati relativi al movimento di un soggetto nel mondo reale e di attribuzione di tali dati ad un modello computerizzato. Chi esegue il movimento di controllo è detto performer ed è spesso un essere umano, ma talvolta può essere costituito anche da un elemento del corpo (volto, mano, piede…) o da un animale, una telecamera, un macchinario e così via. Con il motion capture si misurano, durante la sessione di acquisizione, i dati relativi alla posizione e all’orientamento del soggetto nello spazio di acquisizione: il volume fisico all’interno del quale il sistema di acquisizione riconosce il performer ed i suoi movimenti. Una volta che i dati sono stati registrati dal sistema, gli animatori possono utilizzarli per controllare il movimento dei personaggi della scena, in differita o in tempo reale. 50 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 174-175 60 Prima di utilizzare il mocap per animare un modello occorre analizzare il movimento da acquisire. È indispensabile compiere uno studio anatomico sia del performer sia del modello, in modo da pianificare i movimenti che saranno acquisiti. Per alcuni sistemi di acquisizione, inoltre, occorre stabilire i punti di acquisizione (joint) in base al tipo di movimento, all’anatomia dell’attore ed alla struttura cinematica del modello, e costruire quindi lo schema di acquisizione. Il motion capture fornisce curve di animazione ricche e complete, ma in genere non è mai l’unica fonte di dati utilizzata. Le traiettorie prodotte sono solitamente elaborate in modo da essere adattate al modello e all’animazione desiderata tramite programmi o plug-in appositamente costruiti. Il problema principale al momento dell’utilizzo dei dati provenienti dal motion capture è rappresentato dalle differenze fisiche tra il performer e il modello da animare, in particolare per quanto riguarda le proporzioni. Se ad esempio il performer ha le braccia più lunghe del modello computerizzato, raggiungerà i punti dello spazio circostante in momenti diversi da quelli del modello virtuale, che necessita ad esempio di un gesto più lungo e ampio per afferrare un oggetto. Oppure, se il performer ha le gambe più lunghe o più corte del modello, in proporzione al corpo, si avrà quasi certamente il problema dello slittamento (skating), tipico delle animazioni prodotte con motion capture senza correzione: il modello cammina slittando sulla superficie d’appoggio. 61 I dati acquisiti devono quindi essere elaborati in modo da accelerare, rallentare o comunque adeguare il movimento al modello che deve eseguirlo ed all’ambiente in cui deve muoversi. Esistono varie tecnologie capaci di rilevare il movimento; le principali sono quella magnetica e quella ottica. Quest’ultima è quella più usata e si basa sull’impiego di telecamere che rilevano oggetti riflettenti. Viene fatta indossare al performer una tuta, su cui sono agganciati marker, piccoli oggetti fluorescenti dislocati in punti chiave, che dovranno corrispondere ai joint dello scheletro nel software 3D; l’attore dovrà poi muoversi dentro un campo a raggi infrarossi, come stabilito dal copione e le telecamere andranno a tracciare automaticamente il movimento di ogni marker. I marker sono sfere, semisfere o dischetti di dimensioni variabili (da 5 mm a 5 cm di diametro), ricoperti di materiale catarifrangente, che vengono applicati sui punti di acquisizione del soggetto, il quale non è quindi vincolato nei movimenti da cavi o altri impedimenti fisici. Il numero di marker varia in genere da 15 a 30. L’acquisizione dei dati viene eseguita da un insieme di telecamere che rilevano il campo di luce infrarossa riflessa dai marker e lo registrano, a seguito di uno speciale adattamento alla luce infrarossa. Tutti i dati vengono registrati in un software e successivamente esportati per essere applicati al personaggio virtuale. Il sistema comprende un insieme di dispositivi hardware che consentono una prima analisi dei dati, il cui risultato viene inviato a un PC. Prima di effettuare la sessione viene costruito lo schema della struttura cinematica di cui si vuole acquisire il movimento, semplicemente costruendo con un piccolo editor 3D la struttura articolata e definendo i punti corrispondenti ai marker. Il computer, dato questo schema del modello da acquisire, ricostruisce le posizioni nello spazio di ogni marker durante un processo detto di tracking, grazie all’associazione del rilevamento di ogni marker con il punto corrispondente sullo schema.51 Fig 24) Mocap 1. Fonte: http://www.agirlsworld.com/rachel/hangin-with/pix/polarex1.jpg 51 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 222-225 Fig 25) Mocap 2. Fonte: http://www.cs.washington.edu/homes/zoran/mocap/mocap-front.jpg 62 Con questa procedura è possibile anche registrare le espressioni di un attore reale e trasportarle sul volto di un attore digitale. Il motion capture è sicuramente uno strumento avanzato tuttavia include molte limitazioni e imperfezioni che ne vincolano l’applicazione. Il mocap registra movimenti di attori reali; questi dati sono perfetti per muovere un modello dalle sembianze umane, ma inefficaci se usati per personaggi di fantasia, che appariranno limitati. Molto spesso la posizione dei marker viene rilevata con degli errori di posizionamento, perciò l’animazione che si ottiene è difficilmente editabile e gli animatori dovranno spendere molto tempo per pulire le curve di animazione che risulteranno in molti punti sbagliate. Per l’animatore che gestisce dati di motion capture, una delle principali difficoltà è la variazione delle curve d’animazione: il mocap registra uno o più keyframe per ogni frame d’animazione rendendo molto laboriosa la modifica dei valori, inoltre il mocap registra solo i movimenti principali dell’attore; tutte le animazioni secondarie, come quelle di vestiti, capelli o collane, dovranno essere eseguite con tecniche tradizionali. È indispensabile quindi valutare la necessità di utilizzo della tecnica ed eventualmente pianificare con cura la sessione di registrazione dei movimenti e il setup della geometria 3D, che dovrà essere studiata in relazione alle procedure di acquisizione dei dati. Negli ultimi anni l’avanzamento tecnologico dei sistemi di rilevamento dei marker ha portato ad un aumento considerevole dell’utilizzo di questa tecnica; nei film d’animazione molti studi non ne fanno uso più per problemi artistici che tecnici. In Final Fantasy: the spirits within, uscito negli Stati uniti nel 2001, il mocap è stato usato 63 ampiamente in combinazione con tecniche tradizionali impiegate per le espressioni facciali, in questo film, per tutti i personaggi umani, lo studio Square ha scelto la tecnica del motion capture proprio per avvicinarsi il più possibile allo stile di un film live e all’approccio fotorealistico visibile in tutta la pellicola.52 Motion Capture Elettromagnetico I sensori utilizzati nel mocap elettromagnetico sono costituiti da un piccolo dipolo, collegato via cavo all’unità centrale del sistema. Il performer si muove all’interno di un campo elettromagnetico generato da una o più sorgenti, interagisce con i sensori e permette al sistema di registrarne la posizione e l’orientamento. La presenza dei cavi di collegamento tra i sensori ed il sistema di elaborazione limita i movimenti del performer. Il sistema magnetico opera generalmente in tempo reale e permette di osservare direttamente l’animazione inviata al modello virtuale. I dati acquisiti dal sistema vengono passati al software di animazione tramite un driver apposito. Il numero dei sensori varia in media da 10 a 20 e dipende dal tipo di movimento analizzato. In base al numero di sensori ed al modello è possibile acquisire da 15 a 120 campioni al secondo, dove con campione intendiamo i dati relativi ai 6 gradi di libertà di ogni sensore (le tre 52 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 176-178 64 rotazioni e le tre coordinate di posizione). Questa limitata frequenza di campionamento può dare luogo a fenomeni di aliasing. La presenza di oggetti metallici o di altre fonti elettromagnetiche nelle vicinanze del volume di acquisizione può inoltre alterare i dati. Altri Metodi di Acquisizione I dati numerici per l’animazione possono provenire anche da fonti esterne comunemente non classificate come metodi di motion capture, ma non per questo meno valide. • Segnali L’elaborazione di segnali è una fonte vastissima di dati per l’animazione. Pensiamo ad esempio alle immagini di simulazione dello spostamento delle nubi determinate in base ai dati provenienti da satelliti e centraline di rilevamento alle loro successive elaborazioni. • Analisi del Parlato Un esempio interessante è l’animazione del volto basata su dati provenienti dall’analisi del segnale sonoro rilevato durante il parlato. Se dobbiamo far parlare il nostro attore virtuale, dobbiamo far si che il movimento delle sue labbra segua i suoni effettivamente prodotti come uscita sonora durante l’animazione. Se conosciamo già il testo da animare, possiamo registrarlo ed analizzarlo, riconoscendo i punti dove devono essere pronunciate le diverse parti dell’alfabeto fonetico e produrre una sorta di storyboard del parlato a cui faremo corrispondere le corrette configurazioni del volto. Sono in fase di sperimentazione metodi di analisi automatica in tempo reale del parlato, che riconoscono le vocali, alcune combinazioni di consonanti e l’energia del suono emesso e che generano in uscita codici numerici stabiliti per ognuna di esse. Con questi sistemi, possiamo programmare il nostro sistema di animazione del volto in modo da visualizzare la corretta posizione di labbra, guance zigomi, sopracciglia in 65 base ai dati numerici prodotti dal riconoscitore audio, ed ottenere così un’animazione del modello che segue in tempo reale il testo pronunciato da uno speaker. • Virtual Set Un metodo di rilevamento del movimento molto particolare e di grande importanza permette di acquisire i dati di cambiamento di stato di una telecamera reale. Durante le riprese di una scena, i parametri della telecamera variano nel tempo; essi vengono registrati e riutilizzati per guidare la camera durante una o più riprese successive. Questa tecnica è indispensabile per la produzione di animazioni con effetti speciali in cui sia ad esempio necessario riprendere la scena con gli attori, senza gli attori, o con diversi gruppi di attori, per poter poi montare le sequenze con le tecniche di chroma key. Guidare la telecamera in base a sequenze di dati ci permette di ripetere esattamente la stessa ripresa più volte, senza possibilità di errori, ma anche di attribuire gli stessi dati ad una telecamera virtuale, in modo da produrre, per la scena virtuale, una ripresa identica e quella effettuata nel mondo reale, e poter poi montare in una sequenza unica immagini reali e virtuali, prive di discrepanze nella messa a fuoco o nel punto di vista. I teatri di posa in cui è possibile compiere queste operazioni vengono chiamati virtual set; in essi l’allestimento scenografico è del tutto virtuale. • Sistemi meccanici e misti I sistemi di motion capture meccanico acquisiscono i dati relativi al movimento tramite dispositivi meccanici di varia natura. Un primo esempio di metodo meccanico è il guanto. In corrispondenza di ogni dito della mano sono posizionati sensori di varia natura in grado di trasmettere dati relativi al grado di tensione e flessione nel tempo. I metodi di rilevamento dei dati sono in genere di due tipi: ottici ed elettromagnetici. In ogni guanto basato su metodo ottico, un tubo opaco è posizionato su ogni dito e collega un LED posto ad un’estremità con un fotorecettore posto all’altra. La quantità di luce registrata dal fotorecettore è proporzionale al grado di flessione del dito. Un altro guanto ottico è basato sull’uso delle fibre ottiche. Lungo ogni dito è posta una fibra ottica trattata in modo da disperdere una parte della luce trasmessa. Anche in questo caso, un fotorecettore registra la quantità di luce generata da un LED all’altra 66 estremità della fibra. La differenza tra luce emessa e quella registrata fornisce il grado di flessione del dito. Un esempio di metodo elettromagnetico si basa su sensori ad effetto Hall53 e sui campi elettromagnetici generati da piccole calamite, mentre un quarto tipo di guanto per il mocap usa sensori che hanno la caratteristica di variare, in funzione al grado di deformazione, la resistenza opposta al passaggio di corrente. I dati registrati sono in ogni caso trasmessi tramite cavo all’unità di calcolo. Se il motion capture è fatto allo scopo di animare un modello accurato di mano, il sistema interpreta i dati e attribuisce la corretta posizione di ogni falange del modello virtuale. Se l’acquisizione è fatta per permettere la telemanipolazione di un altro sistema, i dati vengono analizzati e tradotti nei segnali opportuni. Un esempio di motion capture di questo tipo è l’animazione di un volto virtuale tramite movimenti della mano, nel quale ad ogni espressione è associata una serie di movimenti: l’indice controlla l’apertura degli occhi, il pollice la bocca, il medio le sopracciglia, e così via. Un altro metodo di motion capture meccanico è il DID (Direct Input Device), detto anche manichino posizionabile o Poseable Mannequin, il cui principio di funzionamento è simile allo stop motion. La struttura cinematica del modello virtuale da animare viene costruita in scala opportuna tramite un insieme di sbarrette giuntate tra loro e in grado di compiere i movimenti previsti per il modello. Le parti flessibili della struttura sono collegate tramite sensori all’unità di calcolo, che ne riconosce la posizione. Per ogni frame dell’animazione il modello viene riposizionato a mano dall’animatore e la sua posizione viene registrata dal sistema e aggiunta alla curva di animazione generata. Questo metodo permette agli animatori in stop motion di continuare ad animare la tecnica già nota, che per molti aspetti è anche una forma d’arte, data la difficoltà di creare animazioni credibili e realistiche.54 Fig 26) Mocap 3. Fonte: http://www.vuse.vanderbilt.edu/~bobbyb/images/linda.jpg 53 Effetto Hall: Tramite l'effetto Hall si può dimostrare che la forza di Lorentz agisce anche sulle cariche di conduzione. Si nota che in una sottile striscia di metallo, immersa in un campo magnetico, e in cui scorre una corrente, si misura una differenza di potenziale detta tensione di Hall. L'effetto prende il nome dal fisico Edwin Hall che per primo lo scoprì nel 1879. Tratto da: http://it.wikipedia.org/wiki/Hall 54 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 226-230 67 Traiettorie e Keyframing Come abbiamo visto, animare in 3D con metodi informatici significa attribuire variazioni ai valori assunti dai parametri che descrivono l’aspetto e lo stato di un oggetto nella scena tridimensionale, cioè di costruire le funzioni di variazione del parametro in base al tempo. Il variare dei parametri viene descritto con la curva di animazione. La curva di animazione di un parametro può essere trattata come una normale funzione continua (ad esempio, sotto forma di una traiettoria ed una legge oraria), o discreta, tramite la definizione di punti chiave (keyframe) ed interpolazioni. In base al tipo di personaggio, curve di traiettoria o keyframe possono essere sufficienti a descrivere il movimento o, nel caso di una struttura articolata composta di catene cinematiche, interagire con le descrizioni cinematiche del modello. Con traiettoria e legge oraria intendiamo un percorso e il modo con cui il percorso viene seguito, cioè come variano la velocità e l’accelerazione. Una traiettoria non è altro che una qualsiasi curva nello spazio che può essere descritta con una funzione parametrica dove le coordinate x, y, e z indicano lo spazio (s) e la variabile t il tempo: s(t) = (x(t), y(t), z(t)) Il problema che si pone è quello di creare traiettorie legittime, ovvero che siano effettivamente percorribili senza che si urtino ostacoli, e che vengano percorse con naturalezza e scioltezza, senza scatti improvvisi, ma con accelerazioni graduali, adeguate al contesto in cui l’animazione viene a svolgersi. Il primo problema è noto come problema della collision detection e collision avoidance: rilevare ed evitare una possibile collisione con ostacoli. Si tratta di un problema di elevata complessità computazionale, che può venire risolto con due approcci distinti: un approccio euristico e uno sistematico. A titolo di esempio, gli approcci euristici approssimano gli oggetti di una scena con forme più semplici, per le quali il test di collisione è fortemente semplificato. Questi approcci sono soddisfacenti quando non è richiesto fortemente un grado elevato di precisione e il requisito maggiore è la velocità di esecuzione. Quando viceversa si richiede un’elevata precisione, si adottano i metodi sistematici, tra i quali il più noto è quello dovuto a T. Lozano Perez. 68 Si tratta di un metodo che schematizza l’oggetto in movimento con un punto e ridefinisce gli ostacoli della scena con poliedri che rappresentano il luogo dei punti vietati al punto in movimento. Con questa semplificazione i test di collisione sono ridotti a confrontare un punto con una famiglia di poliedri. Un altro metodo, dovuto allo stesso autore, affronta il problema ambientandolo nello spazio delle configurazioni dei giunti e individuando in tale spazio le limitazioni cui sottoporre i valori che possono assumere gli stessi giunti. Altri metodi derivati da quelli sopra citati consentono di affrontare il problema anche per scene molto complesse, composte da poliedri non convessi, tipici di scenari in cui devono muoversi attori virtuali. Le prime animazioni a computer, e molte animazioni prodotte per videogiochi, erano caratterizzate da una velocità molto elevata, da movimenti bruschi, cambiamenti di punto di vista immediati. Si trattava di animazioni molto spettacolari ma poco realistiche, il risultato di esperimenti in cui l’esperienza cinematografica era tenuta in poco o nessun conto. In seguito sono stati messi a punto metodi che permettono di creare animazioni molto più naturali, che sfruttano leggi orarie di percorrenza delle traiettorie in cui l’accelerazione varia con gradualità e in modo non banale. Oltre a ciò, un ulteriore problema è dato da un inizio o una fine del movimento brusca. Anche questo è un effetto innaturale: sia i movimenti degli oggetti o degli attori sia quelli della telecamera hanno un avvio lento, raggiungono una velocità massima e prima di fermarsi rallentano riducendo gradualmente la velocità. Questo effetto si chiama in gergo ease-in – ease-out. Per ottenerlo si interviene nella funzione dell’arto del modello che vogliamo animare, rendendola meno brusca. Alla variabile tempo (t) sarà applicata quindi la “formula ease” che in generale viene scelta come un tratto di sinusoide, calibrando l’animazione in modo uniforme. La frequenza con cui la posizione deve essere calcolata dipende dalla precisione che si vuole ottenere nel moto. Nel caso di sistemi robotizzati essa dipende dalle caratteristiche meccaniche degli attuatori, che possono essere motori continui o a passo singolo. Nella simulazione di attori virtuali la frequenza di campionamento della posizione è legata alla capacità di realizzare animazioni in tempo reale o in tempo differito. Nell’animazione a computer la frequenza deve permettere di generare almeno 25 fotogrammi al secondo; se si tratta quindi di movimenti naturali, la frequenza di campionamento sarà 25 al secondo. Naturalmente la scala dei tempi può essere modificata liberamente, realizzando moti rallentati o accelerati come nella cinematografica scientifica. 69 Un altro metodo di generazione di una curva di animazione è il keyframing. Il movimento viene descritto solo in base ad alcune posizioni chiave, dette keyframe. Le posizioni intermedie sono generate automaticamente dal programma di animazione, che interpola i valori di due keyframe in sequenza sull’intervallo di tempo che intercorre tra il primo ed il secondo. Il tipo di interpolazione può essere lineare, parabolico, cubico, con spline o altro, in base alle possibilità offerte dal software di animazione ed alla scelta dell’animatore. L’interpolazione lineare darà luogo a movimenti a scatto mentre interpolazioni quadratiche o cubiche permettono variazioni morbide e graduali tra un tratto e il successivo. I keyframe possono essere generati anche automaticamente in seguito ad elaborazioni di dati di vario tipo, ed acquisiti come valori numerici ad esempio interfacciando direttamente il software di animazione con un sistema di rilevazione della posizione.55 L’utilizzo dei keyframe potrebbe essere paragonabile a quello dell’animazione tradizionale. Nell’animazione 2D, si lavora sulle posizioni base della scena, disegnando 55 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 217-222 Fig 27) Keyframe. L’immagine fornisce un buon esempio di keyframing. Nella finestra in sovrimpressione, all’interno della tabella gialla, si notino gli elementi da animare e i parametri da applicare alle animazioni. La linea del tempo, costituita da tutti i frame che compongono l’immagine e quindi l’animazione, serve poi ad individuare e selezionare i punti chiave (in rosso). Fonte: http://www.euclideanspace.com/mjbWorld/userGuide/animation/keyframe/timeline.gif 70 le pose del personaggio in modo che l’azione possa essere sviluppata con un numero minimo di disegni. Ultimate le pose, vengono creati i cosiddetti disegni inbetween per terminare l’azione. Nell’animazione 3D, i keyframe sono valori dati a certi frame per controllare le articolazioni di un modello geometrico, solitamente organizzato in una gerarchia; il computer calcola i valori degli inbetween automaticamente attraverso medie relative ai valori assegnati nei keyframe. Il primo approccio è quello di creare dei keyframe nelle posizioni chiave dell’azione, lasciando calcolare al computer i fotogrammi di itercalazione. Quando il software 3D calcola le posizioni intermedie tra i valori dei keyframe, crea una curva per ogni attributo di movimento (rotazione, traslazione, scalatura). Le curve rappresentano i valori per ogni attributo in ogni frame, e la modifica di tali curve porta ad accelerazioni e decelerazioni nel passaggio tra due keyframe. Le curve d’animazione possono essere modificate a piacimento, ma presentano delle limitazioni che sono insite nella loro struttura matematica. In molti casi è quindi necessario intervenire tra i fotogrammi di intercalazione creati dal software e inserire altri keyframe per ottenere l’effetto voluto. Un secondo approccio possibile consiste nell’impostare pose chiave (keyframe) per ogni frame dell’animazione (tecnica detta a passo uno). Lavorare a passo uno consente di avere un controllo totale della posizione di un oggetto in ogni istante dell’animazione. I due metodi possono essere sfruttati nella stessa animazione per risolvere problemi specifici. Solo una pianificazione preventiva della scena da animare potrà portare all’applicazione corretta delle due metodologie. 71 4. Il Rendering La scienza moderna, nel perseguire l’obiettivo della spiegazione dei fenomeni e dei processi naturali, adotta sistematicamente i metodi della simulazione. Mediante modelli matematici sempre più accurati, si cerca di descrivere un sistema naturale allo scopo di prevederne il comportamento. La previsione del comportamento del sistema viene messa a confronto con il sistema reale e costituisce sia uno dei metodi di verifica delle ipotesi sperimentali sia uno dei metodi fondamentali per perfezionare il modello stesso. La previsione è determinata dallo stato in cui si trova il sistema a un dato istante iniziale o dal modo in cui variano le condizioni al contorno. Quanto più il modello matematico è accurato tanto più precisa sarà la previsione del comportamento del sistema simulato, e l’evoluzione nel tempo di ogni variabile che descrive il sistema potrà essere calcolata con la necessaria precisione. Oggi, con la diffusione dei sistemi e delle tecniche per la creazione di immagini fisse e in movimento, il concetto di simulazione si è arricchito. I casi più rappresentativi sono quelli della simulazione visiva e della simulazione di personaggi animati. Anche se affonda le sue radici metodologiche nelle scienze fisiche, la simulazione visiva ha avuto i maggiori impulsi da motivazioni tanto commerciali che scientifiche, tra le quali l’intrattenimento e il gioco. 4.1 Simulazione Visiva e Foto-Realismo Plasmare e dar vita ad un essere animato, costruire e rendere attivo un automa, è sempre stato per l’essere umano, un mito potente, che ricorre con frequenza nelle più diverse culture. Ricordiamo il mito di Prometeo, che ruba agli dei il fuoco e la sapienza per donarli agli uomini, o il rabbino Lœw di Praga, che plasma il Golem e gli infonde la vita pronunciando parole magiche, il cui significato, riposto nei Testi Biblici, può essere scoperto solo dai grandi saggi. Nel secolo dei Lumi, l’ambizione di imitare la vita con l’automa spinge a creare macchine che cantano, suonano, giocano a scacchi e hanno le sembianze di manichini antropomorfi. Più recentemente tutta la cultura meccanica moderna tende a ricreare porzioni del corpo umano o di esseri viventi per realizzare macchine capaci di compiere lavori pesanti o ripetitivi. Il nome stesso robot, che si attribuisce ai sistemi di 72 produzione automatica, deriva dal vocabolo céko robota, il cui significato è quello di lavoratore asservito. Il tema dell’automa e della simulazione del comportamento ha quindi radici solide sia nel campo delle scienze informatiche sia nella storia della cultura umana e delle tecnologie non informatiche. Sia nell’epoca contemporanea sia nel passato, l’intendimento è sempre stato quello di simulare, in un’accezione che si è però via via modificata: agli inizi simulare era sinonimo di ingannare, oggi è piuttosto quello di riprodurre, di imitare, anche se l’inganno è sempre presente, come effetto di una costruzione così accurata da essere indistinguibile dal reale, a patto, a volte, di accettare una sospensione temporanea di incredulità.56 Il termine «simulazione» contiene un’ambiguità semantica, nota Gianfranco Bettetini: «simulare significa imitare, rappresentare, riprodurre, ma significa anche fingere, ingannare, mentire. Così come l’arte della “simulazione” comporta l’abilità esecutiva del ritratto, della statua, della rappresentazione dell’idea; ma anche quella del saper fingere, dello stratagemma». Quanto meglio la struttura percettiva realizzata nella rappresentazione si avvicina al modello percettivo che costruiamo nel conoscere e nel ricordare l’oggetto mediante la sua esperienza reale diretta, tanto più la simulazione risulta efficace, convincente, «verosimile».57 La simulazione visiva, nell’arco di poco più di vent’anni, ha avuto un progresso impressionante sia per la capacità di raffigurare anche in modo dinamico sistemi, processi, modelli, personaggi sia per il grado elevatissimo di verosimiglianza che ha saputo raggiungere. Tutto ciò è raccolto nel programma del foto-realismo, che ha raggiunto risultati eccellenti. In molti casi è davvero difficile riconoscere se un’immagine che compare sul display dell’elaboratore sia una fotografia digitale o il frutto di un programma di simulazione visiva. Non possiamo considerare il foto realismo come un fatto puramente tecnico, dobbiamo in primo luogo chiarire cosa si debba intendere per realismo, in particolare realismo visivo, anche per comprendere quando e perché questo sia necessario o opportuno. 56 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 231-232 57 Pier Luigi Capucci, Realtà del virtuale, cit., p.41 e p 42 73 Il ruolo del realismo nelle arti figurative, nelle varie epoche, si è continuamente modificato, ed è stato a volte positivo e a volte negativo, spostando alternativamente l’enfasi sugli aspetti iconici o su quelli simbolici della raffigurazione artistica. Una definizione operativa di realismo, spesso adottata nelle arti, si correla alla nozione d’iconicità della raffigurazione, cioè alla sua capacità di riprodurre con accuratezza il reale, ovvero il grado di somiglianza tra la rappresentazione figurativa e il mondo reale raffigurato.58 Il segno iconico, secondo Eco, stimola «una struttura percettiva “simile” a quella che sarebbe stimolata dall’oggetto imitato». Ancora: «Se il segno iconico ha proprietà in comune con qualcosa, le ha non con l’oggetto, ma con il modello percettivo dell’oggetto». Tale modello percettivo è determinato da un’esperienza acquisita dal soggetto osservatore, che concerne aspetti sia fisiologici che culturali.59 Quindi, tanto maggiore è il grado di iconicità di una raffigurazione, tanto maggiore risulta il suo realismo. Questa nozione apparentemente semplice, in realtà nasconde un grosso problema: infatti il grado di iconicità non è un dato assoluto, è piuttosto un fatto convenzionale che ogni cultura attribuisce ad un proprio sistema di raffigurazioni simboliche; di conseguenza quello che a noi appare realistico può apparire del tutto astratto o addirittura profano ad un aborigeno dell’Amazzonia.60 La fotografia esautora l’azione fisica sostituendola con una serie di processi automatici e irreversibili, relegando la manualità ai margini dell’azione generativa, ad una sorta di intervento secondario, dopo che l’immagine è stata inesorabilmente fissata. Nell’immagine fotografica figurazione e «talento manuale» sono definitivamente separati. La fotografia è in grado di produrre una figurazione realistica e ad elevata definizione, versatile, convincente, facilmente adattabile al linguaggio degli altri media della comunicazione (grafica, stampa, editoria). La fotografia può congelare il movimento, per indagarlo al di là delle capacità dirette della percezione visiva. Con la fotografia, l’immagine, indefinitamente riproducibile e iterabile, ad un tempo copia e 58 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 233 59 Pier Luigi Capucci, Realtà del virtuale, cit., p.43. 60 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 233 74 originale, si libera dal crisma dell’assoluto, dell’unicum, dell’autenticità, rinunciando ad un’aura in quanto «apparizione unica di una lontananza».61 Oggi il realismo visivo non è più soltanto un fatto di accuratezza della raffigurazione, ma anche di accuratezza della riproduzione del comportamento, della funzione, delle trasformazioni nel tempo: il realismo visivo va ormai di pari passo con il realismo della simulazione dinamica. La possibilità di creare Realtà Virtuali apre un ulteriore problema, che è proprio del realismo: quello della veridicità del mondo simulato. Nel campo delle realtà virtuali, non solo in virtù della qualità della raffigurazione visiva, le tecnologie adottate consentono di presentare come verosimile mondi addirittura impossibili sul piano del rispetto delle leggi fisiche, in un continuum di variazioni di particolari, ognuno in sé pienamente veridico ma, nel complesso, interamente inventati. Un esempio per tutti: le simulazioni di volo che possono trasgredire i limiti di velocità e accelerazione dei velivoli reali. Parlando quindi di foto-realismo (o di realtà virtuali) accettiamo una convenzione che correla il realismo con un determinato grado di veridicità o di verosimiglianza. Sarà compito di chi progetta comunicazione visiva decidere quale grado assumere e quindi quali tecniche adottare per raggiungerlo. La nozione di foto-realismo comunemente adottata richiede che un’immagine prodotta da un sistema informatico sia indistinguibile dall’immagine della scena reale percepita dall’osservatore. L’indistinguibilità è un fattore soggettivo e manca quindi di un criterio quantitativo di misura. La qualità della luce prodotta da un monitor è drasticamente diversa da quella percepita nella realtà. Inoltre le condizioni di osservazione del reale sono assai differenti da quelle di un monitor o anche di altri dispositivi di visualizzazione. Il principio di indistinguibilità non è quindi determinante per una nozione di foto-realismo che punta a riprodurre il mondo reale, ma è determinante la nozione di verosimiglianza. È interessante notare come nelle arti figurative, e in particolare nella fotografia, non si sia mai posto il problema dell’indistinguibilità, quanto piuttosto quello della credibilità della scena riprodotta, ovvero dell’assenza di trucchi dovuti al montaggio, allo sviluppo o alla stampa. In qualche modo si riconosceva implicitamente alla fotografia un’intrinseca capacità di riprodurre il reale, anche se in forma simbolica, mentre nello stesso tempo la caratteristica simbolica della raffigurazione fotografica veniva rimossa o dimenticata. È solo con il diffondersi della creazione di immagini di sintesi create con elaboratore che 61 Pier Luigi Capucci, Realtà del virtuale, cit., p.47. 75 il valore simbolico della raffigurazione viene ad attenuarsi e si impone con prepotenza la capacità di imitazione del reale, e si riapre quindi il problema della definizione di un criterio di verità.62 Inoltre nella rappresentazione di sintesi tramite computer, statica e dinamica, si perde il contatto diretto con la «naturalità». Il rapporto fra figurazione e operatore è totalmente mentale; il realismo dell’immagine è ottenuto per via progettuale, formale, numerica, è fondato su di un iter astratto, che ha ben poco a che vedere con un gesto fisico, con un «occhio». L’informazione visiva prende forma sopra un supporto piano, uno schermo, e dunque dal punto di vista della sua fruizione segue le regole di visione di una superficie bidimensionale, rispetto alla quale la posizione ideale dell’osservatore è quella frontale, sull’asse del piano della figurazione, ad una distanza da essa che dipende dall’ampiezza e dalla strutturazione della sua superficie.63 Possiamo dare una prima, diversa, definizione di foto-realismo, che tiene conto dell’impossibilità di riprodurre stimoli identici in condizioni di osservazione così diverse, come un monitor rispetto a una finestra su un paesaggio. Diremo realistica l’immagine di sintesi che produce lo stesso stimolo visivo prodotto dall’immagine della scena reale, riprodotta sullo stesso supporto, e osservata nelle medesime condizioni, quindi foto con foto, immagini su monitor con immagini su monitor e così via. A questo punto è necessario sottolineare due fattori: lo stimolo visivo e le condizioni di osservazione. La nozione di stimolo visivo, è quantitativamente precisa, secondo i modelli di colore comunemente adottati; si tratta infatti di misurare la distribuzione spettrale di luminanza emessa dall’immagine o dalla scena. Non è però sufficiente limitare l’eguaglianza allo stimolo visivo prodotto dalla scena di sintesi e dalla scena reale. Per completare la nozione di realismo visivo nell’immagine di sintesi occorre ipotizzare che la scena reale e quella generata con un procedimento di sintesi vengano riprodotte sullo stesso supporto, che può essere una fotografia o un monitor televisivo. Questo requisito fa sì che la qualità della luce che giunge all’osservatore sia la medesima in entrambi i casi. Infine dobbiamo richiedere che le due immagini siano osservate nelle medesime condizioni, ad esempio due fotografie su un tavolo o in un quadro, o le due immagini sullo stesso monitoro su due monitor identici e calibrati, con condizioni di 62 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 234-236 63 Pier Luigi Capucci, Realtà del virtuale, cit., p.49. 76 illuminazione al contorno sempre uniformi e con la medesima ambientazione, in modo da avere identica influenza sulla visione periferica. Queste condizioni sono soddisfatte in generale da sistemi di visione stereoscopica mediante caschi, usualmente adottati per sistemi di immersione e telepresenza nella Realtà Virtuale.64 4.2 Cos’è il rendering Il Rendering (presentazione fotorealistica o resa) è, in ambito informatico, il processo di generazione di un’immagine digitale a partire da una descrizione degli oggetti tridimensionali per mezzo di un software. La descrizione è data in un linguaggio o in una struttura dati definiti rigorosamente e deve contenere la geometria, il punto di vista, le informazioni sulla mappatura delle superfici visibili e sull' illuminazione. Il rendering è uno dei temi più importanti della grafica tridimensionale computerizzata e in pratica sempre in relazione con tutti gli altri. Nella «pipeline grafica» è l'ultimo importante stadio e fornisce l'aspetto finale al modello e all'animazione. Con il crescente perfezionamento della grafica computerizzata dal 1970 in avanti è diventato un sempre più importante soggetto di studio e ricerca. È usato per: montaggio video/giochi per computer, simulatori, effetti speciali per film/serie TV, e visualizzazione di progetti. Ciascuno con una differente combinazione di caratteristiche e tecniche. Come prodotti, sono disponibili una gran numero di renderizzatori, alcuni dei quali integrati nei più diffusi pacchetti di modellazione e animazione, alcuni 64 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 236-237 77 indipendenti, altri ancora sono progetti open source. Dall'interno, un renderizzatore è un programma progettato attentamente e basato su una combinazione selezionata di metodi relativi a: ottica, percezione visiva, matematica e ingegneria del software. Nel caso della grafica tridimensionale, il rendering è un processo lento e richiede un gran numero di elaborazioni (nel caso di creazione di film), oppure è assistito in tempo reale dagli acceleratori 3D delle schede grafiche (per i giochi tridimensionali).65 In pratica il rendering è un processo che consente di ottenere un’immagine bidimensionale da una fonte di dati tridimensionale. Tutte le informazioni che sono state impostate all’interno di un software 3D vengono elaborate dal motore di rendering che genererà i fotogrammi in successione.66 4.3 Come funziona Per eseguire il rendering occorre un’alta capacità computazionale e di stoccaggio dati, per questo motivo gli studi sono attrezzati con unità di elaborazione dette renderfarm. Le renderfarm sono costituite dall’unione di decine di computer ognuno dei quali è dotato di due o più processori (CPU). La Pixar animation Studio dal 10 febbraio 2003 ha a disposizione una nuova renderfarm costituita da 1024 processori Intel Xeon e da oltre 60 terabyte di memoria di massa. Fig 28) Alien. Fonte: http://www.softimage.com/Products/3d/v4/media/alien_lg.jpg Fig 29) Renderfarm. Fonte: http://www.skullbox.net/clusters/renderfarm.jpg 65 Tratto da: http://it.wikipedia.org/wiki/Rendering 66 Pier Luigi Capucci, Realtà del virtuale, cit., p.207. 78 Tutti gli studi di grandi dimensioni utilizzano renderfarm di questo tipo per generare gli oltre 110.000 frame che mediamente occorrono per completare un film d’animazione 3D. Il motore di rendering è lo strumento più importante di questo processo. Nel corso degli anni gli sviluppatori hanno programmato motori di rendering diversi, ognuno dei quali affronta la simulazione di principi fisici in modo differente; attualmente il motore di rendering più usato nei film d’animazione 3D è Photorealistic RenderMan. Spesso viene usato solo il termina RenderMan (RMan) per indicare il motore (engine) di rendering della Pixar, in realtà RMan non è un motore di rendering, ma è un’interfaccia di comunicazione con altri motori. La prima implementazione di questo standard è appunto Photorealistic RenderMan sviluppato dalla Pixar Animation Studio nel 1988. Ad oggi esistono diversi motori che hanno implementato questo standard, come 3Delight, Air (Advance Image Rendering), Aqsis, BMRT (Blue Moon Rendering Tools), Entropy creato dalla società Exluna. RenderMan è quindi un protocollo che mette in comunicazione programmi di modellazione con programmi di rendering. In questo senso RenderMan assume lo stesso ruolo che il sistema PostScript ha per le immagini 2D. La maggior parte dei motori di rendering che implementano RMan si basano su un algoritmo di tipo scanline chiamato REYES. Nel 1981 Loren Carpenter iniziò a scrivere il primo motore di rendering per la LucasFilm e lo chiamò Renders Everything You Ever Saw (REYES). Nel 1987 fu presentato ufficialmente al Siggraph con il paper The REYES Image Rendering Architecture. Questo algoritmo divide la geometria in poligoni quadrangolari durante l’operazione di rendering. Questi poligoni sono così piccoli che comunemente vengono definiti micropolygon. Per questo motivo REYES viene anche chiamato micropolygon render. Per immagini di alta qualità la grandezza di questi poligoni è pari alla grandezza di un pixel dell’immagine o inferiore (subpixel). Circa vent’anni fa, quando la comunità di ricercatori iniziò a studiare le problematiche della generazione di immagini in CGI per gli effetti visuali, uno dei principali obiettivi era creare immagini fotorealistiche di alta qualità. Le immagini cinematografiche sono infatti proiettate in alta definizione su grande schermo e anche il più piccolo artefatto della grandezza di un pixel risulterebbe visibile al pubblico. Per raggiungere tale livello di qualità occorreva che le scene tridimensionali potessero essere costituite da milioni di oggetti e che ad ognuno si potessero associare dettagli 79 superficiali. Inoltre era necessario ottenere una perfetta simulazione delle fonti luminose, dell’effetto motion blur e del depth of field (sfocatura di campo). L’utilizzo di algoritmi che simulassero fisicamente questi effetti ottici era però una strada impraticabile per la lentezza di elaborazione dei computer di quei tempi. Fu scelta quindi una via completamente diversa che non tenesse in considerazione ciò che avviene nella realtà ma solo ciò che serve per ottenere immagini identiche a quelle impresse sulla pellicola. Da questo concetto derivano REYES e RenderMan. Semplificando si può dire che renderman lavora elaborando dati che provengono da tre differenti file. Il RIB file (RenderMan Interface Bytestream) contiene la descrizione geometrica della scena, chiamate agli shader e opzioni come la risoluzione e la profondità colore dell’immagine. Questo file viene normalmente generato dal software con cui si sta creando la geometria e/o l’animazione. L’SL file (Shading Language) contiene le informazioni relative agli shader e determina come ogni singolo materiale interagirà con la luce. All’interno dell’SL file sono presenti le chiamate alle texture. Il RIB archive normalmente non contiene informazioni relative all’immagine ma solo alla geometria e agli shader. Questo file viene chiamato da un RIB file principale nella fase di rendering e assume la stessa funzione che hanno i file “reference” presenti in quasi tutti i software di animazione 3D.67 4.4 Livelli di Rendering Alla ricerca continua del più alto grado di realismo visivo si può, contrapporre una ricerca di effetti di carattere impressionistico o di semplificazione della raffigurazione che tendono verso la caricatura o lo stile “da cartone animato”, il cui scopo è quello della verosimiglianza piuttosto che quello della riproduzione del vero. Volendo quindi organizzare in una scala di livelli crescenti di iconicità i metodi di raffigurazione eidomatica, dal più astratto e simbolico al più verosimile, via via aggiungendo effetti e tecniche diverse, incontriamo: • Proiezioni ortogonali di figure a fil di ferro • Prospettiva di figure a fil di ferro • Rimozione delle linee e superfici invisibili • Modelli di illuminazione locali con ombre proprie 67 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 208-214 80 • Poliedri a facce piatte – Shading Flat • Poliedri smussati – Shading Smooth • Ombre portate • Tessiture (texture) ed effetti superficiali • Riflessioni simulate • Modelli di illuminazione globali e foto realismo Fil di ferro Il primo livello di resa visiva che consideriamo è la tecnica detta a fil di ferro (wire frame) con la quale la forma tridimensionale, descritta con un modello geometrico, viene raffigurata mediante linee di contorno. Nella sua versione più semplice, la modalità a fil di ferro consiste nel raffigurare tutti gli spigoli del modello geometrico, ed è comunemente usata da tutti i programmi di modellazione geometrica interattiva. In questo modo si tracciano anche le linee che sarebbero in teoria invisibili, in quanto nascoste da facce che dovrebbero essere opache. Questa forma di raffigurazione si presta molto bene per creare disegni di carattere tecnico, in particolare le proiezioni parallele ortogonali o assometriche. Il limite principale di questo stile di raffigurazione è, tuttavia, l’impossibilità di indicare con chiarezza la profondità di una scena e, soprattutto, di riconoscere ciò che è visibile e costituisce le facce rivolte verso l’osservatore da ciò che è visibile e rivolto nel senso opposto. 81 Questa forma di rappresentazione è sistematicamente adottata nei sistemi di modellazione geometrica, quando è necessario agire su ogni vertice o faccia di una struttura complessa. Prospettiva a fil di ferro Un aiuto all’interpretazione della tridimensionalità della scena deriva dall’uso della proiezione prospettica, tuttavia ci sono numerose configurazioni di forme che restano di difficile interpretazione anche in questo caso. Anche rimuovendo le linee invisibili, perché mascherate da facce più vicine all’osservatore, molte ambiguità non vengono risolte e ne nascono di nuove. Indizi di profondità – Depth Cueing Una tecnica che veniva frequentemente usata quando il costo computazionale per rimuovere le linee invisibili era eccessivo, consisteva nell’attribuire a ogni segmento di una scena raffigurata a fil di ferro con proiezione prospettica un livello di grigio o di colore progressivamente più scuro col crescere della distanza. Questa tecnica si ispira alla prospettiva aerea di Leonardo da Vinci, e aiuta a percepire meglio i rapporti di profondità tra le parti di una scena complessa. La risoluzione che generalmente si adottava consisteva nell’assegnare il livello di luminosità massimo ai segmenti prossimi al piano di clipping frontale e minimi ai segmenti prossimi al piano di clipping in fondo, e a tutti i segmenti intermedi un livello di luminosità proporzionato tra questi due estremi. 82 Linee nascoste Per risolvere le ambiguità percettive, indotte dalla presenza di linee che dovrebbero essere mascherate da facce opache, occorre risolvere il problema della rimozione delle linee nascoste. Si tratta di un problema classico nella computer grafica, che ha avuto nel corso degli anni numerosissime soluzioni. Infatti fino a pochi anni fa si trattava di un problema computazionalmente molto complesso che richiedeva quindi elevati tempi di calcolo. Solo recentemente, per merito dell’attuale velocità operativa dei processori, la rimozione delle linee nascoste può essere compiuta in tempo reale, permettendo di visualizzare in movimento forme molto complesse. Nella sua forma più semplice, il problema si risolve confrontando ogni linea della geometria di una scena con tutte le superfici della scena stessa per decidere se la superficie si trova davanti alla linea in esame rispetto alla direzione d’osservazione. Se la risposta è positiva per almeno uno dei due vertici, occorre trovare il punto in cui la proiezione della superficie interseca la proiezione della linea. Un algoritmo molto semplice ed elegante è dovuto a Roberts, ed è limitato a scene composte da poliedri con facce poligonali (questa limitazione è certamente soddisfatta se le scene sono composte interamente da triangoli). L’eliminazione degli spigoli visibili si compie dopo aver applicato alla scena la trasformazione prospettica, e mantenendo la descrizione geometrica di ogni vertice in coordinate omogenee; questo preserva la coordinata z di profondità e permette di semplificare alcuni calcoli. Innanzi tutto si introduce il concetto di faccia autonascosta: si tratta di una faccia della scena che è orientata in senso opposto alla direzione di osservazione. Per accertare se una faccia è autonascosta, è sufficiente confrontare la direzione della normale della faccia con la direzione della proiezione prospettica, ma poiché quest’ultima coincide, nella configurazione canonica, con la direzione dell’asse z, il test si riduce al confronto tra la normale e l’asse z. Una volta individuate le facce autonascoste, si possono eliminare dai successivi confronti tutti gli spigoli che sono comuni a due facce autonascoste. Questa prima fase viene chiamata anche back face culling (scelta delle facce posteriori). Gli spigoli rimanenti devono essere confrontati con ogni poliedro della scena. Per semplificare ulteriormente questa fase di confronto, è possibile delimitare ogni poliedro con tre coppie di valori che indicano i valori minimi e massimi delle sue coordinate nelle tre direzioni; anche questi valori vengono trasformati prospetticamente e il test di occlusione tra un poliedro e uno spigolo si 83 riduce ad un test preliminare tra i valori minimi e massimi che delimitano l’ingombro (buonding box) del poliedro. Quando uno spigolo non supera questo test, potrebbe essere parzialmente o interamente mascherato dal poliedro, e l’indagine si fa più assicurata per cercare di trovare l’eventuale punto di transizione tra visibilità e invisibilità dello spigolo in esame. Il vincolo di convessità sulle facce dei poliedri garantisce che uno spigolo possa essere mascherato interamente o parzialmente ma che non vi siano alternanze di visibilità. Superfici nascoste Anche la rimozione delle superfici nascoste ha costituito per lungo tempo un problema critico per la sua complessità computazionale; oggi è ormai risolta con processori specificamente dedicati e integrati nelle schede grafiche dei personal computer che adottano l’algoritmo z-buffer. Per giungere ad una soluzione del problema sono state esplorate numerose strade. Il problema della rimozione delle superfici nascoste, infatti, si presta ad innumerevoli soluzioni, la cui efficienza dipende dalla capacità del metodo di sfruttare le proprietà di coerenza di una determinata scena. Il concetto di coerenza si incontra spesso nel trattamento delle immagini: si tratta di individuare proprietà della scena o dell’immagine che si presentano in modo simile in diverse posizioni, allo scopo di semplificare le operazioni. Se un’operazione può venire applicata a gruppi di pixel che hanno tra loro una qualche proprietà di coerenza, allora si riducono sensibilmente i tempi di calcolo. Sutherland, Sproull e Schumacher, in un importante lavoro di rassegna del 1974, elencavano ben otto possibili tipi di coerenza in scene tridimensionali, che possono essere sfruttati per risolvere con maggiore efficienza la rimozione delle superfici nascoste. Per comprenderli dobbiamo ricordare che la scena viene esaminata dopo che è stata trasformata prospetticamente, ma prima che la proiezione piana sia stata effettivamente compiuta, in modo da conservare le informazioni di profondità. Le proprietà di coerenza sono quindi: 1. Coerenza tra oggetti: se due oggetti sono interamente separati spazialmente, anche ogni loro singola faccia è spazialmente separata (nella ricerca delle facce 84 nascoste, due oggetti che non si occludono implicano che anche le loro rispettive facce non si occludano); 2. Coerenza tra facce: in generale le proprietà di una faccia variano gradualmente, da una posizione all’altra (se due facce si occludono in un punto è molto probabile che l’occlusione si estenda lungo tutta la faccia, e la verifica può essere fatta con metodi di calcolo molto veloci); 3. Coerenza tra spigoli: la condizione di visibilità di uno spigolo cambia soltanto se lo spigolo penetra una faccia o se incrocia un altro spigolo visibile (l’incrociarsi va qui inteso nel piano di proiezione); 4. Coerenza tra spigoli d’intersezione: se una faccia penetra un’altra, il loro spigolo di intersezione si può calcolare dati due soli punti d’intersezione (il calcolo dell’intersezione tra facce è quindi semplificato); 5. Coerenza tra linee di scansione: gli oggetti visibili lungo una linea di scansione hanno una probabilità molto bassa di cambiare nella linea di scansione successiva; 6. Coerenza d’area: un gruppo di pixel vicini è spesso coperto dalla stessa faccia visibile; 7. Coerenza di profondità: parti vicine di una stessa faccia sono spesso vicine anche in profondità, mentre superfici differenti nella stessa posizione sul piano di proiezione sono in genere separate in profondità (di conseguenza quando la posizione di un punto su una superficie è nota, i punti adiacenti possono essere calcolati con grande efficienza); 8. Coerenza tra fotogrammi: due proiezioni della stessa scena calcolate da punti di vista distinti in una sequenza di immagini (animazione) hanno una probabilità molto elevata di differire di poco (i calcoli fatti per un fotogramma possono essere riusati per il fotogramma successivo). Il limite principale del problema della rimozione delle superfici nascoste consiste nella necessità teorica di dover confrontare tra loro ogni possibile coppia di superfici. Ciò significa che per scene con un elevato numero di superfici (pensiamo ad esempio a triangoli) il numero di confronti è elevatissimo. Se il numero di triangoli è n, il numero di confronti da compiere è dell’ordine di n²; quindi una scena con 10.000 triangoli (tipica di un videogioco commerciale) richiederebbe 100 milioni di confronti e di conseguenti calcoli. 85 La nozione di coerenza tra oggetti, ad esempio, permette di ridurre il numero dei confronti tra facce compiendo prima un confronto tra i buonding box degli oggetti in esame: se sono disgiunti nella proiezione non è necessario fare altri test, perché tutte le facce dei due oggetti sono disgiunte (questa tecnica è usata, come abbiamo visto, nel metodo di Roberts per le linee nascoste). La coerenza per linee di scansione e per area viene sfruttata invece dall’algoritmo z-buffer, ideato nel 1974 da E. Catmull, che per la sua semplicità ed efficienza ha potuto essere in seguito implementato su processori dedicati con risultati tali da permettere l’animazione in tempo reale di scene molto complesse. Z-Buffer Il principio base del metodo z-buffer consiste nel tracciare l’immagine pixel per pixel sullo schermo, mantenendo l’informazione di profondità dei pixel già tracciati per poterla confrontare con quelli ancora da tracciare. Ovviamente è necessario predisporre una tabella che abbia le medesime dimensioni del frame buffer che conterrà l’informazione di profondità dei pixel via via tracciati. Questo algoritmo, inoltre, presuppone che sia disponibile un metodo che ricava, per ogni poligono della scena, le coordinate del pixel sul piano di proiezione, e questo metodo non è altro che la scanconversione o rasterizzazione dei poligoni. All’inizio il frame buffer viene interamente riempito dal colore di sfondo e lo zbuffer viene posto a un valore costante pari a 0; vengono poi analizzati in successione tutti i poligoni della scena, si determinano i pixel del poligono calcolando le coordinate x, y nel piano di proiezione e la coordinata di profondità z. Questa viene confrontata con il valore già registrato (0 o il valore di un pixel già tracciato); se questo è maggiore, allora il pixel in esame è più vicino all’osservatore di quello precedentemente tracciato e si aggiorna sia lo z-buffer che il frame buffer, inserendo in quest’ultimo il valore di colore che compete al pixel in esame, altrimenti i valori dello z-buffer e del frame buffer vengono lasciati invariati. Il metodo procede poligono per poligono, quindi, la sua complessità computazionale non è superiore a numero_poligoni×dimensione_window, ed è quindi molto vantaggioso quando il numero di poligoni è molto maggiore del numero di pixel della window. In tal caso infatti è molto improbabile che il numero di poligoni interessati a un determinato pixel sia elevato, pertanto il confronto sarà limitato a pochi 86 poligoni. In tal modo per scene con molti poligoni, il numero di confronti sarà vicino al numero di pixel totali. La disponibilità di memorie a basso costo per realizzare lo zbuffer con hardware, e di tecniche di produzione economiche per micro circuiti che seguono le computazioni necessarie hanno reso questo metodo velocissimo. Un’alternativa allo schema di procedimento descritto consiste nell’analizzare i dati non poligono per poligono, ma procedendo pixel per pixel e cercando quali poligoni sono interessati dal pixel in esame; questo metodo però è meno efficiente. Un aspetto critico dello z-buffer riguarda il confronto tra i valori z di un pixel in esame e il valore z già registrato nello z-buffer: infatti se questi sono identici nasce un’indeterminatezza: si lascia invariato il valore di colore della faccia precedente o lo si aggiorna con il colore della nuova faccia? Alcuni sistemi grafici non risolvono in modo accurato questa determinatezza dando luogo a grafici in cui triangoli di una superficie possono cambiare da un fotogramma al successivo. Per evitare questo problema è buona norma, in fase di modellazione, evitare di definire due superfici adiacenti con le stesse coordinate, ma scostarle di un valore molto piccolo. Il metodo dello z-buffer consente di generare immagini con il livello di precisione imposto dalla risoluzione spaziale dell’immagine finale; pertanto poligoni molto distanti dal piano di proiezione che apparirebbero molto piccoli, al limite della dimensione di un pixel, vengono inutilmente analizzati. Un miglioramento di velocità può essere ottenuto in due modi: sfruttando il clipping 3D, definendo in modo opportuno la distanza del piano di sfondo, oppure organizzando la scena per livelli di dettaglio. I livelli di dettaglio, spesso indicati nel gergo tecnico con la sigla LOD (level of detail) non sono altro che modelli diversi di ciascun oggetto: più accurati quando 87 devono essere visualizzati a breve distanza, semplificati quando devono essere osservati da distanze più elevate. Questa strutturazione della scena viene compiuta in fase di modellazione ed è molto importante per applicazioni in cui il tempo reale è un elemento critico, come nei videogiochi, o nei simulatori di volo, che devono trattare scene di dimensioni molto grandi con oggetti posti a distanze molto elevate. Infine osserviamo che l’algoritmo z-buffer si presta a risolvere il problema delle facce nascoste anche per scene composte da modelli non poligonali: è infatti sufficiente disporre di un metodo di rasterizzazione adeguato a queste strutture, quali, ad esempio, superfici parametriche, la cui rappresentazione matematica permette di calcolare le coordinate di ogni punto, senza bisogno quindi di convertire la superficie in triangoli. Ray Casting Un’alternativa al metodo dello z-buffer per la rimozione delle superfici nascoste è il metodo del ray casting, ideato da Appel nel 1968 e applicato immediatamente a un modellatore solido CSG della società MAGI. L’idea molto semplice, è quella di immaginare di tracciare una serie di rette dal centro di proiezione ad ogni pixel dello schermo, verificando se e dove esse incontrano un oggetto della scena. La scena può essere descritta da solidi CSG, da poliedri o da superfici parametriche, e per risolvere l’intersezione è sufficiente predisporre un algoritmo per il calcolo tra le rette (i raggi) e gli oggetti modellati. Il metodo così descritto si limita a determinare la visibilità di ogni oggetto della scena, ma può essere esteso, come vedremo, per simulare fenomeni più complessi, quali ombre, trasparenze e così via. 88 Dal punto di vista computazionale il metodo ray casting è più complesso dello zbuffer, in quanto deve essere eseguito per ogni pixel dello schermo e per ogni oggetto della scena; si possono escogitare trucchi per ridurre la ricerca di oggetti potenzialmente interessati da un raggio, ma l’esplorazione dell’intero spazio immagine non può essere evitata. Anche il calcolo dell’intersezione tra raggio e oggetto può essere ottimizzato, in primo luogo sfruttando la coerenza spaziale della scena, inglobando ogni oggetto in una bolla sferica o in buonding box di forma particolare. La sfera semplifica notevolmente il test di assenza di intersezione, poiché basta confrontare l’equazione del raggio con il raggio della sfera stessa, ma per oggetti di forma irregolare i falsi positivi diventano molto elevati. L’organizzazione gerarchica della scena, implicita in un modello CSG, può inoltre aiutare nell’esclusione d’intersezioni impossibili. Un’ulteriore ottimizzazione sfrutta la coerenza tra facce e permette di realizzare versioni che procedono per raffinamenti successivi, migliorando progressivamente la risoluzione dell’immagine finale. Per scene costruite con operazioni booleane, è necessario risolvere l’equazione booleana che definisce l’oggetto composito. Si tratterà di individuare tutte le intersezioni dal raggio con gli oggetti componenti (sia l’intersezione di entrata sia quella di uscita) e applicare le operazioni booleane ai tratti stessi. Altre tecniche di rimozione delle superfici nascoste Sono stati sviluppati numerosi algoritmi per la rimozione di superfici nascoste nel corso degli anni; ne citiamo brevemente, per completezza, due dei più significativi. 89 Partizione di spazio in albero binario (BSP_tree) e Suddivisione del piano immagine Nel primo caso lo spazio mondo viene suddiviso in regioni disgiunte organizzandole in un albero binario; a tale scopo si cercano piani di separazione dello spazio che classificano le facce degli oggetti della scena come appartenenti ad uno dei due semispazi creati dal piano. La procedura prosegue finché tutte le facce sono state classificate. La determinazione della visibilità diventa estremamente semplice alla fine del procedimento, che viene compiuto una sola volta all’inizio dell’algoritmo, e si presta molto bene per la navigazione in scenari la cui geometria non cambia nel tempo, ma cambia solo il punto di vista. Infatti, se la geometria della scena cambia l’albero binario deve venire completamente ricalcolato. Il metodo è spesso adottato per la visualizzazione di scenari nei videogiochi. Nel caso della suddivisione del piano immagine, un algoritmo, ideato da Warnock nel 1969, suddivide il piano di proiezione in quadranti e valuta se all’interno di ciascuno si realizza uno dei seguenti casi: 1) un poligono circonda completamente un quadrante; 2) un poligono interseca il quadrante; 3) un poligono è completamente contenuto nel quadrante; 4) il poligono e il quadrante sono disgiunti. Questi casi aiutano a prendere una decisione immediata, colorando interamente il quadrante del colore del poligono oppure del colore di sfondo, altrimenti il quadrante viene ulteriormente suddiviso in quadranti più piccoli e il procedimento di classificazione riprende. La suddivisione procede fino alla risoluzione del pixel. La differenza principale tra i due sopra illustrati consiste nel fatto che il primo opera nello spazio del modello e il secondo nello spazio immagine, quindi la precisione dei due metodi è assai diversa. La scelta cadrà sul metodo più adatto al tipo di problema in esame. Vale comunque la pena ricordare ancora una volta che, tra tutti i metodi illustrati, il ray casting e lo z-buffer (entrambi limitati al livello di precisione dello spazio immagine) sono ormai i più diffusi, rispettivamente, per qualità e velocità.68 Fig 30) WireFrame. Fonte: http://www.videocom.it/immagini_formz/interiorwire.gif Fig 31) Depth Cueing. Fonte: http://www.cs.newcastle.edu.au/~richard/research/thesis/fig2-38a.gif Fig 32) Z Buffer. Fonte: http://aspc.cs.utt.ro/~egc/Lab/Labs/Lab09/01.gif Fig 33) Ray Casting. Fonte: http://medvis.vrvis.at/typo3temp/pics/e05a6e9a6b.png 68 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 240-254 90 4.5 Modelli di illuminazione La determinazione del colore che compete a ciascun pixel nel procedimento di rimozione delle superfici nascoste è il problema centrale della simulazione visiva. Se ad esso diamo una soluzione semplice, assegnando a ciascuna superficie o a ciascun oggetto un colore determinato, il risultato che si ottiene è di avere oggetti di colore uniforme nei quali è praticamente impossibile cogliere l’individualità di ciascuna faccia. Per poter mettere in evidenza le singole facce, individuare le ombre proprie e dare un maggiore senso di profondità alla scena, è necessario utilizzare un modello di illuminazione, ovvero un modello matematico che descrive, in modo più o meno semplificato, l’interazione tra la luce e gli oggetti della scena.69 Già nella fase di pre-produzione il team artistico inizia a studiare l’illuminazione. Solitamente vengono utilizzati i disegni più significativi dei vari set, e partendo da questi si inizia a studiare il colore delle luci e delle ombre, la loro intensità, forma e posizione. Dopo aver sperimentato soluzioni diverse, il regista, insieme al direttore artistico ed al supervisore all’illuminazione, decide le linee guida da seguire per tutte le scene del film. Successivamente, un team ristretto di artisti inizia a preparare i lighting sketch, prendendo come riferimento i pannelli dello storyboard. Questi disegni vengono eseguiti velocemente e contengono pochissimi dettagli perché quello che dev’essere rappresentato è solo il colore e l’interazione della luce con i personaggi e con gli ambienti. Una volta conclusi questi schizzi, sarà possibile valutare l’aspetto cromatico e l’atmosfera di ogni scena del film. Questo lavoro serve agli artisti che si occupano di simulare in 3D quello che è stato concepito nei disegni. La fase di lighting 3D inizia con i diversi test che consentono di capire le metodologie più corrette per ottenere una buona immagine; l’illuminazione delle scene prende il via quando i set sono ancora privi di materiali e texture. Questo approccio è utile per due motivi principali: il primo è legato alla velocità computazionale, infatti le scene, essendo prive di shader e texture, contengono molti 69 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 254-255 91 meno dati che normalmente rallentano il feedback; il secondo motivo è legato ad un fattore percettivo: le scene sono visivamente meno complesse e consentono di valutare con più semplicità le caratteristiche delle luci. Quando le prime scene del film saranno complete di shader, texture e animazioni, il team dei lighter artist lavorerà per modificare i set di luci approssimativi fino ad ottenere l’atmosfera corretta. L’illuminazione all’interno di un film d’animazione 3D svolge un ruolo fondamentale. Gli strumenti che il light designer utilizza sono molto diversi da quelli che vengono impiegati in un film live, ma i principi e gli obiettivi sono gli stessi. I tool che vengono usati nei software 3D sono molto più flessibili di quelli usati dai direttori delle luci nei film reali ed esistono molti attributi che sono assenti nella realtà. Il team che si occupa di illuminare le scene dei film non deve solo simulare un fenomeno fisico, ma anche considerare che la luce influenza il modo di raccontare la storia. Nello specifico, la luce influenza la direzione dello sguardo degli spettatori, crea profondità, dà informazioni sul tempo e sulle stagioni, cambia l’atmosfera, rivela la personalità dei personaggi e delle situazioni. La luce è usata per illuminare ciò che è all’interno delle scene, ma per ottenere un buon risultato occorre capire cosa va enfatizzato e cosa va nascosto. Un personaggio importante in una scena d’azione dovrà essere in qualche modo distinto dagli altri elementi della scena; una luce uniforme, oltre ad apparire sgradevole, non aiuterà lo spettatore a capire cosa sta accadendo nel film. La luce influenza la composizione della scena ed è quindi fondamentale che chi si occupa di illuminazione abbia una conoscenza base delle teorie di composizione, che sappia come bilanciare un’immagine, come enfatizzare un elemento e come dare armonia alla scena. Ciò che viene proiettato sugli schermi di un cinema o in televisione è un’immagine bidimensionale; il fatto che questa immagine sia stata generata con software tridimensionali non significa che abbia automaticamente profondità. La profondità è un’illusione ottica: un personaggio o una scena tridimensionale, se illuminati in modo sbagliato, possono apparire del tutto piatti e insignificanti. La luce è quindi applicata anche per enfatizzare ed aumentare il senso di profondità delle immagini. In alcune situazioni il senso di profondità è dato da una prospettiva molto accentuata o dalla posizione e forma degli elementi, ma nella maggior parte dei casi solo con la luce è possibile creare questo effetto ottico. È possibile utilizzare differenti tecniche per raggiungere lo stesso obiettivo; servendosi ad esempio di differenti luci con valori di intensità diversi è possibile creare 92 un contrasto tra zone vicine e zone lontane. Anche il colore della luce influenza notevolmente la sensazione di distanza degli elementi all’interno della scena. In generale i colori caldi tendono ad avvicinare mentre i colori freddi allontanano. Aggiungere effetti atmosferici aiuta a creare profondità; anche in questo caso la luce può essere usata per creare la giusta sensazione: è possibile ad esempio utilizzare luci volumetriche per enfatizzare un elemento o per nascondere una parte della scena. Utilizzare la luce per comunicare il passaggio del tempo è importante ai fini del racconto. Per ottenere questo effetto occorre saper dosare diversi attributi legati alla luce: la tipologia di luce, l’intensità, il colore e la direzione. Un altro aspetto importante che gli artisti delle luci devono considerare è legato alla motivazione dell’esistenza di una fonte luminosa in un certo punto della scena. Nel mondo 3D tutto è possibile e una luce può provenire da qualsiasi punto, ma per dare la giusta sensazione allo spettatore occorre che ci sia un legame logico tra la luce e la sua origine. Una scena interna con una finestra aperta di giorno obbliga l’artista ad utilizzare una luce coerente con il set; altre luci non fisicamente coerenti potranno essere aggiunte per migliorare la scena e per aumentare la qualità della composizione. Nei software 3D esistono differenti tipologie di luce: • luce direzionale (directional light) • luce puntiforme (point light) • luce spot (spot light) • luce ad area (area light) • luce volumetrica (volume light) • luce ambientale (ambient light) Tutte queste luci possono essere ricondotte a due grandi categorie di modelli d’illuminazione: i modelli locali e i modelli globali. I primi descrivono in modo semplificato le caratteristiche delle sorgenti di luce, degli oggetti della scena e della loro reciproca interazione. I secondi considerano in modo molto più accurato le interazioni che avvengono tra sorgenti di luce, oggetti e luce riflessa dagli oggetti stessi. La luce spot è usata solitamente per illuminare una porzione di scena, è la luce che proviene da un punto e viene proiettata in una direzione precisa con un’ampiezza variabile; la floodlight o pointlight emette luce in ogni direzione; l’area light emette 93 luce attraverso un pannello quadrangolare. Queste differenti tipologie di luce possono essere impiegate per assolvere compiti diversi. Le funzioni delle luci sono indipendenti dalla tipologia della luce stessa; non esiste una relazione predeterminata tra la tipologia di luce e la sua funzione. C’è invece un legame stretto tra il compito che una certa tipologia di luce svolge e la sua posizione.70 Come detto, i modelli locali considerano l’interazione tra luce prodotta dalle sorgenti e gli oggetti della scena singolarmente presi, senza considerare interazioni tra di essi o con l’ambiente e l’atmosfera generale. 4.5.1 Modello di Lambert Il modello di Lambert71 è il modello più semplice e descrive il comportamento di superfici perfettamente diffusive (prive cioè di riflessioni speculari o bagliori). Una superficie diffusiva in generale è scabra, e la luce viene riflessa in tutte le direzioni, in modo che però l’intensità sia maggiore quando viene riflessa nella direzione della sorgente e minima nella direzione ortogonale. È importante osservare che la luminanza riflessa da un elemento d’area infinitesimo di questa superficie, misurata lungo qualsiasi angolo, risulta costante. 70 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 188-196 71 Johann Lambert, collega di Eulero e di Lagrange all'Accademia delle Scienze a Berlino. Nel 1776 scrisse Theorie der Parallellinien, uno studio del postulato delle parallele. Assumendo che il quinto postulato fosse falso, dedusse alcuni risultati di Geometria non Euclidea e notò che in questa nuova geometria la somma degli angoli di un triangolo aumentano al diminuire della sua area. Lambert fu il primo a dare una rigorosa dimostrazione dell'irrazionalità del p greco e poi ipotizzò che p greco ed e fossero trascendentali. Lambert fece anche il primo sviluppo sistematico delle funzioni iperboliche e apportò alcune innovazioni allo studio del calore e della luce e alla teoria della probabilità. Tratto da: http://www.dm.unibo.it/matematica/GeometrieNonEulidee/lambert.html Fig 34) Modello di Lambert. Fonte: http://www.tech-hounds.com/article8/DIFFUSE.GIF 94 Per capire questo concetto, si può prendere una pallina da ping pong e tracciare un segno visibile in un punto, in modo da distinguere l’orientamento. Ponendola quindi vicino ad una sorgente di luce si provi, tenendola ferma, ad osservarla da diversi punti di vista spostando la testa. Ora, tenendo ferma la testa si ruoti la pallina avanti e indietro. Nel primo caso l’occhio riceverà da un punto la medesima luminanza indipendentemente dall’angolo d’osservazione, mentre nel secondo caso il punto varierà l’intensità riflessa ruotando rispetto alla lampada. Con questa legge è facile associare ad ogni faccia di un poliedro o di una scena l’intensità riflessa in qualsiasi direzione. Con il modello di Lambert otteniamo immagini che evidenziano il diverso orientamento delle facce del poliedro rispetto alla sorgente di luce.72 4.5.2 Luce Ambientale La luce ambientale, oltre ad essere il nome di una tipologia di luce, descrive anche una funzione precisa; solitamente il tono generale delle ombre all’interno di una scena è determinato dalla luce ambientale. In un film live questo effetto è ottenuto posizionando un tessuto bianco sopra il set; la luce naturale viene riflessa dal tessuto schiarendo i punti d’ombra. Nei software 3D viene solitamente usata una luce ambientale che influisce indistintamente su tutte le zone in ombra che possono schiarire in modo diverso i punti più scuri della scena. La luce ambientale viene impiegata per schiarire le zone di nero assoluto.73 Se proviamo ad applicare il modello di Lambert così com’è stato formulato, otteniamo immagini molto contrastate, proprio come succede fotografando una persona in una giornata di sole molto luminosa: le parti illuminate riflettono una grande quantità di energia, mentre quelle all’ombra appaiono molto scure, con pochissimi particolari. Per risolvere il problema i fotografi professionisti ricorrono alle tecniche d’illuminazione ausiliaria, usando un’illuminazione diffusa da una superficie bianca illuminata da una lampada di temperatura colore simile a quella solare per schiarire le zone in ombra. I fotografi dilettanti spesso fanno uso del flash che svolge una funzione 72 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 255-256 73 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p.196 95 simile ma meno controllabile. In pratica con queste tecniche si cerca di aumentare il contributo di luce diffusa dall’ambiente che circonda il soggetto, per accrescere l’energia riflessa dalle zone in ombra. La conseguenza è che l’energia totale riflessa dal soggetto aumenta, ma nello stesso tempo è distribuita in modo uniforme. 4.5.3 Modello di Phong Il limite del modello di Lambert, modificato con l’aggiunta della componente ambientale, è che non permette di simulare superfici non perfettamente diffusive, come metalli o plastica. Phong ha formulato a tale scopo un modello che introduce la riflessione speculare, che dà luogo a bagliori dovuti al riflettere delle sorgenti di luce. La presenza del bagliore dipende questa volta dall’orientamento dell’osservatore rispetto all’oggetto. La superficie cioè non riflette più secondo la legge di Lambert (con eguale intensità in tutte le direzioni) ma ha una direzione privilegiata, e se l’osservatore guarda proprio in quella direzione vedrà una maggiore intensità di luce.74 4.5.4 Ombreggiatura Smussata – Smooth Shading Supponiamo ora di voler rendere una forma poliedrica che approssima una superficie curva, ad esempio una sfera o un cilindro descritto geometricamente con una famiglia di triangoli. Se applichiamo uno dei modelli di illuminazione appena descritti a ogni singola faccia, come abbiamo già visto, otteniamo una figura a facce piane che, più che ad una sfera o ad un cilindro, assomiglierà ad un poliedro. Per risolvere il problema si ricorre ad una tecnica di smoothing o smussatura del colore. Ci sono due Fig 35) Modello di Phong. Il metodo di Phong shading risulta il migliore per la modellazione di specular highlights (riflessi speculari) su superfici lucide. In questo caso, dovrebbe essere usato anche il modello di Phong lighting, che calcola il vettore di riflessione di ciascun pixel. Tratto da: http://www.nvitalia.com/articoli/glossario_3d/glossario_2.htm 74 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 256-258 96 soluzioni comunemente adottate, la prima dovuta a Gouraud e la seconda ancora a Phong. Lo shading di Gouraud consiste nell’interpolare i valori di colore di ogni superficie di un oggetto una volta che siano stati calcolati i valori di colore nei punti estremi di ogni linea di scansione. Queste normali, a loro volta, vengono calcolate dai valori delle normali ai vertici di ciascun segmento. Infine, se la faccia non è isolata, la normale in ogni vertice si calcola come valore medio delle normali di ciascuna faccia. Per semplicità supponiamo che il metodo sia applicato a poliedri composti da facce triangolari. A tale scopo il metodo deve prima computare il valore di colore nei tre vertici del triangolo risolvendo il modello di illuminazione, e questa operazione può essere compiuta prima della fase di smoothing vera e propria. Successivamente, durante la risoluzione delle superfici nascoste con il metodo z-buffer, determinata una linea di scansione, si calcolano per interpolazione dai vertici i valori di colore sugli spigoli del triangolo e, sempre per interpolazione, i valori di colore per ogni pixel lungo la linea di scansione considerata. Il metodo presenta alcuni vantaggi ed alcuni difetti. Il vantaggio principale risiede nella facilità d’integrazione con l’algoritmo z-buffer per il calcolo delle superfici nascoste. Si possono calcolare a priori le normali ad ogni faccia e le normali medie tra le facce adiacenti ad un vertice. Durante l’esame di una linea di scansione si applica il modello di illuminazione per il calcolo del colore dei vertici estremi e durante l’interpolazione lungo la linea di scansione si ottiene sia la coordinata z, da confrontare con il valore nello z-buffer, sia il suo colore. Tra i molteplici difetti del metodo, citiamo il rischio di annullare la curvatura e la pendenza dall’orientamento della faccia. Per individuare la normale ad un vertice in comune con più facce, occorre calcolarne una media aritmetica: ciò può dar luogo ad un valore costante anche quando la superficie non ha curvatura costante. La conseguenza è che la superficie apparirà totalmente piatta anziché ondulata. Per ovviare a questi difetti, e soprattutto per consentire che le riflessioni speculari siano correttamente calcolate anche all’interno delle facce, Phong ha proposto un metodo di smooth shading che, anziché interpolare i valori di colore lungo la linea di scansione, interpola le normali in ogni punto, e solo in seguito al risultato ottenuto per la normale calcola il colore e la profondità del pixel. Con questo metodo si eliminano alcuni difetti del metodo di Gouraud, ma il calcolo risulta notevolmente appesantito. D’altra parte il metodo smoothing di Phong riesce a rendere gli effetti di bagliore che 97 con lo smoothing di Gouraud sarebbero diffusi nel triangolo contenente il punto desiderato. 75 4.5.5 Ombre proiettate Le sorgenti di luce, puntiforme o estese, a distanza finita o infinita, proiettano ombre degli oggetti di una scena sulle superfici vicine. In tal caso, il punto in ombra non riceve luce dalla sorgente interessata ma solo la luce dovuta all’ambiente o ad altre sorgenti. Trattare questo caso con un modello di illuminazione locale diventa molto complesso e si preferisce semplificare il problema trattando le sorgenti estese allo stesso modo di quelle puntiformi. Per individuare le superfici ombra si possono adottare numerose tecniche. Una molto precisa, dovuta ad Atherton, Weiler e Greenberg, esegue il rendering in due fasi: durante la prima fase vengono calcolate le superfici ombra per ogni sorgente puntiforme, considerata come centro di una proiezione prospettica della scena; nella seconda fase tutte le superfici vengono rese e proiettate dal punto di vista dell’osservatore. Il limite di questo metodo è che se la geometria della scena cambia, occorre ricomputare l’insieme delle superfici ombra. Un’altra tecnica si basa sulla creazione di un volume virtuale che rappresenta il cono d’ombra proiettato da un oggetto. Questo volume viene intersecato con il frustum di visione,76 75 Fig 36 a) Modello di Gouraud. Per ogni vertice del poligono viene calcolato l'illuminamento. Fig 36 b) Lungo ciascun lato del poligono vengono interpolati i colori tra un vertice e l'altro Fig 36 c) I colori dentro il poligono sono interpolati attraverso delle linee di scansione (scanlines) Fig 36 d) Il poligono ombreggiato con il metodo Gouraud Fonte: http://www.nvitalia.com/articoli/glossario_3d/glossario_2.htm 76 Frustum di visione: Il Frustum di visione è il tronco di piramide che contiene la porzione della scena visibile. Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 266 98 determinando una regione dello spazio all’interno della quale tutti gli oggetti sono in ombra rispetto ad una data sorgente. Questa informazione viene utilizzata durante il rendering per decidere se ad una faccia occorre applicare il modello di illuminazione modificato per le ombre proiettate. Se sono presenti più sorgenti di luce puntiforme, ogni oggetto proietterà un differente cono d’ombra e l’intersezione tra di essi aiuterà a computare le penombre. Con questa tecnica si può anche simulare una sorgente estesa che proietta ombra e penombra, creando più coni d’ombra con i vertici molto vicini per ciascuna sorgente a distanza finita. Il metodo dei volumi d’ombra può essere utilizzato anche per la tecnica del ray tracing: ogni raggio dal centro di proiezione alla scena attraversa un cono d’ombra; si incrementa un contatore quando entra e lo si decrementa quando esce dal cono d’ombra; se al momento dell’intersezione con una superficie il contatore è a 0 allora il punto no è in ombra altrimenti è in ombra. Un’altra tecnica, ideata da Heidmann nel 1991, che sfrutta i volumi d’ombra utilizza una struttura speciale chiamata stencil buffer (buffer di timbratura). Si esegue in una prima fase il rendering con lo z-buffer attivo ma solo per le componenti di luce ambiente. Nella seconda fase lo z-buffer viene disattivato e si attiva lo stencil buffer, nel quale si registrano soltanto le facce dei volumi d’ombra: quando si disegna una faccia rivolta verso l’osservatore le posizioni corrispondenti nello stencil buffer vengono incrementate, quando si traccia una faccia opposta le posizioni vengono Fig 37) Frustum di visione. Fonte: http://wwweic.eri.utokyo.ac.jp/computer/manual/lx/SGI_Developer/books/Perf_GetStarted/sgi_html/figures/04.3.frustum.gif 99 decrementate. Quindi si esegue la terza fase, in cui si attiva lo z-buffer e si calcolano le componenti di illuminazione diffusa e speculare; per ogni posizione nello z-buffer si interroga il valore corrispondente nello stencil buffer: se è a 0, il pixel è illuminato altrimenti è in ombra. Un problema che spesso si presenta con le ombre proiettate è dovuto agli effetti di aliasing, in particolare per la tecnica dello z-buffer. Poiché in pratica si calcolano due proiezioni, una per il punto di vista e una per ciascuna sorgente di luce, in corrispondenza di ciascun pixel possono insorgere errori di approssimazione che aumentano l’effetto di seghettatura al bordo dell’ombra proiettata. Per eliminare questi difetti si ricorre a tecniche di anti-aliasing, in particolare computando con maggiore risoluzione i pixel prossimi ai bordi delle ombre.77 4.5.6 Altre tipologie di luce Oltre alle tipologie citate sopra inerenti ai modelli locali, esistono anche: • luce chiave (key light) • luce di riempimento (fill light) • luce posteriore (back light) • calcio di luce (kicker light) • luce speciale (special light) • luce rimbalzo (bounce light) La luce chiave è la luce principale della scena, la luce che domina su tutte le altre per intensità e colore. Questa luce determina la direzione e la forma delle ombre principali. La key light cambia drasticamente l’atmosfera della scena ed è solitamente usata per indicare la posizione dei personaggi principali. La luce di riempimento (fill light) è una luce a bassa intensità usata per schiarire le zone d’ombra dei personaggi; solitamente proietta ombre molto tenui e non influisce sulla specularità dei materiali. La fill light può essere posizionata in qualsiasi punto della scena; di solito è posta in opposizione alla key light. La tendenza delle fill light è 77 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 262 -267 100 la riduzione dell’effetto tridimensionale, il rapporto tra la key light e la fill light è detto light ratio e determina il contrasto generale dell’immagine. La back light è usata per separare il background dagli altri elementi della scena. Il calcio di luce è una luce opzionale ed è usata per aumentare l’effetto tridimensionale dei personaggi e/o oggetti; solitamente è adottata per evidenziare parti non fondamentali del character; è posta vicina al pavimento in opposizione alla key light e a volte può sostituire la back light. La luce speciale è un tipo di luce che viene usata per evidenziare una parte del set o un elemento particolare di un personaggio; di solito non proietta ombre. La luce di rimbalzo è usata per simulare l’effetto radiosity. In un set reale la luce colpisce gli oggetti, una parte di questa luce viene assorbita e una parte riflessa. Questo fenomeno fisico è simulato in computer grafica da diversi algoritmi e uno di questi è il radiosity. Spesso per i film d’animazione questa tecnologia non può essere impiegata a causa degli elevati tempi di calcolo, per questo motivo vengono usate le bounce light per simulare il fenomeno fisico del rimbalzo della luce diffusa.78 4.6 Attributi Per poter modificare una luce in relazione alla funzione che essa deve assolvere, occorre variare alcuni attributi specifici. L’insieme di questi attributi viene detto light model. Nel corso degli anni gli sviluppatori hanno aggiunto e perfezionato diversi attributi che consentono di controllare ogni aspetto delle fonti luminose, i principali sono: selezione (selection), forma (shape), ombre (shadowing), decadimento (dropoff), direzione (direction), proprietà (property) e tessiture (texture). Molti di questi attributi non hanno nessun legame con leggi fisiche reali; in questo modo il modello è molto flessibile e consente di ottenere immagini fotorealistiche ma anche immagini del tutto surreali. Con l’attributo selection è possibile associare uno o più oggetti ad una o più luci. La capacità della luce di illuminare solo un certo numero di oggetti non esiste nel mondo reale, ma è molto utile nel processo di illuminazione digitale; spesso infatti vengono usate luci diverse per illuminare i personaggi e gli sfondi. 78 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 195-198 101 Con l’attributo shape è possibile determinare un volume all’interno del quale ci sarà luce. La forma di questo volume può variare da un cubo, ad un cono, ad una piramide tronca, passando per infinite forme intermedie. Questa caratteristica consente di posizionare la luce in modo molto intuitivo all’interno della scena. Attraverso il soft edge è possibile definire in che modo la luce si attenui nelle zone perimetrali del volume. Attraverso il cuton e il cutoff si stabilisce una porzione limitata del volume in cui la luce si diffonde. Questo mezzo è utilizzato per escludere dal fascio di luce parti di oggetti. La forma della luce può inoltre essere scalata, ruotata e spostata all’interno del mondo tridimensionale senza nessuna limitazione. Con l’attributo shadowing si controllano diversi aspetti relativi alle ombre: è possibile ad esempio decidere se una certa luce proietti delle ombre (shadow selection). In natura ogni luce produce una zona d’ombra; in computer grafica è possibile togliere questa proprietà a una o più luci; inoltre si può escludere la proiezione delle ombre relativamente ad un singolo oggetto o a gruppi di oggetti. La direzione delle ombre (light direction) può essere variata a piacimento e non dev’essere vincolata alla direzione della luce. Una luce può condividere le ombre di un’altra luce; ad esempio luci posizionate in punti diversi possono proiettare le stesse ombre. Spesso per migliorare la composizione della scena occorre aggiungere delle ombre. Nel mondo reale si è vincolati ad utilizzare fuori campo per creare zone d’ombra; in computer grafica è possibile utilizzare i bloker per proiettare ombre senza la necessità di posizionare un oggetto. Infine è possibile controllare il colore delle ombre e la loro attenuazione nelle zone perimetrali. Con l’attributo dropoff si controlla la variazione d’intensità luminosa. Esistono due diversi tipi di dropoff: il primo, beam distribution, modifica l’intensità della luce in prossimità delle zone perimetrali del volume di luce, mentre con il distance falloff l’intensità luminosa varia a seconda della distanza della luce dagli oggetti. Nella realtà la luce decresce di intensità al quadrato della distanza, ma in computer grafica è possibile assegnare valori arbitrari. Con l’attributo direction si può decidere la direzione dei raggi luminosi all’interno del fascio di luce. I raggi possono essere radiali o paralleli e sono del tutto indipendenti dal tipo di luce; ad esempio è possibile usare una spot light ed assegnare una distribuzione parallela dei raggi. La diversa distribuzione dei raggi modifica la forma 102 delle ombre. I raggi paralleli sono spesso usati per simulare la luce del sole, mentre la distribuzione radiale dei raggi è usata per la maggior parte delle luci artificiali. Le texture vengono usate in computer grafica per controllare l’aspetto superficiale di tutti gli elementi; è possibile impiegarle in combinazione con le luci attraverso la proiezione. Con il termine cookie si intende la proiezione di un’immagine a singolo canale che consente di bloccare una parte del fascio luminoso; le parti bianche dell’immagine lasceranno filtrare la luce e le parti nere la fermeranno. Questa tecnica è usata principalmente per modificare la forma della luce e per simulare la proiezione di ombre complesse. Anche con le slide, ovvero le proiezioni di immagini a colori, è possibile modificare l’aspetto della sorgente luminosa sia nella forma che nel colore. Alle texture sarà dedicato un capitolo più avanti. Oltre agli attributi, le sorgenti luminose hanno delle proprietà attraverso cui è possibile controllare molti altri aspetti legati alla luce, le principali sono: intensità (intensity), colore (color) ed effetti (effect). L’intensità è descritta da un valore nominale. Il colore è determinato da una terna di valori standard RGB (red, green, blue) e può essere variato da diversi filtri: slide, noise, colored shadow; con la proprietà effect si controlla se la luce debba modificare il colore ambientale, il colore diffuso o quello speculare degli oggetti nella scena. Ad esempio è possibile creare luce che agisca solo sulla componente speculare dei materiali.79 4.7 Fenomeni Le immagini possono essere analizzate in termini di una serie di fenomeni visibili. Le ricerche e i progressi nel campo del rendering sono stati in gran parte motivati dal tentativo di simularli in modo accurato ed efficiente. Attualmente, grazie alla notevolmente accresciuta capacità di calcolo dei computer, sono stati introdotti algoritmi di simulazione fisica della luce più accurati come Raytracing, Global Illumination, HDRI, Sub Surface Scatering, Caustic, Radiosity ed altri.80 I fenomeni visibili più utilizzati sono: 79 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 197-203 80 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p.213 103 • Shading — ombreggiatura; variazione del colore e luminosità di una superficie a seconda della luce incidente. • Texture-Mapping — un metodo per definire i dettagli del colore di una superficie mettendola in corrispondenza con un'immagine (texture). • Bump-Mapping — un metodo per simulare irregolarità nella forma di una superficie mettendola in corrispondenza con un'immagine (bump map) che definisce una perturbazione fittizia della superficie, usata solo per ricavarne una distorsione della direzione perpendicolare (normale) impiegata nei calcoli per la propagazione della luce. • Normal-Mapping — un metodo simile al bump mapping in cui l'immagine definisce direttamente come perturbare la normale della superficie in quel punto. • Displacement-Mapping — un metodo simile al bump mapping in cui l'immagine definisce un'effettiva perturbazione della forma della superficie, producendo ad esempio silhouette irregolari. • Nebbia/Mezzi Interposti — attenuazione e dispersione della luce nel passaggio attraverso l'aria o altri mezzi; solo il vuoto è perfettamente trasparente. • Shadows — gestione delle ombre. • Soft Shadows — ombre parziali prodotte da sorgenti di luce estese. • Reflections — riflessioni speculari o quasi. • Transparency — trasmissione della luce attraverso un oggetto. • Rifrazione — deviazione della luce nel passaggio da un mezzo all'altro. • Illuminazione Diretta — tenere conto della luce riflessa più volte (il minimo è una sola riflessione, sorgente di luce -> oggetto -> camera). • Caustiche — accumulo di luce riflessa o rifratta proiettata in forme caratteristiche su altri oggetti (ad esempio la forma a cardioide della luce riflessa dall'interno di un cilindro o le forme irregolari in movimento sul fondo di una piscina). • Depth of Field— simulazione della sfocatura degli oggetti vicini e lontani come in una ripresa fotografica. • Motion Blur— simulazione della sfocatura degli oggetti in movimento rapido come in una ripresa fotografica.81 Molti di questi fenomeni visibili sono già stati sufficientemente espletati nei paragrafi precedenti, altri invece necessitano ancora di una presentazione, altri ancora di 81 Tratto da: wikipedia.org/wiki/Rendering 104 un’analisi più approfondita. Vediamo ora i fenomeni più utilizzati nell’ambito dell’animazione tridimensionale. 4.7.1 Shading e Texturing Tutti gli oggetti, perché possano essere renderizzati e apparire con il giusto aspetto nel processo di rendering, necessitano di shading e texturing. Gli shader descrivono le caratteristiche estetiche degli oggetti ed attraverso essi si può simulare qualsiasi effetto superficiale: plastica, acciaio, acqua, fuoco e così via. Prima ancora che i modelli degli oggetti e dei primi personaggi siano finiti, il dipartimento che si occupa di scrivere i materiali inizia a creare i primi shader test prendendo come riferimento i disegni più rappresentativi prodotti dal dipartimento artistico. Attraverso lo shading viene calcolato il colore in relazione alle proprietà presenti nello shading model. Con il texturing si variano le proprietà punto per punto, in modo da creare dei dettagli che sono presenti nella geometria della superficie stessa. Con il termine shading model viene simulata l’interazione della luce con la superficie. Il più semplice shading model è chiamato Lambertian model. Questo modello di simulazione è stato anche il primo ad essere applicato in computer grafica 3D e calcola solo la componente diffusa di un materiale. Successivamente vennero ideati molti altri modelli capaci di simulazioni più accurate: Phong nel 1975, Blinn nel 1997, Cook e Torrance nel 1981, Jajiya nel 1985, Poulin e Fournier nel 1990 sono alcuni esempi di modelli più avanzati ideati nel corso degli anni. La maggior parte dei software commerciali implementa delle interfacce visuali che permettono la creazione di shader senza la necessità di conoscere un linguaggio di programmazione. Quello che governa il comportamento di un materiale in questi software è un’equazione matematica che lega tra loro attributi quali il colore ambientale, quello diffuso e quello speculare, il grado di riflessione e di assorbimento della luce, l’opacità, la trasparenza, l’incandescenza, la riflessione e la rifrazione. Attraverso la modifica dei valori di ciascun parametro è possibile simulare materiali diversi. Pur essendo molto flessibili e semplici da utilizzare, questi sistemi hanno in sé una limitazione che deriva dalla formula base che pone dei vincoli al look finale dello shader. Renderman Shaders Language è stato studiato in contrasto a questo schema. Attualmente è lo standard per la creazione di shader nei film di animazione 3D. Lo 105 shader language è un linguaggio di programmazione specifico per la creazione di materiali elaborato da Rob Cook82 nel 1984 e successivamente sviluppato da Pat Hanrahan nel 1989. Ogni shader è un piccolo software che descrive le caratteristiche della luce e come questa luce è attenuata dalla superficie. Utilizzando questo approccio è possibile descrivere in modo totalmente libero qualsiasi tipo di caratteristica superficiale. Nella Renderman Interface Specification sono contemplati cinque tipi di shader: 1. Surface shader descrive come apparirà la superficie e come essa reagirà alla luce 2. Displacement shader descrive le asperità della geometria 3. Light shader descrive la direzione, l’intensità e il colore della fonte di luce nella scena; 4. Volume shader descrive il comportamento della luce che attraversa materiali come il fuoco 5. Image shader descrive la trasformazione cromatica dei pixel prima che venga generata l’immagine raster. Lo shader, per essere completato, necessita della texture che dovranno essere applicate a diversi attributi, secondo l’effetto che si vuole ottenere.83 Nella continua ricerca del realismo visivo, un grande aiuto deriva dall’aggiunta di dettagli alle superfici degli oggetti, in modo da conferire loro l’apparenza di materiali particolari come il legno, associare figure digitalizzate o per caratterizzare forme con superficie irregolare o un poco scabra. La tecnica dell’applicazione di texture sulle superfici degli oggetti di una scena è una delle più efficaci per dare un effetto di grande realismo visivo, spesso molto più efficace di molti modelli d’illuminazione precedentemente visti. Infatti un semplice 82 Nel 2001, Catmull, Carpenter e Cook hanno portato a casa un Oscar tecnico per RenderMan, software che rielabora centinaia di raggi luminosi, riflessi, ombre, volumi e movimenti nella produzione di un'inquadratura. È il fulcro del processo di animazione digitale, il motore informatico di tutto, utilizzato praticamente in qualsiasi film ad effetti speciali degli ultimi dieci anni, dalle trilogie di Matrix e Il Signore degli Anelli a Spider Man e così via. Per realizzare una scena di Alla ricerca di Nemo di una frazione di secondo ci sono volute 10 ore. Tratto da: http://magazine.enel.it/boiler/arretrati/wired_dett.asp?iddoc=924829&titolo=Wired&20%20Come+nasce+una+stella 83 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 179-183 106 modello lambertiano e uno shading di Gouraud accoppiati con un’applicazione di tessitura superficiale possono ovviare agli inconvenienti della tecnica di shading e ai limiti del modello illuminazione.84 Le texture modificheranno le caratteristiche della superficie, ad esempio per l’attributo colore potrà essere proiettata sulla superficie geometrica l’immagine di un certo tipo di legno, oppure un’immagine in scala di grigi potremmo determinare il grado di riflettività del materiale. Nei punti in cui la texture sarà bianca, il valore di riflessività sarà alto; nei punti neri sarà nullo. Fondamentalmente si possono utilizzare due tipi di texture: le texture procedurali (procedural texture) e le texture immagini (image texture). Le prime sono esse stesse dei piccoli programmi, le seconde sono invece delle immagini raster che devono essere create in programmi di grafica 2D o con qualsiasi altra tecnica che possa generare un’immagine digitale come scansioni o fotografie digitali.85 Il metodo consiste nel modificare il valore di colore di ogni punto su una superficie rispettando la configurazione dell’immagine che si vuole associare alla superficie. Le tessiture pongono due ordini di problemi: il primo deriva dal fatto che non è sempre semplice proiettare un rettangolo piano su una superficie curva; il secondo problema 84 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 268-269 85 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 179-183 Fig 38) Texture. Fonte: http://www.plecxus.com/gallery/albums/3d/treed_103.jpg 107 riguarda il metodo con cui la tessitura viene associata. Infatti questa può venire ripetuta più volte, formando così una sorta di piastrellatura (liting) della superficie con la tessitura, oppure la tessitura viene applicata rigidamente a una porzione di superficie ben definita. Si può paragonare questo procedimento all’applicazione di una decalcomania su un oggetto. Il problema della proiezione si pone frequentemente nella grafica – si pensi ad esempio alle proiezioni cartografiche – e le soluzioni possibili sono numerose. Si tratta di decidere prioritariamente quali caratteristiche si intendono preservare, in quanto la proiezione da un piano ad una superficie curva in generale non conserva tutte le proprietà originarie, quali angoli tra le linee, o le aree. Poiché la tessitura è generalmente definita su un piano rettangolare o quadrato, si potrà scegliere una proiezione sferica se la superficie su cui si proietta è simile ad una sfera o una proiezione cilindrica in caso sia maggiormente simile ad una forma cilindrica. Entrambe le proiezioni preservano le relazioni angolari, ma non quelle d’area, come ben si può vedere in cartografia. Una volta scelto il tipo di proiezione, si procede in due fasi: in una prima fase si proietta la tessitura sulla superficie sferica o cilindrica (Smappatura) e nella seconda fase si proietta la sfera, o il cilindro, sulla superficie da testurare (O-mappatura). In generale, il procedimento di O-mappatura dalla superficie intermedia all’oggetto avviene durante il procedimento di rendering, nel momento in cui si decide il colore da attribuire ad ogni pixel del poligono; a quel punto si calcola quale pixel sulla superficie intermedia vede quel determinato pixel sull’oggetto. Si può perciò immaginare un raggio ideale che dall’osservatore tocca l’oggetto e viene riflesso sulla superficie intermedia; oppure si può individuare il pixel sulla superficie intermedia calcolando la direzione della normale in quel punto. Una tecnica molto interessante è la creazione di tessiture tridimensionali, che permettono di simulare materiali interessanti quali, ad esempio, il marmo o il legno. La tecnica assomiglia molto alla scultura di una forma a partire da un materiale dato. Partendo da una tessitura tridimensionale (possiamo pensare ad una distribuzione di voxel nello spazio), in ogni punto dello spazio si decide quale colore attribuire in funzione della distribuzione spaziale della tessitura.86 86 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 269 108 Nel 1974 Catmull generò la prima immagine con texture della storia della computer grafica. Per la prima volta un’immagine bidimensionale veniva applicata ad una superficie tridimensionale. Fin dall’inizio gli sviluppatori capirono che il processo di mapping era la strada giusta per ottenere effetti realistici. Nel 1978 Blinn introdusse il bump mapping, attraverso cui è possibile simulare delle apparenti irregolarità delle superfici come graffi o rugosità. La bump map usa una texture per modificare la direzione delle normali della superficie. Quando viene calcolata, la risultante del cambiamento nella direzione delle normali è una superficie con apparenti irregolarità superficiali.87 Questa tecnica, permette di simulare superfici irregolari come la buccia di un’arancia. A tale scopo si calcola la normale alla superficie e la si modifica di un determinato fattore chiamato perturbazione. Durante il calcolo del modello d’illuminazione, la normale risulta quindi leggermente modificata rispetto a quella di una superficie uniforme e si modifica pertanto la riflessione prodotta dall’oggetto in ciascun punto. Il modo con cui si controlla la perturbazione ha effetti sul risultato: si possono creare variazioni piccole e frequenti o grandi e rarefatte. Le nuove normali possono essere generate esaminando una bump texture, ovvero una matrice di valori di perturbazione, che viene trattata esattamente come una texture. Altrimenti, le normali perturbate possono derivare da una funzione di quota, come se si trattasse di un paesaggio in cui la quota di ogni punto è registrata come valore di grigio; in tal modo valori piccoli corrispondono a valli e valori elevati corrispondono a grandi altezze. Da questi si può ricavare la direzione delle normali di ogni punto.88 87 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 179-186 88 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 271 109 Cook nel 1984 estese il concetto del bump mapping e ideò il displacement mapping. Le informazioni contenute in questa texture non cambiano la direzione delle normali della superficie, ma muovono la superficie stessa; le visibili asperità non sono provocate da un’illusione ottica ma dalle reali alterazioni della geometria; la differenza è visibile soprattutto nella silouhette degli oggetti. Nel 1987 Reeves, Salesin e Cook presentarono alla comunità dei ricercatori un metodo per simulare ombre con l’utilizzo di una texture (shadow map) generata attraverso il calcolo della profondità dell’immagine dal punto di origine della sorgente luminosa. Peachey nel 1985 insieme a Perlin descrisse un sistema alternativo alla mappatura 2D che chiamò solid texture. Successivamente lo stesso Perlin scrisse un complesso sistema di generazione di texture procedurali, e ancora oggi questo sistema, noto con il nome di noise, è utilizzato dalla maggior parte dei software 3D. Molti altri ricercatori hanno contribuito all’avanzamento della tecnologia di mapping procedurale e non procedurale.89 Fig 39) Bump Map. Fonte: http://renderman.ru/viagra/stass3d/images/bump.jpg Fig 40 a) Texture Ruggine. Fonte: http://renderman.ru/viagra/stass3d/images/3d/iron.jpg Fig 40 b) Texture Granite. Fonte: http://renderman.ru/viagra/stass3d/images/3d/rock.jpg Fig 40 c) Texture Legno. Fonte: http://renderman.ru/viagra/stass3d/images/3d/wood1.jpg Fig 40 d) Texture Marmo Fonte: http://renderman.ru/viagra/stass3d/images/3d/marble.jpg 89 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 179-186 110 I modelli d’illuminazione che abbiamo introdotto finora non permettono di simulare situazioni in cui sono presenti superfici che riflettono in modo perfettamente speculare: se la superficie è piana, ci troviamo di fronte ad un vero e proprio specchio, e l’osservatore potrà vedere gli oggetti che lo specchio riflette secondo un angolo eguale e opposto a quello d’osservazione. Una soluzione esatta di questo problema la si può ottenere con il metodo ray tracing, mentre una soluzione approssimata, adatta ai modelli d’illuminazione discussi fin qui, si ottiene costruendo la cosiddetta mappa dell’ambiente (environment map). Immaginiamo che la scena sia contenuta in una scatola ideale, e immaginiamo che la scena venga proiettata sulle superfici interne di questa scatola da un unico punto centrale, costruendo un’immagine della scena come vista dalle 6 facce della scatola. Ogni faccia costituisce la superficie intermedia per la proiezione della tessitura, che si potrà applicare con una proiezione diretta, senza dover ricorrere ad altre superfici intermedie. È evidente che occorrerà scegliere la faccia della scatola che risulta effettivamente visibile da un dato punto della scena ed è evidente, inoltre, che al posto di un cubo si potrà utilizzare una sfera su cui compiere la proiezione dell’intera scena. Tutti questi metodi, basati essenzialmente sull’uso d’immagini come tessiture da applicare su una scena o su singoli oggetti, soffrono di un limite legato al problema della risoluzione. Infatti, se la risoluzione dell’immagine finale è maggiore della risoluzione dell’immagine utilizzata per la creazione della tessitura, si manifesteranno degli artefatti, che potranno essere attenuati applicando tecniche di anti-aliasing. L’altro problema che si può manifestare, soprattutto in presenza di tessiture periodiche quali scacchiere o tramature, è l’effetto moirée, dovuto all’interferenza tra la periodicità della 111 tessitura e la periodicità del dispositivo: i pixel del monitor o i punti di stampa. Anche questo effetto può essere attenuato con le tecniche di anti-aliasing.90 Le texture procedurali hanno vantaggi e svantaggi rispetto alle texture di immagini. Uno dei vantaggi è legato allo spazio molto ristretto che esse occupano. La grandezza delle texture procedurali è misurata in kilobyte, mentre le texture basate sulle immagini sono usualmente misurate in megabyte. Questo aspetto è vantaggioso in termini di quantità di memoria di massa utilizzata. Inoltre la risoluzione di queste texture non è fissa. In questo modo è possibile avere dei dettagli molto accurati. Le texture procedurali non hanno una limitazione di area, possono quindi essere applicate ad oggetti di area infinita senza che per questo siano visibili forme di ripetizione o discontinuità. Queste texture possono essere in qualsiasi momento convertite in immagini 2D ad area e grandezza fissa (baking). Purtroppo presentano anche diversi svantaggi ed è per questo che vengono utilizzate insieme a texture di immagini e non in sostituzione a esse. Uno degli svantaggi è la difficile generazione, in quanto queste nuove texture procedurali devono essere programmate. Inoltre, pur essendo molto compatte in termini di spazio, sono complesse a livello computazionale. Un altro problema è legato all’antialiasing, complicato da ottenere, soprattutto rispetto alle texture di immagini.91 4.7.2 Transparency Un altro importante effetto che accresce il grado di realismo di una raffigurazione è la trasparenza. Alcuni oggetti della scena possono essere trasparenti, di vetro, plastica o altro, e si deve trovare una soluzione per far passare la luce attraverso di essi. La luce che attraversa un mezzo trasparente subisce tre effetti: viene assorbita ( e quindi l’energia che esce dall’oggetto trasparente è inferiore a quella che entra), viene assorbita in modo selettivo, in funzione del colore dell’oggetto trasparente; viene deviata con un angolo che dipende dall’indice di rifrazione del mezzo trasparente. Fig 41) Environment Shading. Fonte: http://www.lightwork.com/pix/aclass1k_640.jpg 90 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 272 91 Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore p. 179-186 112 Per simulare l’effetto di attenuazione, si modifica l’intensità della luce uscente con un coefficiente di attenuazione che dipende dallo spessore dell’oggetto stesso e, volendo simulare il colore del mezzo trasparente, può anche dipendere dal colore dell’oggetto. Per simulare la deviazione, invece, si applica la legge di Snell, secondo la quale i due angoli che il raggio incidente e il raggio rifratto formano con la normale alla superficie di separazione tra i due mezzi sono inversamente proporzionali agli indici di rifrazione dei due mezzi stessi. Il calcolo d’attenuazione può essere semplificato, infatti quello che si cerca di simulare con i modelli d’illuminazione locali è il cambiamento di colore con cui un oggetto viene visto attraverso un altro oggetto trasparente.92 4.8 Modelli Fisici e Globali I modelli d’illuminazione ed i metodi di rendering che abbiamo esaminato finora presentano un limite dovuto alla forte approssimazione con cui risolvono il problema fisico dell’interazione tra la luce ed i materiali. Una migliore approssimazione si può ottenere con i modelli d’illuminazione più accurati e con metodi di rendering che non considerano gli oggetti singolarmente ma nella globalità della scena. I modelli fisici sfruttano conoscenze sulla riflettometria e la fotometria. Assumendo ipotesi semplificative, si cerca di caratterizzare le proprietà di riflessione dei materiali con maggiore cura. Esaminiamo brevemente uno dei principali modelli, quello di Cook 92 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 267-268 Fig 42) Transparency. Fonte: http://wwwokino.com/conv/features/caustics/chess_pieces_by_rcl.jpg 113 e Torrance. Altri modelli più sofisticati si trovano nella letteratura specialistica, mentre questo viene utilizzato estesamente in molti sistemi di rendering commerciali. Il modello ideato nel 1982, propone di calcolare la luminanza riflessa da una superficie come funzione di una riflettività bidirezionale. Il modello di Cook e Torrance si può facilmente integrare in un sistema di rendering con smoothing con il metodo di Phong, dando così luogo ad un metodo di rendering più accurato dal punto di vista fisico ma che tiene conto ancora soltanto degli aspetti locali della distribuzione della luce nella scena. 4.8.1 Modelli d’illuminazione globali I modelli d’illuminazione globali permettono di tener conto della luce che proviene indirettamente sugli oggetti della scena. Nei modelli locali, infatti, abbiamo inglobato in un’unica componente il contributo della luce ambiente, e abbiamo approssimato i fenomeni di riflessione speculare limitandoci agli effetti di bagliore con il modello di Phong o ricorrendo a mappe d’ambiente per simulare specchi piani. I modelli globali, invece, si basano su metodi che cercano ci calcolare, anche se in modo approssimato, il campo ottico prodotto dalle sorgenti di luce e dall’interazione della radiazione luminosa con l’intera scena. Nella discussione introduttiva alla simulazione visiva foto e video realistica, abbiamo messo in evidenza come questa sia costituita da molteplici aspetti che includono la perfetta conoscenza delle caratteristiche del dispositivo di visualizzazione e di acquisizione scelto. Il calcolo del campo ottico costituisce, dal punto di vista della complessità computazionale, il fattore critico dell’intero processo, mentre la conoscenza delle trasformazioni prodotte e nell’acquisizione di immagini con telecamere, e la loro simulazione numerica, si pone come un problema relativamente semplice, una volta note le caratteristiche dei dispositivi utilizzati. Il campo ottico che interessa simulare nella sintesi d’immagini realistiche è solo il campo d’intensità, mentre non interessa la componente di fase della radiazione visibile. Due sono i metodi in grado di garantire un’elevata accuratezza: il tracciamento dei raggi (ray tracing) ed il metodo della radiosità. Entrambi i metodi hanno lo scopo di risolvere numericamente una vasta gamma di problemi ottici d’interazione luce/materiali, che abbiamo già risolto in modo approssimato con i modelli d’illuminazione locali: la riflessione diffusa della luce, la riflessione speculare su 114 materiali dielettrici e su conduttori, la trasmissione della luce in mezzi trasparenti, leggi e proprietà di sorgenti di luce, infine leggi e proprietà d’interazione della luce con i cosiddetti mezzi partecipanti. 4.8.2 Ray tracing Il metodo del tracciamento dei raggi affronta il problema del calcolo del campo ottico d’intensità dal punto di vista geometrico, in quanto consiste nella determinazione del valore di colore e luminosità di ogni elemento dell’immagine finale sulla base della storia dei raggi luminosi che hanno contribuito a produrre quel valore di luminosità e di colore. Le leggi dell’ottica geometrica intervengono nel calcolo della storia dei raggi, il cui cammino nello spazio della scena viene seguito secondo regole geometriche. Il limite del metodo di tracciamento raggi è nella complessità di calcolo: in generale non si riescono a trattare i fenomeni di diffusione e dispersione dovuti al mezzo partecipante; inoltre il metodo dipende strettamente dal punto d’osservazione scelto ed è inadeguato ad una sintesi in tempo reale, com’è richiesto dalle applicazioni nelle Realtà Virtuali o nei video-giochi. Le immagini generate con il metodo di ray tracing sono molto appariscenti, ma hanno una notevole freddezza che le rende immediatamente riconoscibili come immagini di sintesi. Il metodo di ray tracing è un’estensione del metodo di ray casting precedentemente illustrato per la rimozione delle superfici non visibili. È un’estensione in quanto procede in modo ricorsivo esplorando l’intera scena per cercare altre possibili intersezioni del raggio con oggetti dotati di proprietà riflessive o trasmissive particolari. Il principio guida è che i pixel che appaiono colorati sullo schermo sono il risultato della storia di tutti i raggi luminosi emessi dalle sorgenti di luce, che hanno interagito 115 con la scena riflettendosi, attraverso oggetti o venendo parzialmente o completamente assorbiti. Anziché percorrere questa storia partendo dalle sorgenti di luce possiamo invertire l’analisi percorrendo all’indietro la storia dei raggi che sono giunti allo schermo, e trascurando quelli persi nello sfondo. In tal modo, quando il raggio che congiunge il centro di proiezione e il generico pixel colpisce un oggetto della scena, subisce possibili trasformazioni: viene totalmente o parzialmente riflesso oppure viene trasmesso. Nel primo caso l’oggetto ha soltanto proprietà di riflessione dei raggi (speculare o diffusiva), nel secondo l’oggetto è anche trasparente. La direzione dei raggi riflessi o trasmessi viene calcolata sulla base delle leggi già incontrate, quindi ciascuno dei raggi riflessi o trasmessi diventa un nuovo raggio di cui ripercorrere la storia all’indietro. Possiamo raffigurare questo processo mediante un albero: ad ogni nodo possono nascere al massimo due rami, il ramo sinistro per convenzione sarà relativo al raggio riflesso, quello destro al raggio trasmesso. Un ramo dà luogo alla nascita di uno o due nuovi rami se colpisce un oggetto nel suo percorso, altrimenti quel ramo termina e viene considerato una foglia. Una volta che l’intero albero, che descrive la storia di un pixel sullo schermo, è stato generato, si può ripercorrerlo per applicare il modello d’illuminazione, partendo, questa volta, dalle foglie di un determinato ordine e accumulando ai nodi i valori di colore che derivano dall’applicazione del modello d’illuminazione e dei parametri di riflettività e trasmissività degli oggetti incontrati. Il metodo di ray tracing è indipendente dal modello d’illuminazione utilizzato. Il metodo, originariamente ideato da Whitted, adottava un modello locale sostanzialmente analogo al modello di Phong. È naturalmente possibile adottare altri modelli 116 d’illuminazione più accurati, anche quello fotometrico di Cook e Torrance, nonché simulare sorgenti di luce estese, effetti di tessitura superficiale e di bump mapping. Una trattazione particolare merita la simulazione delle ombre proiettate. Con il metodo di ray tracing il calcolo delle ombre proiettate è concettualmente molto semplice, anche se computazionalmente complesso. Infatti è sufficiente controllare che ogni volta che un raggio colpisce un oggetto, questo sia illuminato. A tale scopo si genera un raggio ombra, ovvero un raggio che congiunge il punto con le sorgenti di luce per verificare se sono visibili. 4.8.3 Radiosity Il metodo della radiosità affronta il problema del calcolo del campo ottico in modo completamente diverso da quanto visto finora: consiste infatti nella soluzione del problema del bilancio dello scambio di energia radiativa che si svolge tra tutti gli elementi presenti in una scena chiusa. Si tratta cioè di un metodo che punta al realismo sulla base di principi fondati sulla conoscenza della fisica della luce. L’energia elettromagnetica scambiata in un ambiente è dovuta ad emissione (sorgenti di luce) o a riflessione diffusiva o speculare e ad assorbimento. Per poter calcolare questa energia si fa l’ipotesi che l’ambiente sia chiuso, cioè non scambi energia con l’esterno; pertanto l’energia totale emessa dalle sorgenti di luce viene totalmente riflessa o assorbita dall’ambiente. Ogni elemento di una scena, ogni porzione di superficie, ha determinate proprietà di emissione (descritta dalla remissività spettrale ovvero dalla distribuzione spettrale di energia emessa), di riflessione e di assorbimento alle diverse lunghezze d’onda (descritta dalla riflessività bidirezionale) e il metodo di calcolo consiste nel risolvere le 117 equazioni di scambio radiativo, una volta che sia stato associato ad ogni elemento il coefficiente di emissività e riflettività che gli compete per ogni lunghezza d’onda visibile. Il metodo della radiosità presenta svariati vantaggi: in primo luogo costituisce, dal punto di vista fisico, una migliore approssimazione all’effettivo comportamento dell’interazione luce/materiali. Consente perciò di simulare fenomeni di illuminazione diffusa e di color bleeding, ovvero l’effetto di dominanza cromatica prodotto da superfici colorate vicino a superfici bianche. Il calcolo della radiosità, benché computazionalmente piuttosto pesante, una volta completato permette di visualizzare in tempo reale una scena, ed è quindi adatto ad applicazioni di Realtà Virtuali quali il walkthrough di ambienti. Infatti, se le geometria della scena non cambia, la radiosità associata ad ogni superficie è indipendente dal punto di vista. Poiché il metodo presume che la scena sia chiusa, nella sintesi di immagini si possono definire superfici virtuali che compaiono solo nel calcolo ma non vengono visualizzate. Il metodo base di radiosità è stato formulato con una serie di ipotesi semplificative sulle caratteristiche delle superfici che costituiscono l’involucro dl sistema isolato e gli oggetti della scena. Le superfici devono essere: • Opache (superfici che non trasmettono all’esterno l’energia incidente, per qualunque lunghezza d’onda e qualsiasi angolo d’incidenza), • Grigie (le caratteristiche radiative delle superfici sono indipendenti dalla lunghezza d’onda su tutto lo spettro), • Lambertiane (l’energia emessa e riflessa è uniforme in tutte le direzioni), • La radiosità e l’emissività propria sono uniformi su ogni superficie, • Ogni superficie ha caratteristiche omogenee, che non variano da un punto all’altro, • Il mezzo presente nella scena (atmosfera) è trasparente. Queste ipotesi semplificative permettono di descrivere lo scambio di radiazione nella scena con un’equazione di bilancio energetico e di descrivere la luce che lascia ogni superficie con un singolo valore per ogni lunghezza d’onda indipendentemente dalla direzione di osservazione. I termini che compaiono nelle equazioni del bilancio energetico sono: 118 • Radiosità = è il valore incognito da calcolare per ogni superficie; dimensionalmente è un’energia per unità di area; • Emissività = energia che la superficie (sorgente di luce) emette in modo autonomo; dimensionalmente è un’energia per unità di area; • Riflettività = coefficiente compreso tra zero ed uno che indica la frazione di luce riflessa dalla superficie; il modo più accurato di descriverla è usando la BRDF (riflettività bidirezionale);93 • Fattore di forma = frazione di luce che lascia una superficie ed arriva su un’altra; dipende solo dalla geometria della scena, cioè dal modo in cui ogni superficie è orientata rispetto ad ogni altra; è anch’esso un valore compreso tra zero ed uno. Il fattore di forma permette di calcolare in quale modo due superfici si vedono reciprocamente, e dipende quindi dall’orientamento reciproco e dall’inverso del quadrato della distanza tra le due superfici. Il calcolo dei fattori di forma rappresenta la parte computazionalmente più critica del metodo, perché richiede lunghi tempi di calcolo ed elevata precisione numerica. Se però la forma della scena non cambia i fattori di forma devono essere calcolati una sola volta. Infatti questi sono funzione unicamente della geometria della scena, e non dipendono dalla posizione del punto di vista o dagli attributi di colore (riflettività) o dall’emissività delle superfici stesse. I valori di radiosità così ottenuti sono utilizzati nella successiva fase di rendering, la quale rappresenta ogni singola patch come un poligono nello spazio immagine, mediante una tecnica di shading (Gouraud o Phong). Poiché il metodo di radiosità produce risultati particolarmente accurati, e sono disponibili programmi pubblici per applicarlo a scene anche molto complesse è utile esplorare in dettaglio le varie tecniche e i problemi che nascono dall’uso. Fase di modellazione Fig 43) Ray tracing 1. Fonte: http://www.cs.berkeley.edu/~sequin/CS184/IMGS/TranspRayTrace.gif Fig 44) Ray tracing 2. Fonte: http://radsite.lbl.gov/radiance/book/img/plate10.jpg Fig 45) Radiosity. Fonte: yes.jpg/300px-Radiosity-yes.jpg http://upload.wikimedia.org/wikimedia/de/thumb/4/43/Radiosity- 93 BRDF: Questa espressione è un semplice modello dell'iterazione della luce con la superficie. L'iterazione con la luce è molto spesso approssimata con modelli ancora più semplici; riflessione diffusa e speculare, anche se tutte e due possono seguire questa formulazione; Tratto da: wikipedia.org/wiki/Rendering 119 La fase di modellazione deve fornire il modello della scena da calcolare con tutti i suoi attributi. Il programma di modellazione da usare deve permettere di utilizzare uno o più metodi di rappresentazione delle superfici (poliedri a facce quadrangolari piano o triangolari, superfici parametriche, solidi CSG). Inoltre deve essere possibile assegnare ad ogni superficie gli attributi di emissività e riflettività spettrali che ne caratterizzano il colore. Infine deve essere possibile specificare sottosuperfici, o patch, creando e controllando una suddivisione iniziale (mesh) che verrà poi raffinata automaticamente dal programma di radiosità stesso. Un programma per il calcolo di radiosità dovrebbe inoltre permettere di memorizzare i valori di radiosità per entrambe le facce dei poligoni e invertirne l’orientamento se necessario (questo è necessario per distinguere i due versi di una faccia: quello orientato verso le altre facce e quello opposto, in particolare le facce che delimitano l’ambiente). Per poter garantire un rendering efficace, il programma deve inoltre permettere di ridefinire le patch in modo da trasformare una generica suddivisione in superfici poligonali in una suddivisione in facce piane. È anche indispensabile controllare che nella nuova suddivisione ogni lato unisca solo due poligoni, eccetto sui contorni delle superfici. Questo si rende necessario per prevenire fessurazioni nelle superfici curve e discontinuità nello shading delle superfici piane. Infine il programma dovrebbe permettere di eliminare le patch che non ricevono luce (ad esempio perché occluse da altre superfici). Questo previene problemi dovuti alla tecnica dello z-buffer, causati da superfici complanari o coincidenti, ed elimina anche una porzione di modello che ordinariamente non può essere vista. Meshatura degli elementi del modello: suddivisione gerarchica Per raffinare la suddivisione in patch, si adotta spesso una suddivisione gerarchica che permette di ottenere un’accurata soluzione per la radiosità in un punto, ricavandola dalla radiosità globale della superficie. A tale scopo le patch che compongono l’ambiente (ottenute dalla suddivisione iniziale delle superfici) vengono ulteriormente suddivise in elementi più piccoli. Ogni elemento funziona come un ricevitore individuale di luce ed avrà quindi un proprio valore di radiosità. La radiosità di ogni patch sarà perciò la somma della radiosità degli elementi più piccoli, pesata in 120 proporzione all’area di ciascuno. Il fattore di forma dovrà essere calcolato per ogni elemento più piccolo rispetto ad ogni patch. La soluzione procede quindi secondo i seguenti passi: • Calcolo dei fattori di forma fra elementi più piccoli e patch; • Somma dei fattori di forma ottenuti al punto precedente per ottenere il fattore di forma fra le patch; • Calcolo della radiosità delle patch; • Determinazione della radiosità degli elementi dal valore ottenuto al punto precedente; • Rendering di tutti gli elementi. Utilizzando una suddivisione gerarchica, si possono verificare degli inconvenienti; poiché i contorni delle zone d’ombra non sono mai esplicitamente determinati, per scoprirli è necessario individuare le zone in cui si ha una variazione della radianza. Piccole zone d’ombra generate da piccoli oggetti possono essere trascurate se la suddivisione iniziale in patch è troppo grande. Poiché inoltre le superfici emissive non vengono suddivise, non si può ottenere l’effetto di penombra intorno alle zone d’ombra. La suddivisione delle patch in elementi mediante una griglia regolare può generare il fenomeno di light leaks dove la suddivisione della griglia non coincide con l’occlusione dei poligoni. Per superare questi limiti, la mesh iniziale dovrà essere raffinata secondo una modalità detta adattiva, combinando un criterio di individuazione dei contorni delle ombre ed una tecnica che valuta le variazioni rapide di radianza (gradiente) da un punto all’altro. In contrasto con le tecniche tradizionali di radiosità, gli elementi di superficie creati sono raramente rettangolari. La tecnica procede quindi elaborando i poligoni secondo un ordine di energia decrescente: una volta scelto un poligono emissivo (che è sorgente di luce) questo viene testato per garantire che sia abbastanza piccolo ed abbastanza lontano dal resto della scena per non creare zone di penombra. Se questa condizione non è verificata, il poligono deve essere suddiviso in elementi più piccoli che soddisfano il criterio precedente. Una tecnica adattiva permette di modificare la matrice dei fattori di forma fino a quando il gradiente di radianza di una patch non scende al di sotto di una soglia. 121 Fattori di forma: emicubo Per calcolare il fattore di forma, si potrebbe ricorrere ad una soluzione analitica del doppio integrale che definisce il fattore di forma, ma essa è nota solo per configurazioni geometriche e per forme particolari (ad esempio rettangoli paralleli o ortogonali), e non per patch di forma generica. Si ricorre quindi ad una soluzione numerica approssimata. Una delle tecniche numeriche per il calcolo del fattore di forma si basa sull’analogia geometrica di Nusselt: la proiezione di un elemento di area differenziale su una semisfera di raggio unitario posizionata al centro di una patch è proporzionale all’angolo solido attraverso il quale il punto al centro della patch vede l’area differenziale. Il valore della proiezione dell’angolo solido sulla base della semisfera diviso per l’area totale della base della semisfera rappresenta il fattore di forma tra il punto al centro della semisfera e l’area differenziale. In base a queste considerazioni, due superfici che occupano la stessa area e la stessa posizione hanno lo stesso fattore di forma. Per ricavare i fattori di forma con questa tecnica è necessario seguire una sequenza di fasi successive: 1. posizionare un’emisfera di raggio unitario sulla superficie di area differenziale 2. suddividere la base della semisfera in porzioni di area uguali e abbastanza piccole per ottenere un’adeguata precisione, 3. calcolare la proiezione di ogni superficie della scena sulla semisfera, 4. calcolarne la proiezione ortogonale sulla base della semisfera, 5. valutare l’area occupata da ciascuna superficie con un test di profondità per determinare la parte visibile di ogni superficie, 6. calcolare i fattori di forma come somma dei settori coperti da ciascuna superficie pesati con la rispettiva area, diviso l’area della base della semisfera. Questa tecnica permette di individuare, mediante un test di profondità, anche le occlusioni. L’analogia di Nusselt viene utilizzata in una forma approssimata del calcolo dei fattori di forma: la tecnica dell’emicubo. Infatti al posto dell’emisfera posizionata sulla patch, si può utilizzare un mezzo cubo e proiettare le varie patch su di esso per valutare la visibilità e il fattore di forma relativo alla patch in esame. Uno dei vantaggi della tecnica dell’emicubo discende dall’osservazione che il problema della visibilità e del calcolo dell’area proiettata corrisponde esattamente al 122 problema della rimozione delle superfici nascoste e della rasterizzazione di un poligono. Pertanto si può utilizzare, con grande vantaggio nella velocità del calcolo, la tecnica dello z-buffer. Con questo metodo, nasce però un problema di aliasing, dovuto all’approssimazione con cui si valuta la proiezione di una patch sull’emicubo. Ogni faccia dell’emicubo infatti viene immaginata come composta da una matrice di pixel, la cui densità determina la risoluzione spaziale della proiezione della patch. Una risoluzione troppo limitata dà quindi origine ai fenomeni di aliasing, risolubili con le tecniche consuete di anti-aliasing o di sovracampionamento spaziale. Altri metodi Citiamo altri due metodi che possono essere adottati per la risoluzione del calcolo del fattore di forma. Il primo è il metodo Monte Carlo, che consiste nello stimare un’area valutando un numero limitato di valori casuali n e pesando il risultato con la proporzione dei valori che cadono all’interno dell’area stessa. Questo metodo può essere molto accurato se si adottano tecniche probabilistiche per la generazione dei valori casuali. L’altro metodo, chiamato del singolo piano, è stato ideato da F. Sillion. Anziché adottare il metodo dello z-buffer per la soluzione delle occlusioni e per il calcolo delle proiezioni delle patch su una data superficie, si suddivide la superficie in modo ricorsivo secondo la tecnica di rimozione delle superfici nascoste di Warnock, precedentemente illustrata. I vantaggi del metodo del singolo piano sono principalmente legati alla velocità della soluzione, in quanto l’accuratezza dipende in modo sostanziale dalla tecnica di suddivisione in patch delle superfici della scena. Soluzione del sistema di equazioni: gathering e shooting L’ultimo aspetto che interessa approfondire nella soluzione del metodo di radiosità riguarda la soluzione del sistema di equazioni lineari. Il metodo più diretto consiste nel risolvere il sistema con un sistema iterativo come quello di Gauss-Seidel. A questo metodo possiamo dare un’interpretazione fisica, immaginando che, con il progredire della soluzione, ogni patch accumuli via via l’energia che riceve da tutte le altre. Il rendering della scena può avvenire quindi soltanto alla conclusione della soluzione del sistema di equazioni. Da questa interpretazione deriva il nome di gathering 123 (raccogliere), che suggerisce come l’energia venga raccolta da tutti gli elementi della scena. Un altro metodo, chiamato shooting (sparare), procede come se l’energia venisse inviata a tutte le patch partendo dalle superfici emissive. Questo approccio permette di risolvere la radiosità in modo progressivo, visualizzando la scena con un dettaglio progressivamente crescente nella simulazione dell’illuminazione. 4.8.4 Altri effetti Il metodo di radiosità può essere esteso per trattare altri effetti, In particolare, per simulare fenomeni di riflessione e di trasparenza si adotta normalmente la tecnica a due passi. Durante il primo passo viene calcolata la radiosità della scena, associando a ogni superficie il colore che le compete per una riflessione diffusa di tipo lambertiano. Durante la seconda passata si esegue il metodo di ray tracing, analizzando soltanto gli oggetti che hanno proprietà di riflessione speculare o di trasparenza. In tal modo si genera un’immagine che corrisponde alla vista della scena dal punto di proiezione scelto, e in cui gli oggetti trasparenti o a specchio sono resi in uno scenario con un rendering accurato della componente ambientale diffusiva. Naturalmente il metodo a due passi dipende dal punto di vista, a non ha lo stesso vantaggio della radiosità normale che consente la navigazione in tempo reale nella scena tridimensionale. Un altro effetto importante è quello della presenza di un’atmosfera (mezzo partecipante) con determinate proprietà di diffusione della luce, dovute, ad esempio, alla presenza di fumo o di umidità e nebbia. A tale scopo si immagina che il volume d’aria della scena sia costituito da numerosi volumetti elementari, che vengono presi in considerazione nel calcolo dei fattori di forma e nella soluzione del sistema di equazioni lineari. Naturalmente la complessità computazionale del metodo cresce notevolmente per la presenza di questi elementi di volume. Gli effetti che si possono ottenere sono tuttavia di straordinaria efficacia. 4.9 Rendering impressionistico Abbiamo fin qui esaminato le tecniche di rendering foto realistico. Esiste una famiglia di metodi che punta piuttosto ad una soluzione di carattere impressionistico, cercando di ottenere l’illusione del realismo attraverso l’emulazione dei metodi della pittura e del disegno. Alcune di queste tecniche sfruttano il disegno interattivo pittorico, 124 altre sfruttano la riproduzione digitale di immagini. Tra queste ultime la più interessante è il cosiddetto image based rendering, che si pone a cavallo tra l’analisi e la sintesi di immagini. Il rendering basato sulle immagini punta alla creazione a partire da una serie di immagini fisse o da un filmato. Non si cerca di ottenere un modello geometrico accurato della scena, ma un modello approssimato, adatto ad una navigazione interattiva che dia l’impressione del realismo senza i requisiti di precisione richiesti dai sistemi avanzati di realtà virtuale. Una prima soluzione a questo problema consiste nel ricavare da una serie di immagini la tridimensionalità della scena, che viene quindi descritta geometricamente come una serie di piani a diversa profondità, come fossero le quinte di una scena teatrale o i diversi piani di acetati usati nell’animazione tradizionale. Sui piani a diversa profondità, le immagini fotografiche vengono applicate con un procedimento di texturing, eventualmente corretto con tecniche di warping94 per adattare l’immagine alla proiezione secondo la quale il piano è visto. Un’altra soluzione parte ancora da una sequenza di immagini che vengono assemblate in modo da poter essere esplorate come se fossero osservate da un buon successo è QuickTime VR, della Apple, adatto sia alla creazione di panorami sia alla creazione di modelli 3D di singoli oggetti. 4.9.1 Quick Time VR Il principio logico su cui si basa Quick Time VR è quello della costruzione di un panorama attraverso una sequenza di immagini applicate su una superficie cilindrica. Una volta predisposta la sequenza fotografica, il metodo crea un’unica immagine (stitch) incollando le immagini successive e risolvendo i problemi di allineamento e correzione delle distorsioni ottiche in modo automatico. La procedura di collimazione95 esamina le regioni potenzialmente sovrapposte delle due immagini e cerca di valutare la loro distanza, che viene poi resa minima (idealmente pari a zero) spostando la seconda immagine verso la prima. Se la differenza 94 Warping: L´image warping è una trasformazione geometrica di un’immagine. 95 Collimazione: La collimazione di un'ottica (composta da diversi elementi ottici, come lenti, specchi, diagonali e oculari) consiste nel far sì che gli assi di simmetria, che sono anche gli assi ottici di ognuna delle componenti, coincidano tra loro (a rigore ciò non è necessariamente vero, ma per la stragrande maggioranza delle ottiche in uso in campo amatoriale lo è). A seconda del tipo di ottica l'operazione può variare nelle sue modalità, ma il suo significato "geometrico" non cambia: gli assi ottici dei componenti devono essere coincidenti per essere collimati. Tratto da: http://astroemagazine.astrofili.org/num9/collimazione/ 125 tra le due immagini è eccessiva, l’utente può intervenire manualmente per aiutare il programma automatico. Questa operazione viene compiuta con tutte le immagini fino a creare lo stitch. È necessario a questo punto calcolare la proiezione della stitch su una superficie cilindrica, che in seguito viene suddivisa in una serie di patch che possono essere trattati come fotogrammi di una sequenza video. L’osservatore, usando il mouse, fa scorrere il video in avanti o indietro, come se navigasse nella scena, può scegliere lo zoom per ingrandire o rimpicciolire una zona, e compiere un’intera rotazione. Questa tecnica può sembrare a prima vista simile alla mappa d’ambiente che abbiamo descritto nel contesto del rendering con modelli d’illuminazione locali, ma il limite della mappa ambiente è che non permette di variare con continuità i punti di vista. Per ovviare a ciò QuickTimeVr suddivide la superficie di proiezione in una serie di regioni sulle quali mappa porzioni corrispondenti dell’immagine panoramica; queste regioni sono gestite come fotogrammi chiave di una sequenza animata. I fotogrammi intermedi, che permettono di ottenere un movimento morbido, sono generati come interpolazione tra i fotogrammi chiave. Perciò quando l’utente naviga nello spazio virtuale, in realtà seleziona un percorso sul piano piastrellato del cilindro di proiezione scegliendo le immagini chiave che il sistema interpola automaticamente. Da questa descrizione emerge come QuickTimeVR sia a cavallo tra un sistema per creare e visualizzare scene tridimensionali ed un sistema di produzione di filmati. Il sistema QuickTimeVR permette anche di creare filmati di oggetti tridimensionali, a partire da una serie di fotografie dell’oggetto da differenti punti di vista. Anche in questo caso occorre risolvere il problema della collimazione dei fotogrammi e quello dell’interpolazione tra fotogrammi diversi. In completa analogia col metodo descritto per la navigazione nei panorami, infatti, la navigazione attorno ad un oggetto 126 tridimensionale tramite QuickTimeVR avviene interpolando in tempo reale le immagini di punti di vista chiave, ricavati dalla sequenza fotografica originale. In determinate zone della schermata può essere inserito un collegamento ipertestuale che consente di attivare un nuovo filmato. In questo modo si può creare una navigazione interattiva in uno spazio composto da visioni panoramiche multiple di diversi aree o di diversi oggetti. Per navigare tra oggetti e scene diversi vengono inseriti dei “punti caldi” (hot spots), cliccando sui quali viene selezionato il nuovo filmato. Per permettere questa gestione, QuickTimeVR considera i differenti filmati (panoramiche, oggetti) come tracce diverse tra cui scegliere alternativamente quella da visualizzare. Recenti versioni di QuickTimeVR permettono di proiettare il panorama su una sfera, in modo da poter osservare la scena da qualsiasi punto di vista.96 4.10 Applicazioni Oggi le applicazioni della resa visuale sono piuttosto ampie, «e in particolare, per quanto concerne le animazioni tridimensionali, appare in parte ridimensionato il trend imperniato sull’esasperazione del rendering, sul realismo della simulazione, e quelle produzioni che vi si ispirano ricorrono sovente all’ironia. Questa situazione si presta a diverse interpretazioni, probabilmente concorrenti. Una prima risiede nel fatto che non si è ancora in grado di migliorare sensibilmente il realismo della figurazione, particolarmente quando è dinamica, per motivazioni tecniche e strumentali, e ciò rende conto anche del fatto, sopra notato, che per quanto riguarda il rendering realizzazioni notevoli del passato restano tuttora esempi cui ispirarsi. Questo rarefarsi del realismo a tutti i costi può anche essere interpretato come segno indiziario dell’affrancamento da una fase di autoreferenzialità, centrata sullo strumento anziché sulla rappresentazione, fase, come si è osservato in precedenza, tipica e cruciale nella maturazione di un medium, e in particolare di un medium, come il computer, nato e sviluppatosi proprio per simulare. Una motivazione non secondaria, tuttavia, ci sembra risieda in problematiche insite nella simulazione stessa, nella sua rappresentazione e percezione, problematiche che riguardano non soltanto l’animazione al computer, ma in generale le simulazioni Fig 16) Quick Time VR. Fonte: http://www.calidos.com/quefem/gifs-qtvr/VR-1.gif 96 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 273-292 127 tecnologiche. Indubbiamente è difficile rendere in modo credibile, senza «effetto cartoon», superfici e strutture tridimensionali particolarmente complicate, dalla dinamica complessa, presenti, per fare solo un esempio, nell’animazione della figura umana. Tuttavia crediamo che non si tratti di una questione dovuta esclusivamente ai limiti di una tecnologia della rappresentazione.»97 4.10.1 Cinema Come visto fin’ora, il peso del rendering nell’ambito cinematografico è enormemente rilevante. Lo dimostra il fatto che ormai la stragrande maggioranza degli studi cinematografici hanno un reparto di Visual Effects. Oggi, grazie alle tecnologie digitali, è possibile ricreare al computer scenari, situazioni, oggetti, acqua di mare, fuoco, persino persone e dinosauri sintetici, curati fin nei minimi particolari. Il cinema sta vivendo una svolta epocale; quella dei visual effects è ormai una realtà innegabile: l'industria cinematografica ha deciso di seguire la strada del progresso, e non tornerà più indietro. La tecnologia non è più un accessorio della narrazione, ma è divenuta parte integrante della trama; ciò ha causato una ridefinizione nell'approccio all'organizzazione, alla ripresa e al montaggio di qualunque film, nonché nella gerarchizzazione dei ruoli: il regista non è più creatore assoluto della sua opera, ma ha bisogno dell'aiuto di un gruppo di esperti per dar corpo alla propria ispirazione. E' importante notare che in questo modo al cinema viene restituita quella valenza di rito collettivo oscurata dall'avvento dello spettacolo televisivo: la sala, con i megaschermi ed i moderni impianti di acustica, è di nuovo il luogo in cui più individui si recano con l'intenzione di vivere un'esperienza di gruppo, di condividere le emozioni che il guru (regista) ha deciso di veicolare nel suo film. Anche il cinema italiano, proverbialmente restio ad accettare le innovazioni, sembra essersi accorto del profondo cambiamento intervenuto: Nirvana98 di Gabriele 97 Pier Luigi Capucci, Realtà del virtuale, cit., p.58-59 98 La data di riferimento è il 2005, un futuro vicino al nostro, figlio del movimento cyberpunk. Le città sono diventate degli agglomerati di quartieri multietnici. Nell'agglomerato del Nord vive Jimi (Christopher Lambert), un programmatore di videogiochi. La sua ultima creazione, Nirvana, sta per essere lanciata sul mercato mondiale. Da quando Lisa (Emmanuelle Seigner) lo ha lasciato, la vita di Jimi non ha più senso. Solo (Diego Abatantuono) e Maria (Amanda Sandrelli) sono i protagonisti del videogioco. Un virus entrato nel computer di Jimi ha fatto impazzire il programma e Solo ha acquistato una coscienza. Resosi conto di essere condannato ad una falsa esistenza fatta di continue ripetizioni, supplica Jimi di 128 Salvatores potrebbe essere un esempio di come i nostri registi, soprattutto i più giovani, siano stati in parte coinvolti in questo processo di 'svecchiamento' compiuto dal mondo dell'informatica.99 4.10.2 Video-games Quasi tutti i blockbuster cinematografici offrono lo spunto per la realizzazione di un videogioco come prosecuzione del divertimento a casa propria. Rappresentano l'espressione videoludica della moderna cinematografia. Il game elettronico viene generalmente usato come «testa di ponte» del film in uscita nelle sale, esattamente come è capitato per il recente Episodio III di Star Wars “La vendetta dei Sith” da parte di Activision, oppure come naturale prosecuzione dell'avventura su grande schermo. La produzione hollywoodiana è generalmente fonte d'ispirazione primaria per un mercato “videogame & cinema” che si sta rivelando sempre più come un'autentica miniera d'oro. Dal punto di vista dei gamer, dei giocatori più o meno incalliti, il tie-in100 è considerato una sorta di tallone d'Achille per tutte le piattaforme. Di norma l'avventura si presenta poco interessante, non aggiunge granché a quanto visto al cinema e si finisce per considerare molti prodotti come mere operazioni commerciali. Ed in effetti i numeri di queste operazioni sono straordinari. Un successo parziale può essere legato ad un non corretto sincrono con l'uscita del film, quando il lasso di tempo è eccessivo si rischia inevitabilmente di non cavalcare più l'onda del successo. È il caso di “X-Files”, sopprimerlo una volta per tutte. Ma per fare questo Jimi dovrà penetrare nella banca dati della Okosama Starr, la multinazionale per la quale lavora. Inizia così un viaggio per i quartieri periferici dell'agglomerato, un viaggio verso il cuore della Okosama Starr ed al tempo stesso sulle tracce di Lisa. Al suo fianco Joystick (Sergio Rubini), un hacker che con la sua parlata pugliese rappresenta la massima contaminazione in un mondo fatto di sola tecnologia, e Naima (Stefania Rocca), una giovane esperta di computer che, da quando ha perso la memoria, può vivere unicamente di ricordi artificiali. Coproduzione europea per un costo industriale di circa 17 miliardi, ma realizzato interamente in Italia, dalle scenografie agli effetti speciali computerizzati, Nirvana è un interessantissimo film di fantascienza introspettiva in cui la ricerca è orientata verso l'interno dell'uomo: un pretesto per parlare di noi, delle nostre paure, dei nostri sogni, dell'angoscia di poter vivere in una realtà irreale fatta di mondi paralleli. Tratto da: http://www.revisioncinema.com/ci_nirva.htm 99 Tratto da: http://xoomer.virgilio.it/liciabar/informatica/pag1.htm 100 Tie-in: Significa legare (come legare con un nodo) due prodotti differenti. E' un termine pubblicitario. Il termine tying-contract è traducibile letteralmente in italiano come “contratto legante”; nella terminologia anglosassone è utilizzata anche la variante tying arrangement o tie-in. Il tie-in è la vendita o la concessione in godimento di un bene o di un servizio (tying product, il prodotto legante) sotto la condizione che il cliente affitti o compri un altro bene o servizio (tied product, il prodotto legato) che potrebbe invece essere venduto separatamente. 129 fortunata serie televisiva creata da Chris Carter divenuta un film approdato con un certo ritardo su PSX come game del tipo “punta e clicca”. Un limitato appeal anche perché non era possibile vestire i panni dei due super agenti Mulder e Scully bensì interagire con essi in quelli di Craig Willmore che durante le investigazioni incontra altri personaggi cult come l'uomo che fuma, i Lone Gunmen, Skinner etc. Un piano di credibilità e la capacità di riuscire a coinvolgere con la stessa intensità emotiva rispetto all'opera cinematografica è proprio quanto gli appassionati chiedono. Indimenticabile in questo senso l'eccellente lavoro da parte della Rare nell'implementare su una console dalle relative doti grafiche il tie-in di “007 Goldeneye” che non solo spopolò agli esordi della macchina Nintendo 64 ma ne contribuì al successo mondiale. La THQ ha sviluppato parecchio codice a partire dal 2000 dedicato alla saga di “Evil Dead” che ha dato fama e notorietà al regista Sam Raimi. Cinque anni fa la grafica non consentiva grande respiro su PC e PSX ma è da poco disponibile una nuova avventura del genere horror survival intitolata “Evil Dead: Regeneration” per PS2 che ricalca pienamente le atmosfere dei film immergendo il giocatore in uno scenario da brivido. In seno ad un'industria che non manca di inventiva e coraggio si può incontrare chi oltre alla passione della programmazione tout-court è cinefilo entusiasta. La risultante di questo binomio è sicuramente presente in “The Two Towers”, videogame che ripropone atmosfere ad alto tasso di coinvolgimento in una sorta di mini saga basata sui primi due episodi della trilogia di Peter Jackson. Livelli di gioco con ambientazioni familiari a chi si è appassionato al cinema seguendo Frodo e la Compagnia dell'Anello. Dalle miniere di Moira al Fosso di Helm combattendo senza quartiere guerrieri Urukhai e orchi. La Electronic Arts ha in questo senso sviluppato un motore poligonale aumentando il grado di controllabilità e agilità. In questo caso il titolo del genere “slash'em up” ha mostrato i suoi lati deboli unicamente per la mancanza dell'opzione multigiocatore e per la non corretta bilanciatura del grado di difficoltà per i vari livelli. Il successo della trilogia è ancora alto e consente un ulteriore sfruttamento commerciale al punto che la Turbine Entertainment di Westwood, Massachusetts ha quasi pronto “Middle-Earth Online”, game che si preannuncia clamoroso. Turbine ha deciso di rimandare l'uscita per evitare la sovrapposizione con il lancio del game di strategia in tempo reale “Lord Of The Rings: Battle For The Middle-Earth” sempre di Electronic Arts. 130 Diversi i game nel corso del tempo legati alla saga della spia Ethan Hunt interpretata da Tom Cruise con i due “Mission impossibile” cinematografici cui seguirà presto un terzo. “Mission Impossible: Operation Surma” è stato convertito da Atari per PS2 e gli appassionati troveranno atmosfere e tattiche di due stealth game d'eccezione come “Sprinter Cell” e “Metal Gear Solid”. L'azienda è nota per avere prodotto il successo per PC “Enter The Matrix” che sarà molto probabilmente surclassato dall'imminente uscita per tutte le piattaforme di “The Matrix: Path Of Neo”. Il videogame è curato dai registi della trilogia, i fratelli Wachowski, si potrà vivere l'intera avventura dei tre film nei panni dell'eletto aprendo ad un possibile finale inedito. Da non dimenticare sempre da parte di Atari la produzione di “Rise Of The Machines”, game ampiamente ispirato al terzo episodio della saga di Terminator che ha lasciato sul terreno non poche critiche. Di recente uscita è “Terminator 3: The Redemption”, shooter/picchiaduro in terza persona e adventure disponibile anche per Xbox dove si sparano quantità inverosimili di piombo con innumerevoli richiami al film ed una riproduzione fedele delle ambientazioni. Il legame all'opera diretta da Jonathan Mostow è oltremodo assicurata dalla voce di Alessadro Rossi, doppiatore di Schwarzenegger. Unico neo, qualità del gioco a parte, l'assenza di musiche legate alla colonna sonora originale. L'ultimo capitolo della saga del Batman cinematografico meno cupo e surreale rispetto a quello di Tim Burton ha ispirato il recentissimo game su PS2. Diverso dal classico picchiaduro e con un approccio più stealth dove è più opportuno non essere scoperti dai nemici piuttosto che eliminarli. La linea temporale della narrazione filmica non è proprio identica ma non per questo viene meno l'appeal: grafica eccellente richiamando senza meno la fisionomia degli attori, Christian Bale in primis. Anche qui sono presenti le voci dei doppiatori italiani e la colonna sonora originale. Meno facile rispetto a quanto verrebbe da pensare la realizzazione di un gioco ispirato all'animazione. I capolavori cinematografici della Pixar hanno sempre lasciato scontenti gli appassionati proprio come è accaduto per l'ultimo “Gli incredibili”. A fare da battistrada al recente “Madagascar” ci ha pensato ActiVision con il game che ha creato la giusta attenzione dei più piccoli che inevitabilmente hanno costretto i genitori alla visione del film recentemente uscito nelle sale. Tra produzioni passate più o meno 131 recenti e giochi in procinto di distribuzione non possiamo non parlare di “The Chronicles Of Riddick: Escape From Butcher Bay” di Starbreeze Studios, non tanto ispirato al secondo capitolo della saga ma un'opera che si pone come prequel del primo “Pitch Black”. Mentre vestiamo i panni dell'antieroe Riddick interpretato da Vin Diesel veniamo a conoscenza delle sue origini e del potere dei suoi occhi. Non si tratta di un semplice sparatutto o picchiaduro ma di una avventura con visuale in prima persona dove occorre sfruttare le doti fisiche del personaggio che può certo aprirsi la strada a suon di arti marziali. La potenza grafica in questo caso richiede per la piattaforma PC un hardware adeguato all'ultima generazione. Esistono anche videogames estremamente tardivi rispetto alla realizzazione cinematografica. È il caso di “Starship Troopers” di Paul Verhoeven il cui gioco verrà lanciato a breve da Leader. Uno sparatutto 3D dove si ricopre il ruolo di un soldato membro dei Leoni, corpo speciale della fanteria mobile che partecipa a pericolose missioni a caccia di insetti alieni, il racconto si colloca temporalmente cinque anni dopo gli eventi del film del '97. Si tratta in realtà del secondo game ispirato al film, dopo l'uscita di uno strategico curato da Hasbro Interactive nel 2000. Della stessa categoria realizzato da Take 2 per PS2 abbiamo l'unico game che permette di rivivere la violenza urbana del grande cult del 1979 “The Warriors - I guerrieri della notte” firmato Walter Hill. Attraversare la città di New York per tornare a Coney Island non sarà facile nel ruolo dei Guerrieri: in questo picchiaduro d'imminente uscita ci si batte contro le «street gang» a partire dagli Orfani sino ai mitici Baseball Furies, armati di mazze con gli originali indimenticabili colori di guerra sul volto. Ma la rivoluzione dei videogiochi con il cordone ombelicale alla celluloide non passa unicamente per Hollywood. Dall'Ucraina nacque alcuni anni fa l'idea di realizzare un game ispirato al fantascientifico “Stalker” di Andrej Tarkovskij intitolato “Oblivion Lost” dove occorre sopravvivere all'interno della zona letale di Chernobyl popolata da esseri mutanti. Del film in questo caso è sfruttata solo la nomea e questo sparatutto 3D in prima persona della THQ è ora noto come “Stalker: Shadows Of Chernobyl”. Sulla qualità grafica le immagini parlano da sole. A breve ci immedesimeremo nel ruolo di King Kong nel game sviluppato da Ubisoft che ha lavorato in stretta collaborazione col regista dell'omonimo film Peter Jackson. I cinefili appassionati di picchiaduro potranno invece tornare con la memoria al “Fight 132 Club” di David Fincher con ambientazioni e ruoli identici a quelli vissuti da Brad Pitt e Edward Norton nel nuovo game di Vivendi/Universal. Anche i film prodotti dalla Marvel di Stan Lee si sono spesso trasformati in «instant game» ma non sempre interessanti. Limitati quanto a grafica, sonoro ed una parziale corrispondenza con il film ed una (troppo) generica ispirazione al fumetto come per XMen, Spiderman, Hulk e l'ultimo nato in casa ActiVision: il relativamente longevo “I fantastici 4”. In ultima analisi i sospetti dei cosiddetti opinion leader, leggi giocatori accaniti con grande bagaglio d'esperienza su tutte le piattaforme, legati ai tie-in sono comprensibili perché sanno quanto elevato possa essere il rischio di un prodotto costoso e poco interessante. A spezzare una lancia a favore dei creativi e dei publisher vi è la considerazione che può capitare di avere un basso budget per la realizzazione quando si sono spesi miliardi nell'acquisizione della licenza. Sul piano qualitativo il realismo del gioco è sempre più prossimo a quello della pellicola ed il futuro tecnologico di domani ci porta a pensare quanto l'elettronica videoludica e l'avventura (sempre più digitale) del grande schermo un giorno potranno comodamente confondere le rispettive genie regalando un grado di immedesimazione emotiva senza confini.101 4.10.3 Multimedia I creatori di Cd-rom hanno inventato un nuovo linguaggio visivo quasi per caso, cercando di emulare il cinema tradizionale. Alla fine degli anni Ottanta la Apple ha iniziato la promozione dell’idea di computer multimediale; e nel 1991 ha prodotto il software Quick Time, che permette ad un qualsiasi computer di visualizzare film o video. Tuttavia, negli anni seguenti, il computer non ha sfruttato questo nuovo ruolo. I primi Cd-rom non potevano contenere dati sufficienti alla visualizzazione di un intero film. Inoltre i computer riproducevano i film con molti scatti e intervalli, e soprattutto le immagini erano grandi quanto un francobollo. Infine, i film venivano compressi, compromettendo la definizione delle immagini. Solo nel caso di immagini statiche, il computer riusciva a visualizzare dettagli di qualità fotografica e a schermo intero. 101 Tratto da: http://www.primissima.it/attualita/sommario.html?id-articolo=56 133 A causa di questi limiti, i creatori di Cd-rom hanno dovuto inventare un nuovo linguaggio cinematografico che applicasse alle immagini sintetiche e fotografiche tutta una serie di strategie (sequenze circolari, movimenti a passo singolo e sovrimpressioni) utilizzate nel diciannovesimo secolo, nell’animazione del ventesimo secolo e nel cinema pittorico d’avanguardia. Questo linguaggio unisce l’illusionismo cinematografico all’estetica del collage grafico, basato sull’eterogeneità e sulla discontinuità. Il grafico e il fotografico, separati da quando il cinema e l’animazione avevano preso due sentieri diversi, si sono ricongiunti sullo schermo del computer. E il grafico ha incontrato anche il cinematografico. I creatori di Cd-rom conoscevano le tecniche cinematografiche e quelle di montaggio, ma hanno dovuto adattarle a un formato interattivo e ai limiti dell’hardware. È nato così un nuovo linguaggio ibrido, che combina le tecniche del cinema moderno con quelle delle immagini in movimento del secolo scorso. Possiamo ricostruire l’origine di quel linguaggio, analizzando i Cd-rom più famosi. Il gioco Myst (Broderbund, 1993) - un vero e proprio bestseller - dispiega la narrazione utilizzando soltanto immagini statiche, una pratica che ci riporta agli spettacoli delle lanterne magiche e a La Jeté102 di Chris Marker. Ma per altri aspetti Myst si avvale delle tecniche del cinema del ventesimo secolo. Ad esempio, per passare da un’immagine all’altra, il Cd-rom utilizza una simulazione dei tradizionali movimenti di macchina. E impiega anche le tecniche fondamentali del montaggio cinematografico per accelerare o diminuire il tempo della narrazione. Nel corso del gioco, il giocatore si muove su un’isola immaginaria, cliccando sul mouse. Ad ogni click corrisponde l’avanzamento di una cinepresa virtuale che rivela una nuova porzione dello spazio tridimensionale. Quando il giocatore scende nelle camere sotterranee, la porzione di spazio visualizzata da ciascun click diminuisce sensibilmente. Se prima il giocatore riusciva ad attraversare l’intera isola con qualche click, nelle camere sotterranee deve cliccare almeno una decina di volte, anche solo per scendere da una scalinata. In altre parole, proprio come nel cinema tradizionale, Myst rallenta il tempo dell’azione per creare suspense e tensione. 102 Il corto di 28' in b&n è un cult del cinema sperimentale e di Sf. Scritto e diretto dal regista francese nel 1962, La Jete'e (La rampa) è un viaggio allucinato nella memoria di un uomo prigioniero, sottoposto ad una serie di esperimenti, in una mondo distrutto dalla terza guerra mondiale. L'unico rifugio è il ritorno indietro in un altrove spazio-temporale. Senza dialoghi, immagini fisse, il film ha ispirato L'esercito delle 12 scimmie di Terry Gilliam ('95). 134 In Myst, l’animazione delle miniature si svolge all’interno di immagini statiche. Al contrario, in un altro Cd-rom molto famoso - 7th Guest (Virgin Games, 1993) - il giocatore si trova faccia a faccia con video di attori in carne e ossa, sovrimposti a sfondi statici computerizzati e realizzati in 3D. I video sono sequenza circolari, che si ripetono all’infinito, e le figure risaltano contro gli sfondi. Queste caratteristiche collegano il linguaggio visivo di 7th Guest alle tecniche pre-cinematografiche del secolo scorso e ai cartoons, piuttosto che al realismo cinematografico. Ma, come Myst, anche 7th Guest evoca codici filmici completamente moderni. L’ambiente in cui si svolge l’azione (l’interno di una casa) è reso tramite il ricorso a lenti grandangolari; e il movimento da una stanza all’altra segue curve complesse, come quelle disegnate da un carrello cinematografico. Infine pensiamo al Cd-rom Johnny Mnemonic (Sony Imagesoft, 1995). Prodotto complementare al film omonimo - e presentato non come un gioco ma come un film interattivo, realizzato per la prima volta a schermo intero - Johnny Mnemonic si avvicina più di altri Cd al realismo cinematografico, mantenendo però delle marcate caratteristiche individuali. Lo stile visivo si pone in uno spazio intermedio tra cinema e collage, con l’azione interamente filmata contro uno sfondo verde, poi rimaneggiato graficamente. Non è errato leggere la breve storia dell’immagine digitale in movimento come uno sviluppo teleologico che rimette in scena la nascita del cinema di cent’anni fa. Infatti, con l’aumentare della velocità dei computer, i programmatori di Cd-rom sono passati dalla presentazione di diapositive alla sovrapposizione su sfondi statici di piccoli 135 elementi in movimento, per approdare finalmente alle immagini mobili e grandi quanto lo schermo di un computer. Questa evoluzione ripete la progressione del diciannovesimo secolo: dalla sequenza di immagini statiche (lanterne magiche ecc.) al movimento dei personaggi su sfondi statici (ad esempio, nel Prassinoscopio di Reynaud), fino al movimento totale (il cinematografo dei Lumière). Inoltre, l’introduzione di Quick Time nel 1991 può essere paragonata all’invenzione del Kinetoscopio nel 1892: entrambi sono stati creati per presentare brevi sequenze circolari; entrambi utilizzano immagini di circa due pollici per tre, pensate più per una visione privata che per proiezioni collettive. Infine le prime realizzazioni dei Lumière, che nel 1895 scioccarono le platee con enormi immagini in movimento, trovano un loro corrispettivo nei Cd-rom realizzati a partire dal 1995, con immagini in movimento che occupano l’intero schermo del PC. Così, proprio a cent’anni dalla sua nascita, il cinema viene reinventato sullo schermo di un computer.103 4.10.4 Pubblicità Il rendering, o più in generale la computer grafica e la pubblicità hanno stretto un forte sodalizio. Anch’essi, infatti, si presentano sempre più come una coppia vincente in quanto impatto visivo, emotivo, percettivo, mnemonico. Fig 47) Myst. Fonte: http://www.ioffergames.com/gimg/612236-Myst-Mac-Games.jpg 103 Tratto da: http://www.trax.it/lev_manovich.htm 136 Basti pensare alla primaria funzione della resa visuale negli spot pubblicitari ormai celebri quali: Citroen C4 dove una Citroen C4 ferma in un parcheggio si trasforma in un robot "ballerino" cominciando a muoversi a ritmo di una musica scatenata, per poi ritrasformarsi in auto pochi secondi dopo...Oppure le ormai interminabili saghe di Nike Football dove ogni volta una squadra di giocatori di calcio si scontra in match ai limiti dell’assurdo, sfidando mostri, diavoli, correndo nel mezzo della savana, in una sorta di safari, oppure in un aeroporto, dribblando parsone, ostacoli, furgoni; oppure in missioni impossibili quali il riscatto di un pallone da calcio custodito in un palazzo-fortezza soprasseduto da ninja-cyborg, o in una sfida “amichevole” all’interno di una gabbia adibita a campo di calcetto situata all’interno della cisterna vuota di un’immensa petroliera. Anche Adidas, nel suo ultimo spot presenta una dreamteam di atleti che corrono su un campo da calcio antigravitazionale fatto solamente di sbarre metalliche corrispondenti alle linee di segnalazione delle aree e del perimetro di gioco. Qui i giocatori, si rincorrono e si scontrano sfidando le leggi della gravità (chi perde l’equilibrio finisce nel vuoto) della fisica (gli “uomini” compiono salti, scambi, tiri, e quant’altro in modo umanamente impossibile) ed infine le leggi del calcio (chi fa più goal vince!). Senza dubbio, spot come questi non esisterebbero neanche se non ci fosse il rendering. L’impatto emotivo e visivo è centuplicato dalla sensazionale resa visiva adottata in queste tipologie di spot. Sarebbe infatti totalmente diverso riuscire a descrivere e rappresentare azioni impossibili come gli esempi citati ma anche le inquadrature e le angolazioni di ripresa. Nei recenti spot Mulino Bianco, biscotti e merendine animate danno vita ad una sorta di coreografia. Si ricrea un mini musical dove i protagonisti sono fatti di uova, burro, zucchero, farina, latte. I biscotti si muovono al ritmo della musica e si tuffano in una tazza di latte. Ovviamente il tutto è reso possibile grazie all’animazione tridimensionale e al rendering che restituisce il giusto aspetto realistico ai vari elementi della scena. Anche le inquadrature sono possibili grazie alla computer grafica e all’animazione tridimensionale del cinema digitale. Nell’ambito pubblicitario quindi è sempre più evidente e indispensabile l’utilizzo della resa visuale a partire dalla più “piccola utilità”, si pensi ad esempio alla semplice inquadratura di un’aspirina che scende in un bicchiere d’acqua lasciando dietro di se 137 piccole bollicine, fino ad arrivare alla creazione di interi set virtuali in cui far muovere e interagire attori reali e non. 138 5 I videogames 5.1 Realtà Virtuale La Realtà Virtuale è un ambiente artificiale nel quale è possibile entrare, muoversi ed interagire «con quel che contiene» quasi come se ci si trovasse nel mondo reale. Indossando un visore e indumenti speciali si possono toccare oggetti simulati ricevendone sensazioni tattili, oltre che visuali e auditive. La realtà virtuale realizza un ambiente praticabile, virtuale artificiale, che simula caratteristiche fisiche del reale. Con questa rappresentazione interattiva in tempo reale, per esempio, la Matsushita consente ai propri clienti di progettare una cucina personalizzata; all’Università di Seattle stanno riprogettando la nuova città, nel quale gli architetti potranno entrare, prima che divenga realtà, per provarne gli aspetti di «vivibilità».104 La realtà virtuale è un sistema che produce una rappresentazione verosimile, polisensoriale ed interattiva in tempo reale, grazie al connubio di diverse tecniche di simulazione che consentono una fruizione spaziale visuale e acustica, tattile, volendo anche olfattiva. La realtà virtuale è molto più di una rappresentazione audiovisuale. Il fruitore può entrare, percependolo polisensorialmente, in un ambiente simulato e interagire con esso e con gli «oggetti» che contiene, manipolandoli, come accade nei sogni e nelle fantasticherie. È una realtà che esiste solo nel momento della sua connessione con i recettori del sistema sensoriale, che coesiste con la realtà «reale», che le è parallela. Direttamente verso il continuum percettivo vengono convogliate informazioni sensoriali sinergiche ed estensive che simulano quelle dell’esperienza diretta del reale. Sovente esperiamo, perlopiù inconsapevolmente, diverse realtà parallele nel corso della vita quotidiana, ma la realtà virtuale appare fisicamente più attendibile, realistica, più di quelle generate dalla nostra mente. Rende più labile quella frontiera fra realtà ed illusione che costituisce la tensione costante della rappresentazione, almeno dal Rinascimento, mediante tecniche e modelli d’imitazione del reale sempre più complicati e contigui a lui (la prospettiva, la fotografia, la monografia, il cinema, il video, l’immagine sintetica, l’olografia, l’olofonia, le realtà virtuale, le loro Fig 48) Spot Citroen C4. http://www.carpages.co.uk/citroen/citroen_images/citroen_c4_robot_15_09_05.jpg 104 Pier Luigi Capucci, Realtà del virtuale, cit., p.75 139 Fonte: contaminazioni…). È in dubbio che la realtà virtuale possegga ulteriori risorse imitative, tuttavia le informazioni polisensoriali che veicola sono costrutti sintetici, dunque anche il recupero tanto rimarcato di quei sensi finora esclusi dalla rappresentazione audiovisuale avviene tramite modelli il cui unico artefice e referente è l’uomo. In secondo luogo, la trasduzione del reale fenomenico in modelli che ne simulano le proprietà percettive comporta sempre una riduzione, una semplificazione rappresentativa, una schematizzazione percettiva, per ragioni tecniche, funzionali, teoriche, tecnologiche, culturali, per le conoscenze incomplete sull’attività psicosensoriale. Una funzione fondamentale dei modelli, infatti, è proprio quella conoscitiva. La realtà virtuale quindi non sarà mai come il reale, ma potrà farcelo comprendere meglio, oltre che essere indispensabile, fino a sostituirlo del tutto in alcune occorrenze per una quantità di attività pratiche: si tratta dunque di una risorsa di notevole importanza.105 5.2 Uso del rendering nei videogames Senza dubbio il connubio Videogames-Rendering è strettissimo. Senza resa visuale le interfacce ed i software non sarebbero in grado di «rendere» la visualizzazione del gioco in maniera realistica, ma si limiterebbero a darne sembianze verosimili. Anche se la maggior parte dei video giochi non richiede effetti speciali iperrealistici, c’è comunque una tendenza ad impostare l’effetto «cartoon» ai personaggi e agli ambienti circostanti. Analizzeremo ora alcuni giochi, che si possono considerare dei punti chiave dello sviluppo grafico di questo settore, con particolare attenzione all’aspetto visivo e alla parte tecnica di questo. 5.2.1 I primi passi nel tridimensionale Dopo il «terremoto» “Wolfestein” (considerato come il padre di tutti gli sparatutto in soggettiva), la gente aveva avuto un assaggio del mondo tridimensionale e da allora la fame fu sempre maggiore, ma si presentò un serio problema per gli sviluppatori, ossia la potenza di calcolo degli elaboratori. Si presentava una scelta agli sviluppatori software: realizzare un gioco interamente tridimensionale che offriva grande liberta di 105 Pier Luigi Capucci, Realtà del virtuale, cit., p.108-109 140 gioco ma di scarsa prestanza estetica per i limiti di calcolo o tornare al bidimensionale che offriva maggior libertà per quanto riguarda la ricchezza grafica. Come spesso accade, si raggiunse un compromesso e fu così che nacque un ibrido tra le due categorie, la scelta più ovvia fu di realizzare scenari bidimensionali su cui muoversi con personaggi tridimensionali, in questo modo si aveva la possibilità di muovere il proprio alter ego in tutte le direzioni ma al solito tempo godere di scenari esteticamente molto curati. Uno dei pionieri di questo campo fu “Resident Evil”, in cui gli scenari molto curati facevano si che non si sentisse troppo la mancanza di una vera ambientazione 3D, ovviamente sorgeva un problema: fare si che un personaggio tridimensionale non stonasse in una ambientazione bidimensionale. Nel frattempo si era sviluppata anche un’altra corrente di pensiero, anche se meno seguita, che sfruttava la tecnica contraria degli scenari tridimensionali con personaggi bidimensionali, uno dei pochi giochi che ha sfruttato questa tecnica è “Xenogear”, indubbiamente un ottimo risultato in cui si poteva ruotare la telecamere per osservare la scena da varie angolazioni. Ma gli sviluppatori software realizzarono sistemi più potenti e i compromessi furono accantonati per dedicarsi ad una realizzazione completamente tridimensionale. Descent (1994, Parallax Software) “Descent” è diverso da qualsiasi altro gioco citato sino ad ora. Tutti gli altri giochi permettono all’utente di muoversi in un mondo tridimensionale. Descent mette l’utente in una navicella spaziale permettendogli di navigare attraverso delle miniere sotterranee. Non c’è gravità o concetto di basso e alto. L’utente ha completa libertà di muoversi in ogni direzione e angolazione. Questo mondo 3D è ricco di tunnel contorti e cave sotterranee, i tunnel si snodano sopra e sotto loro stessi. Il motore grafico di cui dispone rimase unico sino all’arrivo di “Quake” sul mercato, nessun’altro gioco vantava la possibilità di creare una simile architettura 3D. Sfortunatamente il motore grafico era studiato esclusivamente per l’ambientazione di questo gioco e anche gli 141 ambienti più vasti all’interno del gioco ne mostravano i limiti. Un’analisi meno tecnica del gioco e più “scenografica” trova questo prodotto ancora povero dal punto di vista di una ricerca della qualità grafica, come si può vedere dalle immagini, evidentemente l’interesse era ancora volto a risolvere problemi tecnici del movimento in un mondo tridimensionale; sia le architetture delle ambientazioni, sia gli «attori» che si muovono al loro interno, in questo caso navicelle spaziali, sono povere sia nella costruzione geometrica sia nelle le textures utilizzate. Inoltre si cerca di mantenere gli ambienti molto limitati nelle dimensioni per evitare i calcoli necessari al computer per elaborare scene di maggior apertura, il tutto dà un aspetto abbastanza spartano al gioco. Quake (1996, ID Software) Tra il primo “Doom” e l’uscita di Quake numerosi sviluppatori rilasciarono diversi giochi sul solito stile: la stessa ID rilasciò “Hexen: Beyond Heretic”, la Lucas Arts rilasciò “Dark Force” un gioco ispirato alla saga di Guerre Stellari, ma nonostante il successo economico ottenuto, nessuno di questi giochi portò uno sviluppo tecnologico nei loro motori grafici. Quake portò un’innovazione pari a quella che Doom portò sui suoi predecessori, il mondo di Doom si espandeva su di un unico piano di fronte, dietro e ai lati del giocatore. Quake si espandeva anche in altezza; i muri, i soffitti, e i pavimenti potevano essere in qualsiasi angolazione, permettendo al giocatore di ruotare la visuale a suo piacimento. Anche gli oggetti del mondo di Quake erano tridimensionali, mentre nei giochi precedenti venivano usati ancora sprite bidimensionali. Il risultato “scenografico” che si ha è sicuramente di maggior impatto, iniziano ad apparire architetture complesse con una ricerca per il gusto gotico che spesso caratterizzerà i giochi di questo genere, anche la qualità delle textures è 142 migliorata rispetto ai suoi predecessori andando ad aumentare la qualità delle architetture, ma ancora il risultato non si può sicuramente paragonare a qualcosa che si avvicini alla realtà, i personaggi sono ancora troppo «abbozzati» e le textures troppo ripetitive. Quake II (1997, ID Software) “Quake II” vantava uno dei motori grafici meglio sviluppati in quel periodo e ha mantenuto il suo predominio per lungo tempo. Era il primo a sfruttare l’accelerazione hardware delle ultime schede video, migliorando le qualità del suo predecessore. Gli ambienti sono sempre più vasti e le geometrie delle architetture più complicate, la grafica complessiva risulta più nitida e i modelli tridimensionali dei personaggi sono più curati e ricchi di dettagli, al pari delle textures che rifiniscono gli ambienti anche le luci e le ombre sono più realistiche. Anche se guardando Quake II dopo cinque anni può sembrare gia sorpassato, quando uscì destò stupore agli occhi dei giocatori per la sua qualità grafica e per la sua migliorata capacità d’immedesimazione del giocatore nel mondo creato virtualmente. Oggi giorno i giochi propongono ancora più realismo e ancora più immersione dell’utente all’interno del loro mondo, ma Quake II rimane una pietra miliare del settore. Questi sono i giochi che hanno caratterizzato gli esordi del mondo video ludico nel campo del tridimensionale, ora analizzeremo i giochi come sono allo stato attuale ossia circa un decennio dopo i primi giochi 3D. 5.2.2 Il presente del tridimensionale Gli sviluppatori software ottimizzano i loro giochi guardando sempre meno alla semplice architettura dei poligoni e ai problemi da essa derivati, ampliando le loro creazioni con nuove caratteristiche sempre mirate alla «spettacolarizzazione» del 143 prodotto, in qualche modo legata ad una teatralità delle scene per uno studio sempre maggiore sugli effetti speciali, sulla qualità delle textures, sulla simulazione di alcuni fenomeni come riflessione, rifrazione, trasparenze e liquidi in movimento. Quando esce un nuovo gioco, una delle cose che viene messa più in risalto sono proprio i nuovi espedienti che il motore grafico supporta. Eventi come esplosioni e alcune luci non possono essere calcolate attraverso leggi fisiche o al dettaglio, procedura che richiederebbe ore di calcoli, a scapito di una fluidità dell’immagine, perciò si cerca di ottenere un effetto, il più realistico possibile, senza ledere la velocità del motore grafico. Si deve pensare che un gioco per avere una visibilità soddisfacente deve girare a circa 30 FPS (frame per second) il che implica che il computer deve calcolare la nostra scena 30 volte al secondo. Quake III (1999, ID Software) Non si può non citare il terzo capitolo della fortunata saga della Id Software, che come abbiamo visto in precedenza detta gli standard sin dalla creazione dei primi giochi 3D. Con questo prodotto la Id software migliora il già buon motore creato per il capitolo precedente, all’insegna della spettacolarizzazione, gli ambienti sono vasti e spesso molto complessi, dotati di illuminazione di grande effetto, i modelli sono molto dettagliati e le textures di ottima qualità: particolare importanza hanno i notevoli effetti speciali all’interno del gioco come esplosioni, scariche elettriche e fiamme molto dettagliate. Un particolare che, a mio avviso, priva la serie di Quake della possibilità d’immedesimazione dell’utente con il personaggio è la frenesia che da sempre lo contraddistingue. Non si ha il tempo materiale per pensare e se da un lato questo porta ad un’impressione rapida della scenografia cosa che non permette di indugiare su 144 eventuali carenze, dall’altro priva il giocatore di quel tempo necessario per ambientarsi in un mondo virtuale. Nelle partite in rete, la comunicazione con gli altri giocatori è ridotta ai minimi termini, proprio per la velocità dell’azione, tant’è che i programmatori hanno fornito un set di frasi standard usabili attraverso tasti reimpostati in modo da non dover perdere tempo digitando una sola frase. Tutto questo rilega Quake, e molti sui simili, ad un livello di puro gioco di abilità e riflessi seppur molto ben fatto. Return to Castle of Wolfenstein (2001, Gray Matter Studio) “Return to Castle of Wolfenstein”, è il seguito del primo gioco 3D realizzato dalla Id software, fa uso del motore grafico di Quake III ampiamente modificato per spingerlo ai limiti, il risultato è uno dei migliori effetti visivi mai visti su uno sparatutto. La texturizzazione degli ambienti è molto ricca e quasi priva di ripetizioni, la ricostruzione storica è credibile e curata. Le luci sono quasi perfette e il passaggio da ambienti chiusi a spazi aperti è morbido, privo di stacchi. Tutto ciò a differenza di giochi come Quake III dove si nota una carenza grafica nel passaggio da spazi chiusi a ambienti aperti. La realizzazione dei modelli per i nemici segna un nuovo standard per i giochi FPS, per la cura al dettaglio che è stata prestata nella loro realizzazione. Le animazioni dei personaggi sono estremamente fluide e realistiche e curate da ogni punto di vista, gli “attori” del gioco si muovono con estremo realismo in ogni situazione. La realizzazione delle armi è talmente ben fatta da sentire la possibilità di allungare una mano e toccarle e i sistemi particellari che si occupano di esplosioni gas e simili sono ottimamente realizzati. Il gioco offre un’ottima costruzione scenografica e una buona base per un’immedesimazione nel mondo virtuale del giocatore-attore, soprattutto nella versione «one player», mentre offre, scarsa immedesimazione la modalità multi player giocabile in rete. 145 Max Payne (2001, Remedy Entertainment) Dire che “Max Payne” ha una grafica sorprendente è affermare il vero. Il nuovo motore grafico MAX-FX, di cui fa uso il gioco, crea ambienti tra i più realistici mai creati sino ad ora in un videogame, ogni oggetto è ricco di dettagli e gli ambienti godono di estrema interattività, fino a permettere al giocatore di distruggere letteralmente le architetture che lo circondano con armi da fuoco e granate. Anche la cura per i dettagli è sorprendente: sparando ad un estintore fuoriesce schiuma bianca, danneggiando un distributore automatico zampilla acqua. Il tutto aumenta il realismo e l’immedesimazione del gioco, che vuole offrire la spettacolarità di un film d’azione al giocatore. Nel tentativo di realizzare questo si hanno numerose sequenze riprese da una telecamera in terza persona che vedono il giocatore esibirsi in complicate acrobazie mentre fa fuoco con la sua arma, il tutto enfatizzato da effetti tipici del cinema come ad esempio il rallenty. I modelli degli attori sono realizzati con un’attenzione al dettaglio mai vista prima, vestiti ed espressioni sono perfettamente curate e mostrano incredibile realismo. Il gioco che offre una modalità esclusivamente per giocatore singolo, fa uso di una trama più definita rispetto ai suoi simili descritti precedentemente. Tutti questi fattori offrono al giocatore un effetto d’immedesimazione maggiore e allo stesso tempo di godere dell’ottima realizzazione scenografica del gioco. 146 Tomb Raider: The last revelation (2000, Core Design) In un’analisi dei giochi di oggi giorno non si può non nominare l’ormai famoso “Tomb Raider”, il gioco che ha dato vita a Lara Croft, eroina video ludica, ormai conosciuta dal grande pubblico e non solo dai video giocatori più accaniti. A scapito della notorietà di questo gioco, la realizzazione grafica è piuttosto deludente. I personaggi sono poco credibili e poveri di dettaglio, le architetture sono estremamente semplici e accompagnate da textures spesso ripetitive, l’effetto che si ha è di scarsa qualità. Nonostante la Core Design abbia cercato di convincere con un nuovo motore grafico rispetto a quello usato sino dal 1996, data di uscita del primo episodio della saga, il risultato finale è quello di un motore grafico per nulla innovativo e convincente. Nonostante Tomb Raider sia stato una realizzazione fondamentale nella storia dei video giochi non si è mantenuto tale con il passare del tempo, in un mondo come quello dei videogame in cui tutto è «vecchio» già un mese dopo la sua uscita, un motore grafico come quello del gioco è ormai un pezzo d’antiquariato. Dungeon Siege (2002, Gas Powered Games) 147 “Dungeon Siege” gradevoli innovazioni nel suo genere. Il gioco è ambientato in un regno medioevale, all’interno del quale vengono presentate differenti situazioni climatiche, dalle nevi perenni alle distese desertiche, mostrando estrema cura anche allo stile delle possibili costruzioni collocate nei vari ambienti. I personaggi sono personalizzabili dal giocatore che oltre ad una modalità singola può cimentarsi in un ottima modalità di gioco con più partecipanti dove può far crescere il suo personaggio assieme ad altri giocatori da tutto il mondo. La caratteristica di mantenere un personaggio da una partita su internet all’altra favorisce molto l’immedesimazione del giocatore con il suo personaggio, dandogli la possibilità di recitare un ruolo costante e arricchirlo con il passare del tempo. La presenza d’innumerevoli armi, vesti e armature a disposizione permette un’innovativa «customerizzazione» del personaggio, dote estremamente gradita dalla maggior parte degli utenti. La Gas Powered Games ha voluto inoltre offrire la possibilità ai suoi utenti di poter modificare il gioco in ogni suo dettaglio, saranno presto rilasciati dalla casa statunitense una serie di programmi che premetteranno di creare mondi, storie e persino nuovi effetti speciali per il gioco. L’idea di videogame modificabile, oltre ad essere una possibilità per l’utente di sperimentare le doti di scenografo o designer, è un’abile mossa commerciale, in quanto la vita del gioco viene arricchita e mantenuta dagli stessi giocatori. In genere i titoli che vantano questa possibilità hanno lunga durata tra i videogiocatori in quanto offrono un continuo rinnovo e continui stimoli. Neverwinter Nights (2002, Bioware corp.) “Neverwinter Night” presenta una grafica dal punto di vista tecnico leggermente inferiore a titoli come Dungeon Siege ma rimane qualitativamente superiore dal punto di vista della realizzazione. Il motore grafico ha minor potenza ma gli artisti 3D che 148 hanno maggiore abilità. Il gioco offre un alto grado d’immedesimazione grazie ad una trama solida e avvincente, importante l’aspetto multiplayer sviluppato e indirizzato al coinvolgimento dei giocatori nella creazione di “mondi” nuovi con la possibilità di avere in gioco sia giocatori che “master” (colui che fa le veci del fato è una sorta di regista). Le architetture del gioco sono ben studiate e suggestive, degno di nota l’uso delle luci di grande qualità e altrettanto si può dire per gli effetti speciali. Un gioco destinato ad un buon successo, proveniente da un team di esperti che hanno gia pubblicato molti prodotti sul solito stile ma con un motore grafico bidimensionale. Final Fantasy X (2002, Squaresoft) La serie di “Final Fantasy” è un validissimo esempio di ricerca scenografica di altissima qualità. Il decimo episodio vede per la prima volta una costruzione dei personaggi e dei fondali interamente tridimensionale. Questo comporta un passaggio indolore tra scene di gioco in cui il giocatore è libero di muoversi a filmati non interattivi di alta qualità. Ogni paesaggio o personaggio è curato nei minimi dettagli. Per i personaggi è stata sviluppata una tecnica speciale di animazione facciale che permette di simulare le espressioni del volto durante il gioco; i dialoghi sono stati quasi tutti doppiati. Il risultato è che diventa più un film interattivo che un semplice gioco; il tutto aumenta il coinvolgimento emotivo del giocatore. Lo stile di stampo orientale, è ancora più enfatizzato in questo capitolo della serie; le scenografie sono all’insegna del colore della vivacità e dell’onirico. Gli effetti speciali sono numerosi e aumentano la qualità visiva del gioco: cieli stellati, laghi immensi ricoperti di fuochi, templi con illuminazioni scenografiche ricchi di torce e magie spettacolari si trovano in ogni momento del gioco. Final Fantasy con tre anni di lavorazione alle spalle e uno staff di professionisti al suo attivo, si può definire come uno dei capolavori del panorama video 149 ludico e sicuramente uno dei giochi che offre maggior coinvolgimento emotivo del giocatore.106 5.3 Creazione personaggi Il movimento del corpo è sicuramente la parte più complessa del procedimento di animazione di un attore virtuale, ed è da tempo oggetto di studi in numerosi contesti, come nella recitazione teatrale o nel mimo. Nella danza si è sentita da tempo l’esigenza di descrivere e schematizzare il movimento. Sono stati sviluppati, nel corso della storia, numerosi metodi di descrizione del movimento. In particolare nel caso della danza ricordiamo la notazione di Feuillet, sviluppata da R.A. Feuillet nel 1699, che permette di rappresentare graficamente il movimento dei ballerini, affiancando così uno spartito del movimento allo spartito musicale. Feuillet ci mostra la danza in pianta: il percorso della danza viene rappresentato con una linea, lungo la quale troviamo i passi raffigurati come archi. Ogni passo inizia con un punto (l’appoggio iniziale) e termina con una linea (la posizione finale del piede) e può presentare un segno che indica quali azioni compiere durante lo spostamento. In questo modo, possiamo dare una descrizione grafica di ogni passo, ed anche usare combinazioni di descrizioni di base per costruire passi di più complessi. La notazione Feuillet nasce per la danza barocca e ci permette di rappresentare in modo chiaro anche la struttura modulare della danza, in cui ogni passo è ben definito, ha un nome e si combina con il precedente ed il successivo seguendo regole precise, come in una sorta di linguaggio del movimento in cui il testo (danza) è diviso in frasi (i gruppi di passi), composte da parole (i passi di base), composte a loro volta da lettere (i movimenti fondamentali). Un altro metodo di notazione più recente, è stato sviluppato intorno alla metà del XX secolo da Noa Eshkol ed Abraham Wachman. Questo sistema si basa 106 Testi e figure tratte da: http://www.hackerart.org/corsi/tesi/musante/cap4.htm 150 sull’osservazione che i movimenti degli arti del corpo umano avvengono, per la natura delle articolazioni, su un piano o all’interno di un volume conico. Suddividendo il piano o il cono in regioni (o spicchi, che formano le unità di misura dello spostamento), la cui dimensione può variare in base al tipo di movimento da descrivere, e prendendo un punto di riferimento iniziale, il movimento può essere descritto in base alla quantità di unità di spostamento percorse dall’arto in una direzione nello spazio indicato. Ciò che non viene espresso da queste notazioni è la dinamica, che al più viene rappresentata in modo qualitativo e, soprattutto, l’espressione. Per esprimere nell’animazione la dinamica del movimento occorre affidarsi alla bravura dell’animatore oppure alla registrazione automatica del movimento di un attore reale. Nella computer animation prodotta per l’intrattenimento, la dinamica e l’espressione non vengono generate con tecniche di simulazione avanzata, ma con un approccio di tipo creativo, simile a quello della caricatura, che tende ad enfatizzare aspetti e gesti rendendoli immediatamente riconoscibili, anche a costo di attenuare il grado di realismo. Questi metodi sono insegnati nelle scuole di animazione ed illustrazione, creando la forma, l’aspetto e i movimenti degli attori virtuali con gli strumenti messi a disposizione da software sofisticati. Diverso è il caso in cui si voglia giungere ad un’animazione che simuli nel modo più accurato possibile il comportamento di un attore reale. Lo studio di questi comportamenti complessi affianca le problematiche tipiche dell’Intelligenza Artificiale a quelle delle tecniche d’animazione, in particolare nelle situazioni in cui è prevista un’interazione tra attore virtuale e individui, come nelle applicazioni tecniche (telemanipolazione di sistemi robotica) o di intrattenimento, come nei videogiochi. Si riesce tuttavia a dare una soluzione parziale soltanto a problemi ben caratterizzati, dei quali si riescono a descrivere in modo accurato gli scenari possibili; ad esempio nel caso dei videogiochi si può caratterizzare il comportamento di un personaggio che persegue uno scopo preciso, e valuta il contesto e le azioni del giocatore secondo questa finalità. È necessario perciò riuscire a scomporre il problema in livelli di complessità via via decrescenti, separando le funzioni relative alla simulazione della sensorialità, su cui si basa l’interazione attore-scenario e attoregiocatore, da quelle relative al movimento. Il prodotto dell’interazione contribuisce a modificare la conoscenza del mondo che il programmatore ha predisposto per l’attore 151 virtuale, e in funzione di queste modifiche i comportamenti, corrispondenti a composizioni di movimenti elementari si manifestano nell’animazione autonoma. Negli studi sulle realtà virtuali, la caratterizzazione degli attori virtuali consiste nella definizione di un aspetto, di una struttura e di un comportamento. L’aspetto tende a riprodurre il più fedelmente possibile le caratteristiche esteriori di un essere umano, la cui struttura può essere schematizzata da un manichino articolato (con struttura scheletrica antropomorfa). Il comportamento riguarda sia i movimenti sia i gesti che può compiere il manichino, sia azioni più complesse, composte a loro volta da movimenti e gesti elementari che corrispondono ad azioni tipiche quali correre, saltare, danzare o compiere lavori specifici. In questa scomposizione si coglie il vantaggio di poter descrivere con linguaggi speciali azioni complesse come quelle della danza. Le fasi della costruzione di un attore virtuale sono quindi: la costruzione di un modello geometrico di una struttura di manichino articolato; la definizione dei parametri fisici della struttura articolata al fine di consentirne la simulazione del comportamento fisico meccanico; la definizione di tipologie standard di comportamento, come già analizzato; la definizione di meccanismi di interazione tra il manichino e l’ambiente (altri attori, operatore umano ecc.) ed infine la definizione delle proprietà di apparenza visiva, ovvero dell’aspetto del manichino stesso. Questo schema di suddivisione in fasi è applicabile non solo alla costruzione di un «attore sintetico» (definizione proposta inizialmente da Nadia Magnenat Thalmann e Daniel Thalmann) che simula un essere umano, ma anche nella realizzazione di attori antropomorfi, che possono avere ad esempio quattro, sei o più arti, riproducendo una tipologia tipica di insetti o di altri animali, anche di fantasia. Pensiamo ad esempio ai tanti film sui dinosauri, il cui movimento viene studiato nel dettaglio della dinamica, e il cui comportamento viene simulato su indicazione di specialisti etologi. Avremo quindi comportamenti di gruppo o individuali per la fuga, la ricerca del cibo, la ricerca della tana, l’aggressione. Riassumendo, la schematizzazione del processo di costruzione dell’attore virtuale è la seguente: • Costruzione del modello geometrico • Costruzione del modello fisico • Definizione della cinematica diretta e inversa • Definizione del modello del comportamento 152 • Definizione del modello dell’interpretazione con l’ambiente Vediamo ad esempio un modello basato su meccanismi di cinematica inversa, che richiedono la progettazione di una struttura articolata portante che può essere schematizzata come una struttura di aste rigide collegate con giunti in grado di ruotare l’uno rispetto all’altro, rispettando i vincoli fisici delle articolazioni umane. Questa struttura simula uno scheletro umano (semplificandolo in alcune sue parti, in base alla complessità desiderata per il modello ed i suoi movimenti) ed è comunemente adottata anche nel campo della robotica industriale. Maggiore è il numero di articolazioni introdotte nella struttura portante, maggiori saranno l’armoniosità del movimento ma anche la complessità di calcolo necessario per animarlo. Già questa semplice schematizzazione richiede un’organizzazione piuttosto sofisticata. Infatti la struttura deve muoversi in modo coerente, senza suddividersi in parti e propagando in ogni movimento compiuto da una data articolazione alle articolazioni successive. Ad esempio la rotazione di una spalla non solo muoverà il tratto collegato direttamente alla spalla, ma dovrà far muovere anche il braccio e la mano, così come accade nella realtà. La tecnica più adatta per fare ciò consiste nel creare tra ogni articolazione una sorta di relazione gerarchica. La gerarchia che lega le varie articolazioni è una gerarchia di «parte-tutto» che, nel caso della struttura più semplice, può essere schematizzata così: Nel costruire la gerarchia che lega tra loro le articolazioni dello scheletro del manichino occorre rispettare la gerarchia naturale, in modo che i movimenti siano coerenti con quelli di un essere umano reale e si propaghino da una determinata articolazione ad altre parti dell’intera struttura. 153 Lo scheletro definito in questo modo ha un’organizzazione gerarchica e costituisce la base su cui si organizza sia il comportamento sia l’aspetto esteriore. Per alcuni studi semplificati si può adottare la stessa struttura scheletrica come tecnica di raffigurazione dell’aspetto, che viene chiamata in questo caso stick figure o figura a bastoncini. Tuttavia per raffigurazioni destinate a simulazioni più accurate, tendenti alla massima verosimiglianza, si ricorre a tecniche di modellazione geometrica più avanzate. La struttura portante viene in pratica “rivestita” in modo che ogni sua parte, arti tronco, testa, sia modellata con un’opportuna forma geometrica, usualmente definita con superfici parametriche. Il rivestimento è in genere composto da vari pezzi che si combinano insieme nei punti di giuntura in modo più o meno realistico. Nel caso di manichini o modelli con un realismo poco accentuato, come quello del nostro esempio, i componenti semplicemente si compenetrano durante il movimento, in modo simile a quanto accade nella realtà per i manichini da pittore ed alcuni tipi di bambole. Nel caso in cui il realismo debba essere elevato, vengono costruite superfici di fusione (dette di blending) che riuniscono le estremità di due componenti adiacenti come se fossero una membrana elastica. La simulazione dell’aspetto di un attore virtuale non si limita alla forma del suo corpo, ma può spingersi a dettagli molto raffinati come i capelli, i peli corporei e del viso, i nei e le macchie cutanee, il sudore, le rughe, le cicatrici etc. 154 5.4 Animazione personaggi Nei sistemi robotizzati il movimento è ottenuto mediante motori, chiamati attuatori, che esercitano una forza conosciuta e di cui si può controllare con grande precisione sia la velocità sia l’accelerazione. Nell’animazione di attori virtuali simuliamo gli attuatori, ma è necessario calcolare traiettorie e leggi del moto per ogni singolo giunto della struttura. Sia nel campo della robotica industriale sia nella simulazione di attori virtuali è quindi necessario sviluppare tecniche di calcolo accurate e veloci per risolvere i problemi di cinematica e dinamica con cui si può caratterizzare il movimento di una struttura. In questo modo si possono codificare movimenti elementari di singoli giunti i quali, composti in movimenti via via più strutturati, danno luogo ad azioni da elementari a complesse. Questa tecnica di descrizione del movimento è anche chiamata simulazione “task level”. In questo schema l’asse orizzontale varia da livelli d’interazione minima a livelli via via più alti, mentre l’asse verticale indica astrazione crescente nella descrizione dei processi di movimento. I livelli d’interazione possibile portano a trattare della telemanipolazione e della tele-presenza. Il livello più basso è quello che si riferisce, nel caso dei sistemi robotici reali, ai dispositivi di attuazione, mentre nel contesto di simulazioni di sistemi virtuali esso è riferito alla risoluzione dei problemi di cinematica e dinamica diretta ed inversa. In questo schema riusciamo a collocare le diverse tipologie di soluzione ai problemi di controllo dell’animazione, dall’animazione telecontrollata con guanti digitali a quella autonoma basata su composizione di movimenti elementari descritta attraverso linguaggi ad elevata astrazione. 155 L’animazione di un attore virtuale e quindi della sua struttura articolata consiste nel simulare processi fisico-meccanici di propagazione del movimento tra gli elementi che la compongono. La struttura (detta anche catena cinematica) è costituita da una serie di segmenti rigidi o joint, collegati tra loro allo estremità in punti detti punti di snodo o giunti che fingono da articolazione della struttura. Il punto iniziale della catena si trova all’estremità del primo segmento e si chiama radice (o root); il punto finale è all’estremità dell’ultimo segmento e si chiama in genere effettore. Le parti di una struttura articolata sono in genere organizzate gerarchicamente, in modo che l’elemento “padre” trasmetta sempre i propri movimenti agli elementi “figlio” o “nipote”; la radice (il padre) e l’effettore (il nipote) sono gli estremi della gerarchia. La radice e l’effettore sono solitamente oggetti di massa nulla, invisibili, la cui unica funzione è controllare il movimento della catena. Nei programmi di modellazione questi elementi sono spesso rappresentati tramite croci tridimensionali. In una struttura articolata, sia essa l’arto di un personaggio antropomorfo o parte di un meccanismo, il movimento viene dalla composizione dei movimenti delle singole parti che la costituiscono. Nel caso della computer animation i vincoli tra gli elementi della struttura non sono fisici ma logici, e il propagarsi del movimento da un elemento all’altro deve essere quindi calcolato e simulato. Le articolazioni possono permettere due tipi di movimento: rotazioni o traslazioni; in genere le strutture articolate per simulare il movimento di un manichino sono composte con giunti di rotazione. Punti di traslazione possono servire a definire per esempio un robot che si muove lungo una rotaia. I movimenti permessi da un punto di articolazione possono essere limitati da vincoli che determinano l’intervallo delle rotazioni o delle traslazioni possibili. La nozione stessa di punto di snodo costituisce una forma di vincolo che lega tra loro i segmenti della catena. Ogni snodo di una catena è vincolato nei suoi movimenti in base alla definizione dei suoi gradi di libertà o DoF (Degrees of Freedom) e degli estremi dell’intervallo di movimento consentito. I giunti che si considerano in questo contesto cercano di simulare il comportamento dei articolazioni della struttura ossea umana o animale in genere, o di esoscheletri. Le tipologie di snodo che si considerano sono normalmente giunti cilindrici (che consentono la rotazione intorno ad un solo asse e quindi dotati di un solo grado di 156 libertà), giunti sferici (che consentono la rotazione attorno ai tre assi, con tre gradi di libertà) e, nel campo della robotica, giunti traslazionali o rototraslazionali. Il giunto ha un grado di libertà per ogni movimento che è libero di compiere, e la struttura articolata ha un numero complessivo di gradi di libertà pari alla somma dei gradi di libertà di tutti i suoi punti di snodo.107 Fig 49) Feuillet. Fonte: http//www.alfanet.de/home/ballett/fantasieducorp/find%20sign%.jpg Fig 50) Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 273-292 Fig 51) Manichini. Fonte: http://www.numerica-srl.it/immagini/manichini.gif Fig 52) Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 209 107 Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano p. 201-211 157 6 Case History 6.1 Final Fantasy – Il Film 6.1.1 Presentazione Un vero e proprio film virtuale, che mostra una realizzazione tecnica davvero sensazionale. Primo film in cui non è stata girata neanche una scena; interamente creato al computer. Ispirato alla famosa serie di videogame per PC e Playstation, Final Fantasy: the spirit within è un film di fantascienza, che nella trama non presenta grandi novità rispetto ai canoni del genere. L'ambientazione virtuale è il vero pregio del film, che riesce a conquistare nello spazio percettivo dello spettatore una dimensione originale di viaggio in spazi sconosciuti, resi più affascinanti dalla splendida colonna sonora. Alcuni prevedono che questo lungometraggio, che ha per protagonisti attori digitali, sia precursore di altri film senza più attori in carne ed ossa. Per la verità, sembra un’ipotesi un po' azzardata, perché sebbene il risultato sia stupefacente e si resti addirittura spiazzati da alcune sequenze, sono proprio i già acclamati attori a non convincere a pieno. 158 6.1.2 Trama Nell'anno 2065 la Terra è devastata da un'invasione di mostruosi alieni, sorta di ectoplasmi che si nutrono degli spiriti dei morti, atterrati sulla nostra superficie a bordo di un meteorite. Dalla loro roccaforte, situata nel cratere del primo impatto, i Phantom alieni hanno lanciato il loro tentacolare attacco al genere umano. Le città sono ormai ridotte a scheletri grigi e bui e i pochi sopravvissuti vivono concentrati in aree protette da calotte elettroniche, dentro cui la vita prosegue autosufficiente, ma compromessa da un destino che tende all'implosione e all'esaurimento delle scorte vitali. Eroina del film post-apocalittico è Aki Ross, una giovane scienziata assistente del saggio dottor Sid, impegnata nelle ricerche per la cura di una contaminazione aliena. I due scienziati ritengono che gli invasori si comportino sul pianeta come un virus dentro ad un organismo, in contrasto con le autorità militari che pensano di risolvere il problema militarmente, sostengono un’inaccettabile teoria per cui l’equilibrio della Terra, o meglio del suo spirito vitale Gaia, sia determinato da otto spiriti di natura biologica, e che ogni essere vivente ha in sé onde spirituali che possono essere controllate. Le autorità assegnano loro una squadra, la Deep Eyes, comandata da Gray Edwards, vecchia fiamma dell’eroina. Nel frattempo il generale Hein suggerisce di usare una potente arma spaziale, il “cannone Zeus”, per sferrare un attacco alla roccaforte aliena senza preoccuparsi delle catastrofiche conseguenze che ne deriverebbero. I due scienziati si oppongono non solo perché gli effetti sull’ecosistema sono sconosciuti, ma anche perché sospettano che il cannone possa dare vita ad altri alieni. Aki prosegue le sue ricerche per la salvezza della razza umana e della propria vita dato che, entrata in contatto con un alieno, è stata contaminata e costretta ad isolare il germe nel suo stesso corpo, mediante una capsula organica di contenimento progettata dal Dottor Sid che non può, ad ogni modo, impedire al virus di influenzare il suo riposo con sogni che rivelano l'agghiacciante passato degli extraterrestri. Aiutata dal Capitano Gray Edwards e dalla sua squadra e guidata dallo stesso alieno che ha in corpo, la ragazza tenta di recuperare gli ultimi due spiriti, di otto, di natura biologica che, messi insieme, dovrebbero formare un'onda di intensità uguale e contraria a quella degli alieni per riuscire a neutralizzarsi a vicenda disinnescando il contagio 159 6.1.3 Cast & Credits Dr. Aki Ross: Ming Na (voce USA)-Michaela Esdra (Italia) Grey Edwards: Alec Baldwin (USA) Rayn: Ving Rhames (USA)-Alessandro Rossi (Italia) Neil: Steve Buscemi (USA) Jane: Peri Gilpin (USA) Doctor Sid: Donald Sutherland (USA)-Giorgio Lopez (Italia) General Hein: James Wood (USA)-Roberto Chevalier (Italia) Major Elliot: Matt McKenzie (USA)-Roberto Pedicini (Italia) Regia: Hironobu Sakaguchi Produzione: Chris Lee Productions; Square Co. LTD. Distribuzione: Columbia Tristar Soggetto e sceneggiatura: H. Sakaguchi; Al Reinert; Jeff Vintar Scenografia: Mauro Borelli Fotografia: Motonori Sakakibara Effetti visivi: Robin Akin; Remo Balcells; Ben Cheung Musica: Elliot Goldenthal Nazione: Giappone\USA Anno: 2001 Durata: 106' 6.1.4 Dal computer al grande schermo La saga di Final Fantasy ha inizio nel 1987. Da allora nel mondo sono state vendute più di 33 milioni di copie. Il segreto del suo successo sta fondamentalmente in due fattori; uno di costume, l’altro di strategia commerciale. Un’unione perfetta di aspettative del giocatore e suggestioni indotte dall’industria dell’entertainment, che ha sfruttato un’intuizione iniziale facendola diventare un’icona. Il film è il primo realizzato con una pura convergenza tra cinema e videogames, ed è il frutto di questa costruzione caleidoscopica seguita con venerazione da milioni di fan in tutto il pianeta. Final Fantasy nasce nel momento di maggior splendore dei giochi di ruolo da tavolo. A metà degli anni Ottanta, la generazione dei liceali passava ore intorno a un tavolo a creare e giocare avventure fantastiche sotto la guida dei cosiddetti dangeon 160 master, spesso loro coetanei, che inventavano per loro combinando e combinando carte, mappe e trame, viaggi, scoperte e combattimenti in mondi virtuali che ormai facevano parte del loro immaginario. E' appunto il 1987 quando una piccola compagnia di sviluppo software giapponese chiamata Square ha l'intuizione che cambierà la storia dei videogiochi. L’idea di trasferire su console la passione per il fantasy è di un geniale uomo chiamato Hironobu Sakaguchi, che offrendo la possibilità di vedere quegli ambienti senza rinunciarne alla più ampia libertà possibile nella creazione di un’avventura, crea la nostra fatidica saga. L’idea del gioco ricorrerà in tutti gli episodi della serie, compreso nel film Final Fantasy: the spirits within. Tutti diversi è vero, ma con una filosofia di fondo comune. Nel primo capitolo il pianeta sta morendo prosciugato da quattro demoni. Da millenni la popolazione aspetta l’avvento della profezia: i quattro cavalieri della luce che porteranno nuova vita. Al comando di quattro personaggi dalle differenti abilità, il giocatore utilizza tutte le sue risorse, fisiche e magiche, per arrivare allo scontro finale. La fortuna di Final Fantasy è tutta nel potere evocativo della trama, anche se non è secondario il crescere delle risorse tecnologiche e l’aumento di potenza delle console. Col tempo cambieranno i personaggi, cambieranno le ambientazioni, i nemici gli alleati. Gli scenari, incominciati con i regni tolkeniani e tratti dalla letteratura fantasy diventeranno apocalittici, postindustriali e in stile Balde Runner anche se la fantasia finale di ogni episodio resta sempre una: salvare il pianeta dalle forze distruttive ed oscure che negano la comunione tra esseri umani e natura, ed è per questo che molti hanno parlato di filosofia New Age. Quindi, correre in aiuto della luce sopraffatta dalle tenebre, cercare senza sosta l'equilibrio perduto tra demoniaco e angelico, tecnologia cieca e magia, disperazione e coraggio, solitudine e amicizia, incubo e sogno, vita e morte, è il punto più lontano che il giocatore sa di dover raggiungere dal momento in cui carica il gioco nella console. Il gioco all'inizio esce su Nintendo Entertainment System, il quarto e quinto girano già su Supernintendo, ma nessuno di questi ultimi viene esportato fuori dal Giappone, si dovrà attendere il sesto episodio, tradotto in Usa come Final Fantasy III, perché la saga che ha fatto impazzire il Sol Levante arrivi in occidente, esattamente nel 1994. Il secondo degli elementi che faranno la fortuna del gioco è una piattaforma diffusa a livello planetario con alle spalle la più agguerrita filosofia di marketing della storia dei videogiochi: la Playstation. L'accordo viene stipulato nel 1997 ed è siglato per l'uscita 161 di Final Fantasy VII. Il successo dell'ottavo e nono capitolo, distribuiti da Halifax e Infogames (la storia della distribuzione del gioco è abbastanza tortuosa), diventa planetario. Sakaguchi viene ormai considerato un guru e la Squaresoft un gigante dell'industria dei videogiochi. Nascono così migliaia di siti Internet e fan club, proliferano i gadget e i manuali di soluzioni e strategia e ad ogni notizia di annuncio e ritardo di un’uscita suscita non poche reazioni; è il caso del decimo episodio per Playstation 2. Il successo continua la fantasia sembra ben lontana da essere quella finale. Ritornando al film, Sakaguchi ha certamente fatto le cose in grande stile per realizzare quello che lui considerava il suo sogno: creare qualcosa in grado di fondere l’eccezionale livello tecnico raggiunto dai videogiochi interattivi con le possibilità espressive della cinematografia tradizionale. Questo film si avvicina molto a questo sogno.108 6.1.5 Confronto con la realtà Prendiamo un film di fantascienza, uno qualsiasi, da Alien a Guerre stellari, da Men in black al Quinto elemento. Adesso, immaginiamo lo stesso film creato completamente in computer grafica 3D: non solo gli effetti visuali, ma anche le persone, le città, i paesaggi, le astronavi, il Sole, la Luna, le stelle e ogni piccolo dettaglio sullo schermo. Questo descrive esattamente il film Final Fantasy distribuito dalla Columbia Pictures e realizzato dalla Square. La pellicola, uscita in Italia il 24 agosto 2001, fa recitare attori umani sintetici in ruoli che potrebbero essere interpretati benissimo da attori reali e li inserisce in set completamente sintetici. Con una produzione durata quattro anni, Final Fantasy è uno dei progetti di computer grafica più ambiziosi che siano mai stati realizzati. «La sceneggiatura avrebbe potuto funzionare anche per un film con riprese dal vivo», afferma Hironobu Sakaguchi, regista della pellicola e CEO della Square USA di Honolulu, lo studio che ha creato Final Fantasy con un team di circa 200 persone provenienti da esperienze diverse, come la produzione di film dal vivo, videogiochi, pubblicità, animazione ed Fig 53) Final Fantasy. The http://www.gamenavigator.ru/gallery/screenshots/851.jpg 108 Spirits Within. Tratto da: http://www.noemalab.org/sections/specials/tetcm/2001-02/final_fantasy/trama.html 162 Fonte: altri settori. «Abbiamo deciso di usare la computer grafica realistica. Il nostro scopo era di offrire al pubblico qualcosa che non fosse mai stato visto prima». La decisione è comprensibile, dal momento che Final Fantasy è nato come gioco di ruolo per Playstation e Sakaguchi è l’autore di questo gioco. Secondo la Square, con le vendite in tutto il mondo della serie in nove parti di Final Fantasy, che hanno superato i 26 milioni di unità, lo studio poteva contare su un pubblico potenziale già pronto, composto da giocatori abituati ai temi fantastici, a proprio agio con personaggi in CG (computer grafica), ed ansiosi di vedere che cosa sarebbe successo in seguito. Sakaguchi, comunque, ha scelto di non riproporre i personaggi del videogame. Per l’animazione 3D non ha neppure adottato lo stile tipico delle fiabe, com’è stato fatto per film come Shrek e Toy Story. Final Fantasy si basa su un copione originale scritto da sceneggiatori americani Al Reinert e Jeff Vintar, ad ha un suo stile ben preciso. I cineasti della Square descrivono questo stile come “iper” e non “foto” realistico, facendo notare che per il film hanno cercato di ottenere un livello superiore di realtà, non una sua replica. Final Fantasy non appare esattamente come la realtà, ma non sembra neppure esattamente sintetico. Potrebbe quasi sembrare un film con riprese dal vivo che è stato modificato per ottenere un effetto particolare. Alla Square pensano che potrebbe cambiare il modo in cui in futuro verranno prodotti i film. «La stessa esistenza di questo lungometraggio è la dimostrazione di quel che la computer grafica è in grado di fare», afferma Sakaguchi, il quale pensa che adesso le persone sanno che è possibile creare personaggi umani sullo schermo, la porta è aperta a nuove idee. «È una soluzione che sta tra la cinematografia e l’animazione tradizionale», afferma Gary Mundell, supervisore della computer grafica. «Adesso possiamo fare tutto quello che vogliamo. Per questo tipo di produzioni, non ci sono limiti agli effetti speciali. Così come gli scenari. Possiamo inserire un personaggio umano in qualsiasi cosa. Non c’è nessuna storia che non possa essere raccontata». La Square può usare parole come “iper-reale”, ma si potrebbe ribattere che è l’aspetto fotorealistico dei personaggi umani del film a rappresentare il risultato più sorprendente. Anzi, diversi mesi prima che il film uscisse nelle sale, la rivista per uomini Maxim ha messo da parte fotografie di donne in carne ed ossa per mettere in copertina la star di Final Fantasy, la dottoressa Aki Ross, con indosso un bikini in una posa seducente. E perché no? Per la maggior parte dei lettori. Le donne sulla copertina della rivista non sono che semplici fotografie, e Aki è altrettanto bella. 163 6.1.6 Rappresentare le emozioni Il personaggio di Aki è solo uno degli attori digitali di Final Fantasy. Il capitano Gray Edwards, di cui è innamorata Aki, è a capo della squadra militare chiamata Deep Eyes, che aiuta e protegge la dottoressa. Il dottor Sid è la sua guida, e il generale Hein la sua controparte. Prima che venisse realizzato questo film, già da tempo si usavano nelle produzioni gli sfondi in 3D, gli effetti visuali ed i personaggi digitali, ma mai prima uno studio aveva cercato di realizzare un film in cui l’intero cast fosse composto da personaggi digitali che si muovono ed hanno l’aspetto di un essere umano. Per dirigere il cast, Sakaguchi è partito da storyboard dettagliati fotogramma per fotogramma, che sono stati scelti e convertiti in uno slide show su un sistema Avid. Poi, quando sono state registrate le voci degli attori, ha iniziato a lavorare la squadra che si occupava dei layout. Usando Maya della Alias|Wavefront su workstation SGI, le scene sono state abbozzate con semplici modelli 3D e “riprese” con telecamere virtuali. «Abbiamo scelto lo stile di ripresa degli anni Settanta e Ottanta, usando gli equivalenti virtuali di gru, steadycam e camere a mano», afferma Tani Kunitake, direttore delle scene. «Volevamo uno stile cinematografico, non quello di un videogioco». Gli storyboard ed i layout 3D sono poi passati al dipartimento d’animazione e di motion capture. I layout 3D mostrano i movimenti della telecamera, le posizioni e movimenti dei personaggi sincronizzati con le registrazioni dei dialoghi; gli storyboard illustravano il significato nascosto, le emozioni dei personaggi. 164 «Non è possibile dare espressione a un pupazzo cubico», afferma Kunitake quando parla dei layout 3D. E i dialoghi usati per questo layout non permettevano di capire l’intera storia. «Sakaguchi discuteva di come doveva apparire visivamente la scena, del rapporto tra Aki e Sid e tra Aki e Gray», afferma Kunitake. «Discuteva del percorso emozionale di una scena; quel che provavano i personaggi. Poi inserivamo questi elementi dando maggiore enfasi alla storia piuttosto che ai dialoghi». 6.1.7 Piccoli cambiamenti In ogni caso, trasformare un modello 3D in un personaggio umano realistico capace di esprimere emozioni richiede una delicata operazione di bilanciamento: se il personaggio 3D non sembra umano, non è importante se si muove come una persona reale, e viceversa. Ma un cambiamento dell’aspetto può far sbagliare l’animazione, e viceversa. «Sono entrambi impegnativi», commenta Andy Jones, direttore dell’animazione. «Discutevamo continuamente col gruppo che si occupava dei personaggi su che cosa fosse più reale, il movimento dei personaggi o il loro aspetto». Jones ha deciso che gli animatori si dovevano concentrare soprattutto sui volti e sulle dita dei personaggi, assegnando responsabili dell’animazione a ogni personaggio, e usando la tecnologia del motion capture per aiutare gli animatori a muovere i corpi. «All’inizio, avevamo pensato di catturare tra il 20 e il 25 percento dei movimenti dei personaggi, e di animare il resto con fotogrammi chiave», afferma Remington Scott, direttore del motion capture. «Pensavamo di usare questa tecnica solo quando i personaggi correvano o si muovevano in grandi spazi». Anche se era efficace per registrare questo tipo di movimenti, il team ha scoperto che il motion capture diventava ancora più utile quando i personaggi non si muovevano. «Quando i personaggi sono fermi e stanno per parlare l’uno con l’altro, ci sono incredibili sottigliezze e sfumature», spiega Scott. «Questi elementi caratterizzano ciò che si deve fare per apparire umani e muoversi come delle persone reali». I movimenti impercettibili che potrebbero cambiare l’atmosfera di una scena, come il modo in cui una persona rimane ferma e bilancia il suo peso, o si sposta su una sedia, erano difficili da animare, ma relativamente facili da catturare. Per questo quando il team ha iniziato a selezionare gli attori per il motion capture, ha preso in considerazione l’esperienza nella recitazione. Tori Elridge, un’attrice e ballerina, cintura nera in due discipline di arti marziali, ha recitato la parte di Aki. 165 La Square usa un sistema di motion capture ottico a 16 telecamere ed un software di tracking della Motion Analysis: ogni attore indossava circa 35 punti di controllo, cinque dei quali sul torace per catturare la respirazione. Un software proprietario ha permesso a Jones, Scott e Jack Fletcher, direttori dell’acquisizione dei movimenti e della voce, di vedere in pochi minuti i dati di motion capture applicati ai personaggi animati in Maya. «Non era in tempo reale, ma era veloce e molto preciso dal momento che potevamo vedere i personaggi con tutti gli elementi appropriati in Maya», afferma Scott. Alla fine secondo i calcoli di Scott, il 90 percento dei movimenti del corpo si è basato su dati di motion capture. Questi dati venivano inseriti in un sistema proprietario, che convertiva i movimenti catturati in un formato che poteva essere usato in Maya. «Si può spostare nel tempo un personaggio e vedere muoversi dietro come un fantasma la figura corrispondente ai dati di motion capture», afferma Jones. «Se le pose o le azioni vanno bene, si può far corrispondere il personaggio a questi dati, altrimenti si possono saltare intere sezioni ed animarle a mano». I corpi dei personaggi sono stati tutti creati in Maya usando una rappresentazione dei muscoli sotto la pelle, ed una struttura che usava i collegamenti per muovere lo scheletro, che muoveva i muscoli, i quali a loro volta spostavano la pelle.«Il corpo doveva essere anatomicamente corretto», afferma Kevin Ochs, direttore tecnico dei personaggi, «dal momento che ci dovevamo preoccupare di come i vestiti si sarebbero mossi». Per rendere efficiente il lavoro, comunque, il team lavorava solo con le parti del corpo che erano necessarie. «Se si vedeva un personaggio solo dalla vita in su, per questa scena venivano tolte le gambe», spiega Ochs. 6.1.8 L’animazione dei volti Completati i movimenti del corpo, gli animatori iniziavano a lavorare ai volti dei personaggi, che venivano completamente animati a mano. Per riuscire a muovere la pelle in modo realistico, è stato sviluppato un sistema che permetteva agli animatori di conferire alle superfici un aspetto più rilassato di quello che si ottiene col semplice shape blending. «Le forme si allungherebbero o si restringerebbero da un punto ad un altro, e questo non lascerebbe molta libertà per creare una maggiore morbidezza della pelle», afferma Ochs. «Abbiamo creato una gabbia di deformazione che ci permette di rappresentare la struttura muscolare quando la faccia inizia a muoversi, per dare alla pelle un aspetto elastico». Il team di tecnici ha usato la stessa soluzione, con piccole 166 modifiche, per tutti i personaggi. Fondamentalmente, la gabbia spinge e tira diversi punti chiave a seconda dell’espressione del volto, e in queste zone costringe la pelle a muoversi intorno ai punti, invece di allungarsi da un punto all’altro. «Abbiamo isolato i punti costantemente quando una persona parla», commenta Ochs. Per creare le rughe, il team ha deciso di usare mappe di displacement animate. «Abbiamo capito che una sola tecnica non ci avrebbe permesso di ottenere il risultato che volevamo», spiega Ochs. «È molto difficile far sembrare reale il movimento della pelle sul viso». Precisa Jones, «soprattutto quando ci avviciniamo con la telecamera. Quando una persona aggrotta le ciglia, per esempio, si formano sulla pelle piccole fossette e leggere imperfezioni che sono molto difficili da ricreare in CG. Si possono usate texture map animate, ma se non corrispondono perfettamente col movimento e le emozioni del personaggio, qualcosa sembra fuori posto». Anche l’illuminazione influenzava l’aspetto dell’animazione. «Per esempio», spiega jones «la parte inferiore della fossetta di una ruga tende ad essere una curva invece di una linea rigida. La curva crea una riflessione che all’interno di una ruga appare strana». Anche se per risolvere il problema il team ha usato tecniche di RenderMan della Pixar Animation insieme a strumenti proprietari, è stato difficile far apparire reali le rughe quando si muovevano, e c’erano continue idiosincrasie in CG dietro l’angolo. «Ci sono tante sottigliezze», continua Jones. «Abbiamo fatto la scelta stilistica di far apparire i nostri personaggi nel modo più realistico possibile e, una volta raggiunto questo stile, di far esprimere il maggior numero d’emozioni. Alla fine, credo che abbia avuto successo la resa visiva, soprattutto per volti. È così difficile rendere realistico il movimento del viso». 167 6.1.9 Sembrare reale Per far sembrare la pelle il più possibile realistica, Ochs aveva bisogno di un metodo che permettesse rendering veloci e che si adattasse facilmente alle diverse condizioni di luce. Prima di tutto, ha creato un algoritmo che gestiva le proprietà costanti della pelle, come il modo in cui reagisce alla luce. Poi, il team ha scritto uno shader di RenderMan per creare le proprietà non costanti. Usando procedure e texture map, questo shader creava rappresentazioni approssimative delle proprietà della pelle che variavano in diverse zone del corpo o quando cambiavano le condizioni esterne. Gradazioni di grigio dal nero al bianco in una texture map usate dallo shader, per esempio, indicavano lo spessore variabile della pelle per determinare quanta luce sarebbe stata riflessa dal tessuto dell’orecchio illuminato in controluce rispetto alle dita. Procedure nello shader gestivano le proprietà della pelle come il colore e la riflessione speculare. Variando la quantità della riflessione, per esempio, il team cambiava l’aspetto della pelle da unta ad asciutta. «Le braccia di un personaggio sono meno unte del volto», spiega Ochs. «In qualche caso, quando corrono o sono sotto stress, alzavamo i valori della riflessione speculare per dare l’impressione che stessero sudando». Infine, sono stati creati altri due dettagli come le lentiggini e nei texture map dipinte. Anche se la pelle è servita a rendere gli attori digitali come se fossero stati in carne ed ossa, il risultato più importante del team è stata la creazione di capelli credibili, in particolare quelli di Aki. Usando un sistema proprietario, gli animatori potevano far generare ed animare automaticamente i capelli di Aki da un simulatore basandosi sui suoi movimenti e sull’impostazione che veniva inserita nel sistema. Per esempio, un 168 animatore poteva scegliere l’impostazione “corsa” per i capelli che conferiva loro un’elasticità particolare e soffiava un forte vento sul suo volto. Oppure, gli animatori potevano usare i capelli di controllo per creare azioni specifiche come quella di Aki che si sistema una ciocca dietro un orecchio. Il simulatore creava poi il resto dei capelli e li muoveva per farli corrispondere allo spostamento di quel controllo. Le pettinature iniziali degli attori digitali sono state tutte preparate usando i capelli di controllo, ovvero delle spline che funzionavano come guide per il resto delle ciocche. I circa 50 capelli di controllo collocati su ogni testa uscivano dal sistema della Square come curve Ri di RenderMan, e in fase di rendering crescevano fino a raggiungere tra i 50 mila e gli 80 mila capelli, a seconda della pettinatura. Per l’ombreggiatura dei capelli, il team ha creato speciali algoritmi. «La curva non ha una superficie tondeggiante, così abbiamo dovuto creare molti piccoli trucchi per dare ai capelli un aspetto realistico», spiega Ochs. «Molto del lavoro di ricerca e sviluppo si è concentrato sul modo in cui l’illuminazione colpiva i capelli». Quando si passava ai vestiti, comunque, il lavoro degli animatori si fermava. Quando un animatore completava l’azione di un personaggio, l’animazione veniva portata in un file per vestiti, in cui si trovavano il corpo e gli abiti del personaggio. A questo punto l’animazione veniva attaccata al corpo, il cui movimento guidava un simulatore proprietario per i vestiti. «In questo film, l’intera simulazione degli abiti è stata fatta in circa un anno e mezzo, con in media quattro persone che preparavano il setup dei vestiti assegnando le proprietà necessarie. È stato un programma di produzione molto efficiente», afferma Ochs. Dal momento che il team ha progettato il software appositamente per questo film, hanno inserito nel programma le caratteristiche 169 necessarie: cuoio, gomma, lana, colletti duri, cuscinetti d’imbottitura per le spalle, e così via. «Ci ha permesso di essere molto precisi e veloci», afferma Ochs. La precisione e la velocità erano importanti: le star del film non erano gli unici personaggio presenti, anche se erano i più sorprendenti. Il team che ha lavorato alle animazioni ha dovuto gestire folle di persone digitali nelle città, branchi di alieni eterei, e diversi tipi di veicoli, astronavi e fuoristrada tipici di un film di fantascienza. «Non si tiene conto di tutto il resto a causa degli umani digitali», commenta Jones. «Ma abbiamo dovuto animare anche tutto quel che si muoveva e non veniva creato con effetti o sistemi particellari». 6.1.10 Effetti fantastici «Abbiamo creato distruzioni, polvere, nuvole, fuoco, esplosioni, macerie», afferma Remo Balcells, supervisore degli effetti visuali. «Abbiamo anche fatto esplodere un intero pianeta». Per creare molti degli effetti naturali, il team guidato da Balcells ha messo insieme le tecniche usate per i videogame con gli shader di renderman. Per esempio, per realizzare il fuoco hanno usato una tecnica bidimensionale. «Abbiamo mappato un singolo poligono con una texture map trasparente con sopra i colori del fuoco», spiega. «Poi usando uno shader di renderman, abbiamo animato le texture in modo procedurale». Per creare il fumo, la squadra ha usato una tecnica simile. «Invece di un singolo rettangolo, ne usiamo molti mappati sulle particelle», afferma Balcells. Comunque, per ricreare l’illusione delle colonne di fumo con ombreggiature interne, hanno mappato le ombre di semplici sfere su sfere con texture map. Le sfere sono state usate anche per le palle di fuoco create con uno shader volumetrico e le renderizzavamo», spiega. «Non è una tecnica complicata, ma richiede uno shader complesso». Col procedere della produzione, comunque, il team ha iniziato ad affidarsi al compositing per molti effetti atmosferici come la nebbia, che poteva essere creata più velocemente con un programma di compositing piuttosto che con un rendering 3D. All’inizio della produzione, è stata data poca importanza al compositing», racconta James Rogers, supervisore del compositng. «Veniva visto come qualcosa che poteva creare gli occasionali riflessi sull’obiettivo». Alla fine, molte delle scene sono state montate con più di 100 livelli. «Molte delle persone che in passato hanno lavorato con le riprese dal vivo come me, sono abituate a lavorare in questo modo», afferma. Il team 170 è partito con Illusion della Avid, poi ha iniziato a lavorare soprattutto con Shake della Nothing Real e After Effects della Adobe, ma anche Composer della Alias|Wavefront e Flame della Discreet hanno giocato un ruolo importante. «Abbiamo usato tutto ciò su cui potevamo mettere le mani», afferma Rogers. «Credo che abbiamo finito con una media di 16 livelli per scena». All’inizio dello scorso autunno, dopo aver accettato il lavoro di supervisore della computer grafica, Mundell ha fatto un inventario delle scene che dovevano essere completate e si è reso conto che c’erano troppi fotogrammi da renderizzare. Grazie al service esterno WAMnet, aggiuntosi ai 1000 Pentium con sistema operativo Linux, alle 300 SGI Irix con processore Mips, alle 160 Octane ed alle 3 Origin dello studio, isolando le aree che richiedevano più tempo delle altre ed ottimizzando il processo lavorativo, il team è riuscito a finire il lavoro tre settimane prima rispetto al piano di produzione. «Ci siamo resi conto che i capelli di Aki occupavano il 20 percento di tutto il tempo di rendering», racconta Mundell. Così hanno ottimizzato il rendering dei capelli e dove possibile hanno cambiato elementi come le dimensioni delle texture. Per quanto riguarda il flusso di lavoro, hanno cercato di ridurre i tempi di rendering per le scene in fase di elaborazione e la quantità di approvazioni necessarie per ogni scena. «La prossima volta sarà molto più facile», afferma. Come molte persone della Square, Rogers e Mundell credono che questo film porterà ad un cambiamento paradigmatico. «La produzione cinematografica è sempre stata guidata dalla tecnologia, dal bianco e nero al colore, dal muto al sonoro», commenta Rogers. Credo che il nostro film rappresenti una di queste occasioni. Non è necessariamente il modo corretto di fare cinema, ma credo che sia piuttosto significativo. La produzione è governata dall’economia, e con diminuire dei costi delle tecnologie, questo stile di filmmaking potrebbe diventare più popolare. Invece di portare una troupe nel luogo X si può creare una location virtuale. Invece di richiamare l’attore Y, si può realizzare un inserto col computer in post produzione». Recentemente, un agente di Hollywood che vuole rappresentare Aki ha contattato Sakaguchi, che vede di buon occhio questo sviluppo. «Potrebbe essere ingaggiata per spot pubblicitari, o altri film», afferma. Pensare a queste implicazioni potrebbe portare un attore in carne ed ossa ad un livello di eccitazione per il suo futuro. Per pubblicizzare un prodotto apparirebbe come la dottoressa Aki Ross, la scienziata del film? O come l’attrice che ha recitato il ruolo della dottoressa Aki Ross? E chi è comunque quest’attrice? È Ming-Na che le ha dato la voce nella versione originale, 171 Tori Elridge che ha creato i movimenti del suo corpo, i modellatori che hanno costruito il personaggio, i direttori tecnici che le hanno dato la carne e il sangue, oppure Roy Sato, l’animatore che ha creato le espressioni del volto? Potrebbe esistere senza queste persone che lavorano insieme? Se Aki diventerà una star di diritto, non ci sono dubbi che attori digitali fotorealistici o iper-realistici, o semplicemente realistici, appariranno in ruoli importanti nei prossimi film dal vivo o d’animazione. Forse questo aprirà le porte agli attori ed alle attrici che non hanno un buon rapporto con la telecamera, permettendo loro di diventare delle star muovendosi con corpi in CG che si dimostrano più adatti alla telecamera e parlando attraverso le labbra dei personaggi in CG. È facile immaginarsi tutte le soluzioni possibili: film in cui un attore recita in diversi ruoli con la voce di diversi attori, oppure attori che recitano molti ruoli tutti con la voce di un unico attore. Alla fine, le star saranno gli attori digitali o le persone che li guidano? È possibile che, in questo momento, la risposta non abbia importanza. Quel che importa è che grazie a Final Fantasy, ci stiamo pensando.109 Fig 54) Aki Ross. Fonte: http://digilander.libero,it/mafyweb/aki_ross/aki_swimsuit.jpg Fig 55) Particolari Aki. Fonte: http://qualitywallpapers.x-istence.com/Movies/Final%20Fantasy.jpg Fig 56) Dott. Sid. Fonte: http://www.hollywoodjesus.com/movie/final_fantasy/31.jpg Fig 57) Aki volto. Fonte: http://www.hollywoodjesus.com/movie/final_fantasy/32.jpg 109 Computer Gazzette – La rivista del visual computing n°10 Ottobre 2001 p.36-41 (http://www.iht.it/cinema/final.pdf) Fig 58) Squall. Tratto da: http://neo1999.free.fr/jeux/wall_final_fantasy/images/final_fantasy8_jpg.jpg 172 Final Fantasy - Il video gioco Final Fantasy è una popolare serie di J-RPG (giochi di ruolo giapponese) prodotta dalla Squaresoft (divenuta, in seguito alla fusione con la Enix nell'aprile del 2003, Suqare-Enix), una tra le maggiori case di produzione di videogiochi giapponesi. Sono stati pubblicati, al gennaio 2005, dodici capitoli della saga principale, ognuno dei quali ha trama, personaggi e ambientazioni del tutto differenti. I vari episodi sono stati sviluppati, nel corso degli anni, su piattaforme differenti: NES, SNES, MSX 2, PlayStation, Playstation 2, PSP, Nintendo GameCube, Game Boy, Game Boy Advance, NSD, WonderSwan Color, Cellulari i-mode su rete. La maggior parte delle colonne sonore degli episodi di Final Fantasy è composta da Nobuo Uematsu, mentre il character design è affidato maggiormente a Yoshitaka Amano e Testsuya Nomura. La saga del maestro Hironobu Skaguchi ha avuto anche altre incarnazioni non videoludiche: • Final Fantasy: Legend of the Crystals, anime di 4 puntate, seguito diretto di Final Fantasy V. • Final Fantasy: The Spirits Within, film di animazione in Computer Grafica, di cui esiste anche un adattamento romanzesco. 173 • Final Fantasy: Unlimited, anime di 25 puntate più un prologo (di cui esiste anche un adattamento romanzesco, Final Fantasy: Unlimited – Huta no kizuna), la cui storia è completata da (in ordine cronologico): o Final Fantasy: Unlimited After Spiral Zero (romanzo online) o Final Fantasy: Unlimited Bifore – Aura Invochi Tsugumono (romanzo radiofonico) o Final Fantasy: Unlimited After (libro illustrato) o Final Fantasy: Unlimited After Spiral (7 romanzi online) o Final Fantasy: Unlimited After 2 – Risa, Tachikirareta kusari (romanzo radiofonico) • Final Fantasy VII: Advent Children, film di animazione in Computer grafica, seguito diretto di Final Fantasy VII, che uscirà nel 2005 in Giappone su DVD e UMD. • Last Order: Final Fantasy VII, anime su Final Fantasy VII, che si inserisce cronologicamente prima di quest'ultimo e che sarà incluso nella Ultimate Edition di Final Fantasy VII: Advent Children. • Final Fantasy: The Out of Orders, manga basato su Final Fantasy XI - Online. Da qualche anno (2002~2005), la Square ha cominciato a sviluppare il concetto Polymorphic Content, che si concretizza nell'espansione di un brand su più piattaforme (di gioco e non) e con svariati generi di prodotti di merchandise. Nel caso specifico di Final Fantasy, la Square ha lanciato la cosiddetta Compilation of Final Fantasy VII. 6.3 Chris Landreth 174 6.3.1 Storia L’animazione è la seconda carriera di Chris Landreth. Chris è stato ingegnere per molti anni dopo aver ricevuto la laurea MS in Teorie ed Applicazioni Meccaniche dall’Università dell’Illinois nel 1986 dove ha lavorato per tre anni nella ricerca sperimentale dei Fluidi Meccanici. In seguito passò nel mondo della computer animation. Nel 1994 Chris prese confidenza con Alias un software di animazione di cui sperimentò e fece abuso, prima ancora che fosse rilasciato. In molte delle sue produzioni fu usato quel software tra cui Bingo e The End. Entrambi film hanno vinto riconoscimenti e premi in tutto il mondo. Nel 1996 “The End” fu nominato all’Academy Award come Miglior Cortometraggio Animato. L’ultimo lavoro di Chris Landreth è il pluripremiato “Ryan”. La storia è quella di Ryan Larkin, autore d’animazione che lavorò all’ONF tra la fine degli anni sessanta e gli anni settanta, e sperimentò le sue idee accanto al grande Norman McLaren, che è stato per decenni la guida della sezione d’animazione dell’ONF, uno degli autori che hanno fatto la storia del cinema di animazione. Ryan Larkin realizzò alcuni film che conservano ancora oggi una notevole portata innovativa e una concezione grafica personale e poetica. Uno dei suoi lavori, Walking (1968), ha ricevuto anche una nomination all’Oscar come miglior cortometraggio. L’ascesa artistica di Larkin è stata rapida, immersa pienamente in una istanza creativa che non trovava sosta e appagamento, una ricerca continua, da un film all’altro, da una sperimentazione all’altra. La carriera di Larkin si è spenta però a seguito di diverse crisi: la droga e l’alcol lo hanno allontanato dalle sue realizzazioni per cui in un certo momento della sua vita ha deciso di smettere di creare. Oggi vive di elemosina a Montreal. Chris Landreth, autore di animazione che ha realizzato diversi interessanti corti, tra cui The End (1995), nomination all’Oscar, ha voluto confrontarsi con questo autore, lo ha intervistato, ha cercato nella sua vita e nei suoi lavori, e ha creato un film, quasi un documentario, che ci parla di Ryan, della sua vita attuale, ci fa vedere un assaggio dei suoi film, ci fa ascoltare la voce di Larkin mentre ricorda i tempi all’Onf, mentre con mani tremanti tocca i propri disegni che non vedeva da 30 anni e che Landreth aveva recuperato. E tutto questo è raccontato con uno stile grafico assolutamente spiazzante, i corpi delle persone scavati letteralmente dalla vita, brandelli di umanità che lotta per trovare nuove vie o solo la sopravvivenza. Landreth utilizza per 175 questo film il 3D, portando a degli estremi assoluti il linguaggio dell’animazione; è uno di quei casi in cui veramente la tecnica e il contenuto vivono in un equilibrio assoluto, uno funzionale all’altro. Il film ha girato numerosi festival ed ha vinto quest’anno l’Oscar come miglior cortometraggio animato. Il Festival di Annecy ha voluto dare seguito a questa apertura, ad uno scorcio sul passato, a questa esperienza così originale, proiettando un documentario di Laurence Green, realizzato durante la lavorazione di Ryan. Qui assistiamo all’incontro di Rayn e di Landreth, la scelta consapevole di Larkin sulla sua attuale vita, la scelta di vivere per la strada, l’alcol, la consapevolezza della sua parabola artistica. Landreth ha voluto fortemente questo film e ha lavorato a lungo per la realizzazione del progetto; il suo coinvolgimento è stato forte, tanto da arrivare a parlare di sé e di sua madre nel cortometraggio, e ad arrabbiarsi con toni molto accesi con Larkin per il suo alcolismo e ad ammettere che sua madre ha avuto grossissimi problemi con l’alcol. 6.3.2 Opere The End 1995 Nominato nel 1995 Academy Award, come "Miglior Cortometraggio Animato" Premiato al SIGGRAPH 95 Electronic Theatre, Los Angeles, California. Selezionato come top animated piece dal SIGGRAPH Electronic Theatre jury. Imagina 96, Monaco: Prix-Pixel INA, 176 Miglior Animazione 3D Imagina 96, Monaco: Prix SACD per Miglior Narrativa Innovativa e Produzione 1996 Atlanta Film eVideo Festival, Vince come Miglior Video Animato Computer Animation 96, Ginevra Award come Miglior Computer Animation Zagabria Internation Animation Festival 1996: Riconoscimento speciale (Produzione Video Originale), 1997 World Animation Celebration: Vince come Miglior Professional Computer-Assisted Animation Bingo 1998 SIGGRAPH 98 Electronic Theatre, Luglio 1998, Orlando, Florida, Finalista Ottawa International Animation Festival, 177 Ottobre 1998, Media Prize come Miglior Computer Animation. Chicago International Film Festival, Ottobre 1998, Placca d’argento per Cortometraggio Animato Sundance Film Festival, Gennaio 1999, Invited Short Film Imagina 99, Monaco, Gennaio 1999, Prix SACD come Most Innovative Narrative and Production Academy of Canadian Film and Television: 1999 Genie Award come Miglior Corto Animato Aspen Short Film Festival, Aprile 1999, Miglior Film Animato Los Angeles Independent Film Festival, Aprile 1999, Miglior Cortometraggio Computer Animaton Festival, Ginevra, Giugno 1999, Grand Prix du Ville Geneve, Miglior Computer Animation 178 Ryan 2003 enzo Kinoshita Prize 10° International Animation Festival, Hiroshima, Giappone, Agosto 19-23, 2004 Special Jury Award Categoria Short Fiction Films 28° International Animated Film Festival, Annecy, Francia, Giugno 7-12, 2004 Kodak Discovery Award come Miglior Cortometraggio (Very) Young Critic Award come Miglior Cortometraggio Canal + Award come Migliro Cortometraggio 43° International Critics' Week Cannes, Francia, Maggio 13-21, 2004 The Sun Life Financial Award come Miglior Corto Canadese Generosamente offerto da Sun Life Financial, questo award consisteva in 25,000 dollari - uno dei più alti premi per cortometraggi al mondo 2004 Worldwide Short Film Festival Toronto,Ontario, Canada, Maggio 11-16, 2004 Jury Award 179 SIGGRAPH 2004 Computer Animation Film Festival Los Angeles, California, USA, Agosto 8-12, 2004 Golden Nica Computer Animation/Visual Effects category PRIX ARS Electronica 2004 - International Competition come Cyber Arts Linz, Austria, Settembre 2-7, 2004 Best Experimental Film Award Los Angeles International Short Film Festival Hollywood, Los Angeles Settembre 7-13, 2004 Grand Prix- Miglior Corto Indipendente Ottawa International Animation Festival Ottawa, Canada Settembre 22-26, 2004 Miglior Corto Canadese(ex-aequo) Atlantic Film Festival Halifax, Canada Settembre 17-25, 2004 Miglior Corto Animato Woodstock Film Festival Woodstock, New York, USA, Ottobre 13 - 17, 2004 Prix de la découverte Z TÉLÉ / Z TÉLÉ New Discovery Award 5,000 $ Cdn Festival du Nouveau cinéma de Montréal Ottobre 14 - 24, 2004 Golden Dove – Primo Premio – Categoria Film Animati e Video donato da MotionWorks, accompagnato da un premio di 3.000 Euro 47° Festival for Documentary and Animated Film, Leipzig, Germania, 19-24 Ottobre, 2004 180 Premio Speciale della Giuria 23rd International Short Film Festival Uppsala, Sweden, Ottobre 2004 Golden Spike Miglior Corto International Film Festival Valladolid, Spagna, Ottobre 22 - 30, 2004 Grand Prix 2004 Categoria Narrative Shorts Award - AnyZone Competition 10° Annual Holland Animation Festival Utrecht, Olanda, Novembre 3-7, 2004 World Animation Award International Film Festival Leeds, Inghilterra, dal 28 Ottobre al 7 November, 2004 Special Mention - International Shorts Competition AFI International Film Festival Los Angeles, California, USA Novembre 4 - 14, 2004 Grand Prix - Prize Caixa Geral de Depositos (con un premio in contanti di 3.800 Euro) Int´l Animated Film Festival / CINANIMA Espinho, Portogallo, Novembre 8 - 14, 2004 Miglior Cortometraggio World Cinema Festival Città del Capo, Sud Africa, Novembre 12 - 20, 2004 Primo Premio 181 Art Futura 2004 28 - 31 Ottobre Barcellona, Spagna AUDIENCE AWARD - Categoria: Digital Shorts Competition con un premio in contanti di 4,280 Dollari Golden Horse International Film Festival Taipei, Taiwan, dal 25 Novembre al 3 Dicembre, 2004 Silver Mikeldi for Animation con un premio in contanti di 1,803 Euro International Festival of Documentary and Short Film Bilbao, Spagna, dal 29 Novembre al 4 Dicembre, 2004 6.3.3 Ryan Nel 1969, il leggendario animatore Ryan Larkin era all’apice della carriera. Il suo cortometraggio innovativo, Walking, uno dei tanti film realizzati mentre si trovava presso il National Film Board of Canada, aveva ricevuto una nomination all’Oscar e un successo internazionale. La Montreal Gazzette lo aveva ribattezzato il “Frank Zappa o George Harrison dell’animazione”. Era una star. Ma nel 1978, Larkin era diventato cocainomane e alcolizzato senza lavoro e senza soldi. Oggi vive nella Old Brewery Mission di Montreal, e chiede l’elemosina di fronte al ristorante Schwartz lungo la Boulevard St. Laurent di Montreal. Quattro anni fa, l’animatore Chris Landreth, che ha ricevuto una nomination all’Oscar per un cortometraggio innovativo (The End 1995), faceva parte del comitato di selezione dell’Ottawa International Animation Festival e stava per avere un incontro fatale con Ryan Larkin. Poco prima che il comitato si riunisse, il direttore del festival Chris Robinson aveva saputo da un amico di un membro dello staff che Larkin si trovava a Montreal, e chiedeva l’elemosina. Robinson ha pensato che se fosse riuscito a trovarlo, poteva portare Larkin al festival. Forse lo avrebbe aiutato. Lo ha trovato sulla St. Lauren, a chiedere l’elemosina. Dopo aver bevuto un paio di birre, Larkin ha acconsentito ad andare ad Ottawa, con l’assicurazione di Robinson che avrebbe ricevuto vitto, alloggio e i soldi per la birra. Successivamente, quando uno dei 182 quattro membri del comitato si è dovuto ritirare all’ultimo momento, Robinson ha chiesto a Larkin di sostituirlo. «All’inizio Ryan si sentiva un pesce fuor d’acqua», ricorda Landreth. «Negli ultimi vent’anni aveva chiesto l’elemosina nelle strade. Ma alla fine della settimana, una parte della sua persona si è ricordata di cosa si prova ad essere un animatore, ed è tornato in vita». L’ultimo giorno, dopo che il comitato aveva finito di selezionare i film per il festival ognuno ha mostrato agli altri i propri film. «Ryan è stato l’ultimo, e ha presentato Walking e altri tre o quattro film», racconta Landreth. «Siamo rimasti a bocca aperta. Era un animatore brillante che aveva dato vita a cortometraggi che mostravano un’incredibile creatività. L’ho guardato e mi sono chiesto: com’era potuto succedere? È iniziato tutto da qui». In quel periodo, Landreth era senza lavoro, dato che aveva lasciato un’occupazione che non lo soddisfaceva dal punto di vista creativo, ma non era senza risorse. «Ho pensato che era arrivato il momento di sviluppare un nuovo film», afferma. Quattro anni dopo, Landreth ha presentato Ryan, un documentario animato basato sulla vita di Ryan Larkin. Le voci del film sono quelle di Landreth che intervista Larkin, oltre a quelle di artisti, animatori e persona del passato di Larkin, e le persone della strada del presente. Parlano tutti attraverso personaggi 3D. 183 Realismo emotivo Ryan si svolge in gran parte in una tavola calda decadente. I personaggi Chris e Ryan sono seduti ad un tavolo, uno di fronte all’altro; l’inquadratura si sposta dall’uno all’altro. A accezione dei filmati storici, tutto e tutti sono stati modellati, animati e renderizzati con Maya della Alias, ma niente e nessuno appare come siamo abituati a vedere, compreso Landreth. Il film ricorda La mia cena con André di Louis Malle ma con personaggi surreali e incorporei invece che con attori veri. «Le mie animazioni hanno usato e continuano ad usare il fotorealismo», scrive Landreth a proposito di Ryan, «ma quel che m’interessa di più non è raggiungere il fotorealismo con le immagini create col computer, bensì servirmi di elementi fotorealistici per uno scopo diverso: mostrare il realismo della qualità incredibilmente complessa, difficile, caotica a volte banale e sempre in conflitto che chiamiamo natura umana. Chiamo tutto questo psicorealismo».Quindi anche se il personaggio Chris assomiglia a Landreth, il volto è dipinto con scanalature che rappresentano i suoi demoni e con espansioni che amplificano le sue emozioni : un’aureola al neon emerge dalla sua testa quando inizia a fare delle prediche. Un effetto che Ryan descrive dicendo che elettrizza i capelli di Chris. Una piccola mano color porpora si estende dal suo collo verso Ryan. Landreth ha creato ancora più modifiche su Ryan: come lo stesso Larkin, il volto del personaggio è dissipato e consumato. Grandi parti della testa di Ryan sono scomparse, come metà della sua vista; indossa un paio di occhiali, ma ha un occhio solo. Quando si arrabbia, spuntano della sua testa corna rosse. Con lo scorrere del film, la combinazione della storia di Larkin con la crescente autocoscienza di Chris (interpretati dalla grafica psicorealistica che offre una terza voce narrante che è a volte critica altre partecipe) unisce i generi dell’animazione e del documentario in una nuova e straordinaria forma d’arte. 184 A detta di tutti, il risultato è stato un grande successo tecnico e di critica. Infatti, prima dell’uscita in anteprima a Cannes, il 14 maggio, come selezione della Settimana internazionale della critica, il film di 14 minuti aveva già vinto tre premi importanti: il premio della giuria del SIGGRAPH 2004, il Golden Nica del Prix Ars Alectronica e il Sun Life Financial Award come miglior cortometraggio canadese durante il Worldwide Short Film Festival del 2004. A Cannes, ha ricevuto tre premi come miglior cortometraggio: il Premio rivelazione Kodak, il Premio Canal + e il Premio della giovane critica. A giugno, Ryan ha vinto il Premio speciale della giuria al prestigioso festival d’animazione di Annecy. Ad agosto è stata la volta del Renzo Kinoshita Prize al Festival dell’animazione di Hiroshima, in Giappone. Evidentemente, la storia e la tecnica hanno attirato l’attenzione di critica e pubblico. La fase iniziale del progetto Landreth ha iniziato a lavorare al corto videoregistrando le interviste con Larkin e allo stesso tempo registrando l’audio e scattando fotografie dei primi piani. «Pensavo a Creature Comforts di Nick Park,110 nel quale intervista le persone allo zoo di Bristol e Fig 59) Chris Landreth. http://www.animationtrip.com/news/features/chrislandreth/images/ChrisLandreth.jpg Fonte: Fig 60) The End. Fonte: http://accad.osu.edu/~waynec/history/tree/images/landreth-end.JPG Fig 61) Bingo. Fonte: http://accad.osu.edu/~waynec/history/tree/images/bingo.JPG Fig 62) Ryan. Fonte: http://www.londoncanfilmfest.ca/images/alter.jpg Fig 63) Ryan 2. Fonte: http://www.aec.at/bilderclient/PR_2004_ryan_002_p.jpg Fig 64) Purple Hand. Fonte: 515847.jpg http://www.cgtimes.com.cn/upload20040401/watermark_2004-5- 110 Nick Park: Nick Park è nato a Preston, Lancashire nel 1958. Nick sì è interessato di animazione mentre andava ancora a scuola ed ha cominciato a creare film nella soffitta dei suoi genitori all'età di tredici anni. Nick si è laureato in lettere alla Sheffield Art School nel 1980 e nello stesso anno è andato a studiare animazione alla National Film and Television School di Beaconsfield. Mentre era alla scuola Nick ha iniziato a lavorare al cortometraggio "Una Fantastica Gita" (A Grand Day Out) e l'ho ha completato all’Aardman Animations dopo essersi unito a loro nel 1985. Mentre era impiegato all’Aardman Animations, Nick ha lavorato come regista ed animatore su numerosi progetti televisivi compresi inserti per trasmissioni per bambini. Nel 1989 l’Aardman Animations ha prodotto "Lip Synch" una serie per la Channel Four Television e il contributo di Nick è stato il film "Creature Comforts" che ha vinto un Oscar nel 1990 come il miglior cortometraggio d'animazione. "Creature Comforts" è stato d'inspirazione per varie pubblicitá. Il film di Nick "I Pantaloni Sbagliati" (The Wrong Trousers), è stato trasmesso sulla BBC2 nel 1993 e ha vinto un Oscar come Miglior Cortometraggio Animato dall' Academy of Motion Picture Arts and Sciences nel marzo del 1994. Nick ha vinto il suo terzo Oscar con "Una Tosatura Perfetta" (A Close Shave) nel 1996. Tratto da: http://mario.lapam.mo.it/Wallace-andGromit/NickPark.htm 185 quindi costruisce un film d’animazione basandosi sulle interviste». Con la primavera e l’inizio dell’estate del 2002, Landreth aveva raccolto 20 ore di registrazioni audio oltre al materiale di riferimento come i film di Larkin degli archivi del Film Board. Ma non era ancora abbastanza. Non aveva una storia. Ha continuato ad intervistare Larkin. «Ad agosto, abbiamo parlato dell’alcol», ricorda Landreth. «Non avevo programmato di affrontare questo argomento, ma era necessario, ed è venuto fuori così come si sente nel film, parola per parola. A quel punto, mi sono reso conto che il film non sarebbe stato solo su Ryan». L’intervistatore, la cui madre aveva sofferto di problemi legati all’alcol, era rimasto intrappolato nella storia; la conversazione sull’alcol è diventata un momento decisivo del film. Entro dicembre, Landreth ha scritto una sceneggiatura e ha riunito una produzione indipendente con l’aiuto della Copper Heart Entertainment di Toronto. Il gruppo di lavoro di Ryan ha ricevuto un finanziamento da parte del Canada Council for Arts, e quindi il National Film Board of Canada ha prodotto il film. Inoltre il Seneca College di Toronto ha messo a disposizione di Landreth dello spazio nello studio e ha segnalato alcuni studenti del corso d’animazione per la collaborazione al progetto. Creare i personaggi Durante le interviste, Landreth ha preparato degli schizzi di Chris e Ryan. Questi disegni sono diventati la base di rappresentazioni 3D dei due animatori che dovevano apparire nel film. «Il nostro aspetto visivo riflette pena, follia, paura, pietà, vergogna e creatività», osserva Landreth. I modelli degli altri due personaggi principali del film (Derek Lamb, che è stato un caro amico di Larkin e il suo produttore esecutivo, e Felicity Fanjoy, la sua compagna di allora) si basavano sui disegni di larkin. «Il fotorealismo di Chris e Ryan è filtrato dalla mia percezione psicorealistica», afferma Landreth, «ma volevo mostrare Derek e Felicity così come li percepisce Ryan. Così abbiamo preso i suoi schizzi e li abbiamo mappati su modelli 3D articolati di Derek e Felicity, dando loro l’aspetto di un disegno, come si vede nel film». Derek lo vediamo come immagine animata seduta sun una poltrona, mentre Felicity si siede al tavolo con Chris e Ryan. Mentre si abbandona ai ricordi, Ryan le stringe le mani. 186 Anche se i movimenti dei personaggi sono realistici, Landreth ha scelto di non basarsi sul motion capture. Lo stesso Landreth si è occupato di circa la metà dell’animazione dei volti; gli studenti del corso d’animazione hanno completato il resto. «C’è un certo orgoglio dell’animatore nel non usare il motion capture», afferma. «Ma per ottenere recitazioni realistiche che non sembrassero animate a mano, abbiamo dovuto eliminare la mentalità dell’animazione pose-to-pose che hanno gli studenti». Con l’animazione pose-to-pose, gli animatori attribuiscono al personaggio una posa e quindi creano la successiva, e il computer gestisce il movimento intermedio. «Se non si fa nient’altro, il personaggio assume un atteggiamento innaturale», afferma Landreth. «Quindi, gli animatori cercano di perfezionare il tutto per ottenere un movimento più fluido, ma rimane sempre una parte residua, forse più nella mentalità che nell’animazione». Per spiegare a cosa si riferisce quando parla di mentalità pose-to-pose, Landreth riprende l’animazione di prova realizzata dalla squadra d’animazione, con Ryan che dice: «non pago le tasse, non pago contributi sindacali. È qualcosa che si può portare a casa. Uno stipendio che si può portare a casa». Mostra come gli animatori impostano una posa per ogni frase. «Questo si verifica in molti studi d’animazione», afferma. «Un personaggio dice qualcosa e fa un gesto, dice qualcos’altro e fa un altro gesto». Landreth spiega che questo tipo d’animazione non solo appare innaturale, ma non era il modo in cui si muoveva Ryan. «Ryan gesticola molto, e un aspetto singolare è che il movimento delle mano è totalmente scollegato da quello che sta dicendo», spiega Landreth. «Non ha neppure lo stesso ritmo. Quindi ottenere queste sfumature nella versione animata di Ryan ha richiesto un grosso lavoro per concepire e realizzare i movimenti». 187 Landreth e il supervisore della computer grafica hanno quindi insegnato agli animatori ad usare uno stile d’animazione più lineare. «È quello che si farebbe con la tecnica d’animazione che conosciamo come claymation111 dove non si ha il flusso dei fotogrammi d’intermezzo», afferma Landreth. Per esempio, invece di far inchinare Ryan con una serie di pose (mettere in piedi il personaggio, alzare il braccio destro, piegare nel mezzo e rialzarlo) ha chiesto agli animatori di pensare al comportamento delle diverse parti del corpo. «Si può immaginare il modo in cui si muoverebbe il braccio di Ryan nel corso di due o tre secondi, animare il movimento completo del braccio, e quindi occuparsi del resto del corpo», afferma. «Può funzionare oppure no, ma in questo modo si ottiene il flusso dell’intero movimento». Landreth ha anche cercato di liberare l’animazione dal tipico stile basato su curve spline con il quale il movimento si costruisce archi irregolari. «Ho cercato di far capire agli animatori che si tratta di far tendere della carne», afferma. «La parte che riguarda la carne è legata alla massa, alla velocità e al peso; la parte che riguarda la tensione è universale nel modo in cui si muovono le persone. Le persone non si muovono seguendo delle curve, si muovono in modo impulsivo, di solito con un veloce rallentamento in entrata e un’uscita più lenta. Assomiglia ad un percorso seghettato piuttosto che ad un’onda sinusoidale». Per creare le texture dei modelli di chris e Ryan, il gruppo di Landreth ha unito diverse fotografie all’interno di Photoshop della Adobe che ha applicato ai modelli 3D. Per Derek e Felicity, invece, ha usato Paint Effect per imitare il tratto dei disegni di Larkin e creare i modelli in CG animati per dare l’impressione che fossero disegnati a mano. Anche l’illuminazione crea effetti drammatici. Nonostante i personaggi principali di solito abbiano delle luci di alone intorno a loro (rim), Landreth ha fatto una scelta diversa. «Non è il modo in cui apparivano oggetti e personaggi, così abbiamo deciso di non usarle», afferma. Invece, assieme al supervisore del rendering Belma Abdicevic ha ricostruito l’illuminazione della tavola calda. «Avevamo luci provenienti dall’alto ad alta intensità, luci riflesse dalle pareti e illuminazione diffusa. La luce è più piatta di quanto volevamo, ma non eccede nella drammatizzazione della scena. E una luce rim avrebbe rivelato la mancanza del sub-surface scattering». Quindi, anche se 111 Claymation: Claymation un tipo di animazione che usa i modelli dell'argilla o del plastico anziché le illustrazioni. Tratto da: http://cyclopedia.ws/lang.aspx/it/home.aspx/Kids/Entertainment/Anime_and_Cartoons 188 l’illuminazione corrispondeva alla realtà, dato che non era la tipica soluzione usata per i personaggi in CG e le star del cinema, ha aggiunto un effetto surreale. Come per altre tecniche e strumenti, Landreth ha usato Maya per il rendering e Combustion della Discreet per il compositing. «Abbiamo usato Maya 4.0», spiega. «Non avevamo neppure Mental Ray che adesso si trova all’interno di Maya, ma potevamo sfruttare Paint Effects integrato nel programma». Per il montaggio, anche se ha usato Premiere della Adobe durante la creazione dello storyboard, per la fase finale si è rivolto allo studio di post-produzione Coptor Production. «ero seduto su un divano mentre il montatore faceva tutto il lavoro pesante», afferma, osservando che lo studio ha usato Final Cut Pro per l’editing online. Distorsione e disorientamento Tutti gli ambienti di Ryan (la tavola calda, il gabinetto e la Boulevard St. Laurent) sono stati modellati con Maya e distorti in due modi. La squadra ha aggiunto una prospettiva non lineare agli oggetti nell’immagine renderizzati usando un plug-in sviluppato internamente per Maya e ha sbiadito gli oggetti selezionati usando Maya Paint Effects. «Abbiamo usato questo effetto per creare uno spazio irreale in grado di disorientare, che riflette lo stato d’animo distorto che Ryan e Chris provano nell’ambiente in cui si trovano», osserva Landreth. Per la scena della strada la modellista Helen Zotalist Van Emmerik ha impiegato quattro mesi per ricreare con estrema precisione un quartiere di Montreal in 3D a partire da migliaia di fotografie. Quindi lo ha distorto. «Lo ha modificato seguendo le mie indicazioni per dargli un aspetto maggiormente pittorico ed interpretativo», spiega Landreth. «Abbiamo usato Paint Effects per macchiarlo con pennellate collocate strategicamente sul modello 3D». Dato che le pennellate di Paint Effects sono collegate ad un modello, Landreth poteva muovere una telecamera virtuale attraverso l’ambiente urbano non fotorealistico. «La strada, i negozi, i parchimetri, avevano tutti questo aspetto pittorico», afferma Landreth. «Ci ha permesso di entrare in uno spazio interpretativo». Nella tavola calda, Landreth ha applicato la stessa tecnica, trasformando il modello 3D della stanza, dei tavoli e delle sedie in una copia surreale. Ma in questo caso ha dipinto l’idea ancora più avanti. «All’inizio la tavola calda ha un aspetto chiaro e pulito, che peggiora gradualmente», afferma Landreth. Quando la conversazione tra i due animatori si accende, la tavola calda diventa quasi irriconoscibile. «Abbiamo 189 trasformato la stanza in un tessuto SyFlex112 e lo abbiamo “fuso”». Spiega Landreth. Ha anche esteso la distorsione a Zaz, uno dei personaggi sfortunati che la telecamera inquadra all’intero della tavola calda, sciogliendolo col software SyFlex e quindi riversando il suo corpo su un tavolo come un ubriaco svenuto in un bar. «Alcuni dei personaggi secondari sono basati su persone reali che Ryan ha conosciuto nella missione in cui vive, ma Zaz, l’uomo liquefatto, è una mia creazione». Modellare il surrealismo Tutti i personaggi 3D di ryan sono stati creati con Maya della Alias. «Abbiamo iniziato con le superfici di suddivisione, che abbiamo convertito in NURBS», afferma Landreth. Sono anche stati distrutti e distorti con Maya. «Abbiamo usato strumenti trim e free form filled blend, e per il personaggio di Chris abbiamo aggiunto molti abbellimenti con le NURBS di Maya. Per Ryan, abbiamo usato soprattutto NURBS basandoci molto sulla construction history». Per i capelli e per molti altri effetti del film. Landreth ha usato Maya Paint Effects. «Nella versione Enhanced di Maya 5 c’è una pennellata apposite per I capelli. Con una pennellata, una linea sottile, si possono ottenere un sacco di capelli, e il risultato è ottimo». Organizzando il modello di chris su più layer, Landreth ha ridotto la quantità di geometria necessarie agli animatori, con la possibilità di passare continuamente dai modelli psicorealistica a quelli reali. Questo si è dimostrato utile per un’inquadratura in particolare, quando Chris guarda in uno specchio. «Da una parte dello specchio si vede Chris senza scanalature, mentre dall’altra parte le scanalature sono presenti», afferma Landreth. «Il modello con tutti i tagli e gli abbellimenti era sempre lo stesso, ma gli animatori avevano la possibilità di lavorare più velocemente senza questi elementi». Per Ryan, comunque, dato che raramente appare completamente intatto, gli animatori hanno lavorato soprattutto col volto scavato. Il volto completo lo si vede solo col personaggio di Ryan più giovane. In una scena, per esempio, mentre ricorda con 112 SyFlex: è un software di simulazione di abbigliamento e panneggi compatibile con la versione per Mac OS X del noto software di modellazione 3D Maya di Alias|Wavefront. Usato anche per la realizzazione del film Final Fantasy, possiede un motore in grado di rendere assai naturale i movimenti di camicie, pantaloni, gonne, restituendo allo spettatore anche la consistenza del materiale di cui sarebbero fatti (cotone, seta, lana e così via). I produttori sottolineano che "non è necessaria alcuna conoscenza particolare in taglio e cucito". Venduto a 2.200 dollari per ogni licenza è uno dei primi prodotti realizzati da terze parti per Maya per Mac. Tratto da: http://www.macworld.it/showPage.php?template=notizie&id=6942 190 Felicity i tempi migliori, il giovane Ryan danza felice dietro di loro accanto ad un’animazione dei suoi primi film. Una sfida per il filmmaker In tutto, la produzione ha richiesto 18 mesi. Uno staff composto da tre professionisti (Landreth, un supervisore della computer grafica e uno specialista d’illuminazione/rendering/compositing) è stato aiutato da quattro animatori, una persona che si occupa delle texture e un modellista dei personaggi del gruppo di studenti del Seneca College, oltre a 20 volontari. Ryan, che è stato creato come produzione indipendente da un animatore temporaneamente senza lavoro, lancia una sfida ai filmmaker che vogliono creare i loro film. «Tutte queste risorse, dalla Copper Heart al National Film Board, dal Seneca College ai finanziamenti, le donazioni e molti volontari, si sono riunite per produrre questo film perché persone ci credevano», afferma Landreth. «Il cortometraggio ha una lunga lista di nomi che hanno partecipato alla produzione, ed è promosso e distribuito dalla National Film Board, ma è stato realizzato con un budget relativamente ridotto. Non vedo l’ora di vedere lungometraggi indipendenti realizzati in questo modo». Nel creare Ryan, Landreth si è assunto dei rischi professionali. Lavorando con l’animazione, supera i limiti del documentario, esplora nuove possibilità per l’animazione e usando grafica 3D per creare un realismo emotivo invece del fotorealismo, sfida i registi, gli animatori e i professionisti della computer grafica a superare l’idea dei cartoni animati, dell’animazione delle creature e delle controfigure digitali. Visti i risultati sono rischi che è valso la pena prendere.113 Fig 62) Felicity. Fonte: http://www.iua.upf.es/~berenguer/cursos/filmografia3D/diapos/ryan.jpg 113 Computer Gazzette – La rivista del visual computing n°10 Ottobre 2004 p. 44-48 191 7 Fonti e Riferimenti 7.1 Bibliografia 1) Daniele Marini, Maresa Bertolo, Alessandro Rizzi, Comunicazione visiva e digitale. Fondamenti di eidomatica. Addison-Wesley, Milano 2) Daniele Bigi, Nicolò Ceccarelli, Animazione 3D. Storia Tecniche Produzione. Arnoldo Mondatori Editore 3) Pier Luigi Capucci, Realtà del virtual. 4) Computer Gazzette – La rivista del visual computing n°10 Ottobre 2001. 5) Computer Gazzette – La rivista del visual computing n°10 Ottobre 2004. 6) Ettore Pasculli, Il cinema dell'ingegno, Milano, Mazzotta, 1990, pp. 221-240. 7) Riccardo Rizzo, "Linguaggio dei cartoon e grafica computerizzata", in Computer Graphics & Publishing, n. 4, lug-ago 2001. 8) Cfr. Ferruccio Giromini, Maria Grazia Mattei, "Il Cinema Digitale", in Computer Animation Stories, Roma, Mare Nero, 1998. 7.2 Sitografia 7.2.1 Sitografia note e glossario http://it.wikipedia.org/wiki/Pixel http://it.wikipedia.org/wiki/Risoluzione http://www.noemalab.org/sections/specials/tetcm/2001-02/shrek/definizione.html http://www.pavonerisorse.to.it/museocinema/fena.htm http://www.pavonerisorse.to.it/museocinema/prassi.htm http://www.noemalab.org/sections/specials/tetcm/200102/shrek/storia_computer_animation.html http://it.wikipedia.org/wiki/Chroma_key http://it.wikipedia.org/wiki/ Rasterizzazione http://it.wikipedia.org/wiki/Antialiasing http://www.visingenii.com/pagine/varie/subsurf/sub.htm http://it.wikipedia.org/wiki/Avatar 192 http://it.wikipedia.org/wiki/Hall http://it.wikipedia.org/wiki/Rendering http://www.dm.unibo.it/matematica/GeometrieNonEulidee/lambert.html http://www.nvitalia.com/articoli/glossario_3d/glossario_2.htm wikipedia.org/wiki/Rendering http://magazine.enel.it/boiler/arretrati/wired_dett.asp?iddoc=924829&titolo=Wired&20%20Come+nasce+una+stella http://www.plecxus.com/gallery/albums/3d/treed_103.jpg wikipedia.org/wiki/Rendering http://astroemagazine.astrofili.org/num9/collimazione/ http://www.revisioncinema.com/ci_nirva.htm http://xoomer.virgilio.it/liciabar/informatica/pag1.htm http://www.primissima.it/attualita/sommario.html?id-articolo=56 http://www.trax.it/lev_manovich.htm http://www.hackerart.org/corsi/tesi/musante/cap4.htm http://www.noemalab.org/sections/specials/tetcm/2001-02/final_fantasy/trama.html http://www.iht.it/cinema/final.pdf http://mario.lapam.mo.it/Wallace-and-Gromit/NickPark.htm http://cyclopedia.ws/lang.aspx/it/home.aspx/Kids/Entertainment/Anime_and_Cartoons http://www.macworld.it/showPage.php?template=notizie&id=6942 7.2.2 Sitografia immagini http://chronicle.altervista.org/immagini/fenachistiscopio.jpg http://www.illuweb.it/cinema/prassi01.jpg http://www.80smusiclyrics.com/games/pacman/pac.jpg http://spider.alleg.edu/dept/art/composition/illus/illus6.11.jpg http://rhein-zeitung.de/on/98/09/17/magazin/news/gump_kennedy.jpg http://www.richleader.com/images/Pulse/bargainbin/bargain_bin_review/anti-aliasing.png http://www.gruponemesis.com/fx/efect/morph/morph02.jpg http://psycho.usr.dsi.unimi.it/~spa/corso9798/f513a.gif http://www.etereaestudios.com/worksweb/tutankhamon/tutankh_nurbs.jpg http://www.tipus.uniroma3.it/DCaad/CAAD-04/lezCAAD_LS/immagini/sweep.jpg http://visindavefur.hi.is/myndir/geris_game_110103.jpg 193 http://www.marcostefanelli.com/subliminale/mandelbrot.jpg http://www.matematicamente.it/immagini/curva_di_koch.jpg http://www.lighthouse3d.com/opengl/terrain/mpd5.jpg http://innovis.cpsc.ucalgary.ca/3DWeb/projects/PlantswithHairs/smallpoppyRendering.jp g http://www.linuxgraphic.org/section3d/articles/ArticAyamCSG/CSGTV.png http://www.effectware.com/download/images/efx_voxel2.jpg http://www.danhausertrek.com/AnimatedSeries/Storyboard.gif http://www.lysator.liu.se/~eru/research/c001.jpg http://www.lysator.liu.se/~eru/research/c131.jpg http://www.lysator.liu.se/~eru/research/c070.jpg http://www.screen-novelties.com/press/page1/images/bottom.jpg http://www.animatedideas.net/t-rex-mechy-composite.jpg http://mag.awn.com/issue8.01/8.01images/beck0304_findingNemo.jpg http://www.caffeineoverdose.net/cod/3d_art/ima_3Dmark03_12.jpg http://accad.osu.edu/~waynec/history/images/two-towers.jpg http://www.agirlsworld.com/rachel/hangin-with/pix/polarex1.jpg http://www.cs.washington.edu/homes/zoran/mocap/mocap-front.jpg http://www.vuse.vanderbilt.edu/~bobbyb/images/linda.jpg http://www.euclideanspace.com/mjbWorld/userGuide/animation/keyframe/timeline.gif http://www.softimage.com/Products/3d/v4/media/alien_lg.jpg http://www.skullbox.net/clusters/renderfarm.jpg http://www.videocom.it/immagini_formz/interiorwire.gif http://www.cs.newcastle.edu.au/~richard/research/thesis/fig2-38a.gif http://aspc.cs.utt.ro/~egc/Lab/Labs/Lab09/01.gif http://medvis.vrvis.at/typo3temp/pics/e05a6e9a6b.png http://www.tech-hounds.com/article8/DIFFUSE.GIF http://www.nvitalia.com/articoli/glossario_3d/glossario_2.htm http://wwweic.eri.utokyo.ac.jp/computer/manual/lx/SGI_Developer/books/Perf_GetStarted/sgi_html/figure s/04.3.frustum.gif http://renderman.ru/viagra/stass3d/images/bump.jpg http://renderman.ru/viagra/stass3d/images/3d/iron.jpg http://renderman.ru/viagra/stass3d/images/3d/rock.jpg 194 http://renderman.ru/viagra/stass3d/images/3d/wood1.jpg http://renderman.ru/viagra/stass3d/images/3d/marble.jpg http://www.lightwork.com/pix/aclass1k_640.jpg http://wwwokino.com/conv/features/caustics/chess_pieces_by_rcl.jpg http://www.cs.berkeley.edu/~sequin/CS184/IMGS/TranspRayTrace.gif http://radsite.lbl.gov/radiance/book/img/plate10.jpg http://upload.wikimedia.org/wikimedia/de/thumb/4/43/Radiosity-yes.jpg/300pxRadiosity-yes.jpg http://www.calidos.com/quefem/gifs-qtvr/VR-1.gif http://www.ioffergames.com/gimg/612236-Myst-Mac-Games.jpg http://www.carpages.co.uk/citroen/citroen_images/citroen_c4_robot_15_09_05.jpg http://www.alfanet.de/home/ballett/fantasieducorp/find%20sign%.jpg http://www.numerica-srl.it/immagini/manichini.gif http://www.gamenavigator.ru/gallery/screenshots/851.jpg http://digilander.libero,it/mafyweb/aki_ross/aki_swimsuit.jpg http://qualitywallpapers.x-istence.com/Movies/Final%20Fantasy.jpg http://www.hollywoodjesus.com/movie/final_fantasy/31.jpg http://www.hollywoodjesus.com/movie/final_fantasy/32.jpg http://neo1999.free.fr/jeux/wall_final_fantasy/images/final_fantasy8_jpg.jpg http://www.animationtrip.com/news/features/chrislandreth/images/ChrisLandreth.jpg http://accad.osu.edu/~waynec/history/tree/images/landreth-end.JPG http://accad.osu.edu/~waynec/history/tree/images/bingo.JPG http://www.londoncanfilmfest.ca/images/alter.jpg http://www.aec.at/bilderclient/PR_2004_ryan_002_p.jpg http://www.cgtimes.com.cn/upload20040401/watermark_2004-5-515847.jpg http://www.iua.upf.es/~berenguer/cursos/filmografia3D/diapos/ryan.jpg 195