ACCADEMIA DI BELLE ARTI DI BRERA corso di

Transcript

ACCADEMIA DI BELLE ARTI DI BRERA corso di
ACCADEMIA DI BELLE ARTI DI BRERA
corso di laurea in
PITTURA
TESI DI LAUREA
L’EVOLUZIONE DELL’IMMAGINE ELETTRONICA NEL CINEMA
Relatore Prof. Giacomo Agosti
Prof. di Indirizzo Giuseppe Maraniello
Candidata: Silvia Erika Venturino
Anno Accademico 1999/2000
INTRODUZIONE
Il cinema, per sua stessa natura, è sempre stato un mezzo di
comunicazione intimamente connesso alla tecnica e alla tecnologia.
Nel corso della storia le innovazioni tecnologiche lo hanno sempre
aiutato e accompagnato nella sua evoluzione tecnica ed artistica,
aprendo nuovi spazi e possibilità alla creatività degli autori.
Era quindi inevitabile che, al sopraggiungere delle tecnologie digitali ed
elettroniche esso ne risultasse profondamente influenzato e
trasformato, sia nelle dinamiche creative sia in quelle produttive e
persino nelle modalità di fruizione.
Nel corso di questo lavoro, intendo esplorare le ragioni e la storia
dell’inevitabile connessione tra il cinema e la tecnologia, vedere come
questa si realizza oggi nei vari livelli della produzione cinematografica
ed esaminare come il rapporto con i nuovi strumenti ha già mutato il
modo di realizzare ed intendere il cinema, influenzandone il linguaggio
e le dinamiche.
Quali e quante mutazioni ci possiamo aspettare per il futuro, cosa
succede all’identità del cinema quando è possibile generare delle scene
realistiche con un sistema di animazione computerizzato, oppure
modificare fotogrammi o intere sequenze con l’ausilio di un programma
di disegno digitale; o ancora tagliare, distorcere, allargare e montare
immagini digitalizzate così da ottenere un’assoluta credibilità
fotografica, senza di fatto aver filmato nulla?
In questo contesto, traccerò una definizione del cinema digitale,
analizzando i tratti comuni di un gruppo di software e di hardware che
stanno rimpiazzando la tecnologia del cinema tradizionale.
Nella sezione dedicata al “Making of”, descriverò le tecniche utilizzate
per la creazione degli effetti speciali di alcuni tra i film più importanti che
in quest’ultimo ventennio hanno contribuito allo sviluppo della
computergrafica nel cinema.
Infine le mie modeste conclusioni, renderanno sicuramente omaggio
alla creatività e alla libertà che oggi possiede colui che decide di
esprimersi attraverso l’immagine visiva.
1
CINEMA, TECNICA E TECNOLOGIA:
Fin dalla sua nascita è chiaro ed oggettivo che cinema e tecnologia
sono legati in maniera strettissima da un cordone ombelicale. Prima del
cinema l’elemento in movimento era separato visivamente dallo sfondo
statico, come dimostrano le lastre meccaniche o il Praxinoscopio di
Reynaud (1892), con le sue pantomime disegnate.
Lo stesso movimento era limitato e coinvolgeva solo una figura ben
definita, non l’intera immagine.
Con il crescere dell’ossessione per il movimento, tipica della fine
dell’Ottocento, divennero molto popolari quegli strumenti in grado di
animare più immagini contemporaneamente.
Tutti dallo Zootropio al Phonoscopio, dal Tachyscopio al Kinetoscopio di
Edison (1892-96), la prima macchina cinematica moderna ad utilizzare
una pellicola, si avvalsero sistematicamente di sequenze ripetibili
all’infinito.
Il cinema, o meglio, il cinematografo, nasce alla fine dell'Ottocento, al
termine del periodo industriale classico, inventato da scienziati (da
tecnici) che erano al tempo stesso imprenditori. Nasce come evoluzione
della fotografia, come fotografia animata, come mezzo di studio del
movimento animale.
“La natura colta sul fatto”: così i fratelli Lumière definivano la loro
invenzione, il cinematografo.
Mezzo straordinario capace di riprodurre, meglio di ogni altro allora
esistente, il movimento della vita.
Molti sono stati gli scienziati che si sono dedicati al perfezionamento del
cinematografo. I fratelli Lumière perfezionano tecnicamente il
dispositivo, ma soprattutto per primi se ne servono per filmare scene di
vita quotidiana, pubblica o privata, gettando così le basi per l'uso del
cinematografo come nuovo mezzo di comunicazione. A simboleggiare
la stretta connessione tra la loro invenzione e la tecnica, la meccanica, i
loro primi film, nel 1895, raffigurano treni in movimento, operai che
escono dalle loro fabbriche: il matrimonio tra il cinema e l'industria, la
tecnica, venne così perfettamente esemplificato.
Ma a questa ottica realista nel linguaggio cinematografico si opporrà
presto un altro francese, George Meliès, che per primo invece intuirà e
sfrutterà le enormi potenzialità fantastiche, oniriche, immaginative
offerte da questa tecnologia, fondando su questa un vero e proprio
nuovo linguaggio.
Da allora si è protratta per molti anni, sino ai nostri giorni, questa
contrapposizione tra gli alfieri del realismo cinematografico e i
sostenitori della spettacolarizzazione, dell'immaginazione, del fantastico
nel cinema. Possiamo dire sin da ora, che il dibattito attuale tra chi è
pro e chi è contro l'uso dei dispositivi digitali nel cinema contemporaneo
è sicuramente figlio di quelle prime contrapposizioni.
2
Quindi, il cinema nasce già intimamente connesso alla tecnologia,
come dispositivo tecnico, e, dal punto di vista del suo linguaggio
espressivo, con il passare degli anni e con l'evolversi della tecnologia,
sarà segnato e indirizzato da questo legame simbiotico.
Il primo grande e palese esempio di ciò viene dal passaggio dal muto al
sonoro a cavallo degli anni Venti e Trenta. L'avvento della parola nelle
pellicole cinematografiche comportò una vera e propria rivoluzione, sia
dal punto di vista estetico che da quella produttivo ed economico.
I film muti avevano elaborato un'estetica prettamente visuale, che
aveva influenzato anche le strutture di base e le caratteristiche dei
generi cinematografici. Molti autori ed attori (si veda per tutti il caso di
Chaplin) che avevano fatto dell'assenza della parola il principio
strutturale del loro cinema, non sopravvissero al passaggio, e se lo
fecero, non riuscirono a adeguarsi al nuovo mondo del sonoro.
Grazie al sonoro vecchi generi si avvantaggiarono rispetto ad altro
(come la commedia rispetto alla comica slapstick), altri nascono exnovo, come il musical. Dando maggior realismo al dispositivo
cinematografico, il sonoro ha inoltre incentivato lo sviluppo di generi che
sono invece il contrario del realismo, come il fantastico e la
fantascienza.
Questa del sonoro è stato l'innovazione tecnologiche che più
radicalmente e rapidamente ha trasformato il linguaggio
cinematografico. Dagli anni Trenta in poi una serie d’incessanti
innovazioni si susseguono: il colore, il grande schermo, la pellicola
pancromatica, nuovi obiettivi per le cineprese. Tali innovazioni incidono
in ogni modo anch'esse sulla forma film, sulle possibilità espressive,
sulla creatività degli autori. Ma forse nessuna in maniera così radicale
come per l'avvento del sonoro. Una volta stabilitosi come tecnologia, il
cinema tagliò tutti i ponti con le proprie origini.
Tutto ciò che aveva caratterizzato le immagini in movimento prima del
ventesimo secolo, (la costruzione manuale delle immagini, le sequenze
circolari, la natura discreta del movimento e dello spazio), fu delegato al
parente bastardo del cinema, al suo surrogato alla sua ombra:
l’animazione.
L’animazione del xx secolo divenne un deposito in cui accumulare le
tecniche del diciannovesimo secolo spazzate via dal cinema.
Nel xx secolo l’opposizione tra gli stili del cinema e dell’animazione
hanno definito la cultura dell’immagine in movimento.
L’animazione mette in primo piano il proprio carattere artificiale,
ammettendo apertamente di lavorare con immagini che sono semplici
rappresentazioni.
Il suo linguaggio visivo è accostabile più alla grafica che alla fotografia.
È discreto e discontinuo: personaggi ritratti con tratti sommari che si
muovono davanti a sfondi statici e dettagliati, movimenti irregolari e
frammentari (opposti all’uniformità impersonale del cinema) e, uno
spazio costruito dalla sovrapposizione di strati diversi di immagine.
3
Al contrario il cinema si sforza di cancellare qualsiasi traccia del suo
processo produttivo, incluso il tentativo di farci credere che le immagini
sono pure e semplici registrazioni e non ricostruzioni.
Il cinema nega anche che la realtà ritratta non esiste al di fuori
dell’immagine cinematografica, cela che l’immagine sia nata
fotografando uno spazio di per sé inesistente e impossibile, costruito
con modelli, specchi, filtri e combinazioni di illusioni ottiche.
Il cinema finge di essere una semplice registrazione di una realtà già
esistente.
L’immagine pubblica del cinema si fonda sull’aura della realtà catturata
sulla pellicola, diffondendo l’idea che il cinema fotografi ciò che esiste e
non ciò che non è mai esistito.
Tant’è che gli effetti speciali, (dall’uso di specchi e miniature a quello di
filtri e trucchi in fase di sviluppo), sono stati spinti alla periferia del
cinema sia dagli storici sia dai critici.
Oggi con il passaggio ai mezzi digitali, queste tecniche dimenticate si
riconquistano il ruolo della prima donna.
In questo contesto la costruzione manuale del cinema digitale,
rappresenta un ritorno alle pratiche precinematografiche del
diciannovesimo secolo, quando le immagini erano dipinte a mano e
animate artigianalmente.
E' forse l'ultima delle innovazioni tecnologiche, quella di cui vogliamo
parlare più diffusamente, quella che, per la dirompenza con cui si è
imposta, per la profondità delle modificazioni estetiche e linguistiche
che permette, è l'unica che si può porre allo stesso livello del sonoro: la
tecnologia digitale.
4
DALLA MECCANICA ALL’ELETTRONICA
Abbiamo detto come il cinema nasca alla fine del diciannovesimo
secolo, al termine del periodo industriale e di come ciò sia significativo
del suo rapporto con la tecnica. Ma abbiamo anche visto come esso
subisca una rapida evoluzione tecnologica, produttiva, linguistica nel
corso degli anni Trenta. E ciò è ancor più significativo, poiché quel
decennio è il decennio dell'esplosione dell'elettronica, della evoluzione
della radio e della televisione, il decennio di origine della tecnica e della
tecnologia audiovisiva.
Il cinema incarna in sé questo passaggio dalla meccanica all'elettronica,
concretizza un ibrido tra le due tecnologie. Le fa proprie entrambe e si
accompagna ad esse sino ad oggi.
Oggi, l'era digitale, l'era in cui gli atomi sono destinati a trasformarsi
inevitabilmente in bit. Oggi si è giunti ad uno stadio in cui non solo il
prodotto cinematografico (cioè il film) ma anche tutta la sua industria ed
il suo ciclo produttivo sono ridefiniti dall'apporto di computer.
Stesura della sceneggiatura, riprese, effetti speciali, montaggio, postproduzione: sono tutte fasi in cui i computer hanno assunto ruoli di
primissimo piano.
Prima di affrontare il lungo discorso sugli effetti speciali, affrontiamo
brevemente altri campi di utilizzo del computer, quali ad esempio il
montaggio o anche il momento creativo.
Per quanto riguarda il montaggio, il processo è stato estremamente
semplificato e velocizzato dai supporti elettronici. Grazie ad essi il
montaggio, da lungo e complesso qual era, con l'uso di chilometri di
pellicola e moviole, si può oggi realizzare digitalmente: le scene,
precedentemente digitalizzate e salvate su hard disk, vengono tagliate,
spostate, assemblate sullo schermo del PC.
Ciò permette un grande risparmio di tempo, in quanto è possibile al
regista e al montatore di realizzare numerose versioni di montaggio in
breve tempo, aumentando così le possibilità di scelta artistiche del
regista.
Il lavoro del regista è semplificato dal computer persino nel momento
creativo vero e proprio, grazie alla possibilità di realizzare delle
"anteprime digitali" delle sue idee. Il regista di oggi ha una libertà simile
a quella che possiede uno scrittore di fronte ad una pagina bianca, o un
compositore di fronte allo spartito, cioè ha la possibilità di realizzare,
seppur in maniera provvisoria, la sua intuizione momentanea, mediante
una realizzazione digitale della scena che ha in mente, con costi e
tempi di molto inferiore ad una prova in "girato tradizionale". Il computer
permette di realizzare e fissare visivamente quella che può essere
l'intuizione di un momento.
5
Ci siamo così avvicinati a quell'utilizzo delle nuove tecnologie che più di
tutti gli altri influenza il linguaggio cinematografico e l'approccio stesso
dei registi ad esso: l'immagine digitale vera e propria, l'effetto speciale.
6
IL CINEMA DIGITALE
Piuttosto che filmare la realtà, oggi è possibile creare delle sequenze
cinematografiche con l’ausilio di un programma di animazione in tre
dimensioni. Perciò la ripresa dal vivo perde il ruolo di materia prima
della costruzione cinematografica.
Una volta digitalizzata (o registrata direttamente in formato digitale), la
realtà filmata si libera del legame indicale che costituiva la relazione
privilegiata del cinema tradizionale. Il computer non distingue tra
immagini ottenute fotograficamente e quelle create da un programma di
disegno o di animazione in 3D: per un computer le immagini sono tutte
uguali, perché sono costruite con lo stesso materiale - il pixel.
E i pixel, indipendentemente dalla loro provenienza, si prestano a
essere facilmente alterati, sostituiti e scambiati. La ripresa diretta viene
così degradata al livello di una qualsiasi soluzione grafica, identica alle
altre immagini create manualmente.
Se nel cinema tradizionale la ripresa dal vivo non veniva rimaneggiata,
ora funziona come un materiale grezzo, destinato alla composizione,
all’animazione e al morphing. Così, mentre il realismo visivo resta
delegato al processo cinematografico, il cinema ottiene la plasticità che
fino a poco tempo fa era esclusiva della pittura e dell’animazione.
Il risultato è un nuovo tipo di realismo che potrebbe essere descritto
come "qualcosa che è pensato per sembrare possibile, per quanto sia
irreale".
In passato il montaggio e gli effetti speciali erano attività rigidamente
separate.
Il tecnico di montaggio lavorava sull’organizzazione di una sequenza di
immagini, mentre l’elaborazione diretta dell’immagine spettava a chi si
occupava degli effetti speciali. Il computer distrugge questa
separazione. Grazie ai programmi di disegno o all’elaborazione
algoritmica, la manipolazione di una singola immagine è semplice
quanto il montaggio: entrambi si riducono a un semplice 'taglia e
incolla'. Come suggerito dal nome di questo comando, l’elaborazione
delle immagini digitali (o dei dati digitali) non è sensibile alle differenze
di spazio e tempo, né a quelle di scala. Perciò riordinare una sequenza
di immagini nel tempo, ricomporle in un solo spazio, modificare alcune
parti di un’immagine o cambiare un solo pixel sono ormai operazioni
molto simili l’una all’altra, sia a livello pratico sia a quello concettuale.
Dati i principi appena formulati, possiamo definire il cinema digitale con
questa equazione: cinema digitale = ripresa dal vivo + pittura +
elaborazione delle immagini + montaggio + animazione computerizzata
a due dimensioni + animazione computerizzata a 3D.
La ripresa dal vivo può essere ottenuta con pellicola, video o
direttamente in formato digitale. La pittura, l’elaborazione delle immagini
e l’animazione appartengono tanto all’elaborazione di immagini già
7
esistenti, quanto alla creazione di nuove immagini. In realtà nel cinema
digitale crolla la distinzione tra creazione ed elaborazione delle
immagini - che invece era fondamentale nel cinema tradizionale
(riprese vs. sviluppo in camera oscura; produzione vs. postproduzione); ora ogni immagine - indipendentemente dall’origine passa attraverso una lunga serie di programmi prima di entrare nel film.
La ripresa dal vivo è ormai una semplice materia grezza destinata
all’elaborazione manuale: animazione, inserimento di immagini in 3D
completamente costruite al computer, pittura ecc.
Le immagini finali risultano costruite manualmente partendo da diversi
elementi, per lo più creati dal nulla e modificati a mano.
Perciò il cinema digitale è una forma particolare di animazione che
utilizza la ripresa dal vivo come una tra le varie materie prime
disponibili.
Nato dall’animazione il cinema ha costretto l’animazione in un ruolo
marginale, ma solo per trasformarsi infine in una particolare forma di
animazione. La relazione che lega il cinema tradizionale agli effetti
speciali ha seguito un percorso simile. Gli effetti speciali diventano la
norma nel nuovo cinema digitale, dopo essere sopravvissuti ai bordi del
cinema, dove erano stati cacciati a causa della loro natura artigianale.
E lo stesso si potrebbe dire a proposito della relazione tra produzione e
post-produzione. Tradizionalmente il cinema si basava sulla
strutturazione della realtà fisica, riorganizzata nel set, secondo il gusto
dell’art director e del regista. La manipolazione della pellicola (ad
esempio, con stampe sofisticate) è sempre stata una pratica secondaria
se paragonata alla manipolazione diretta della realtà, prima della
ripresa.
Nel cinema digitale la pellicola impressionata non è più il fine del
cinema, ma solo una materia prima destinata a essere elaborata in un
computer, dove di fatto si procede alla costruzione reale delle scene. In
questo senso, la produzione diventa il primo passo della postproduzione.
Nel suo studio sulla fotografia digitale, William J. Mitchell (The
Reconfigured Eye, 1992) concentra la nostra attenzione su ciò che
definisce la "mutabilità intrinseca" dell’immagine digitale: "La
caratteristica essenziale dell’informazione digitale è che può essere
manipolata facilmente e molto rapidamente. Si tratta solo di sostituire
nuovi bit a quelli vecchi... Gli strumenti che i computer utilizzano per
trasformare, combinare, alterare e analizzare le immagini, sono
essenziali per il programmatore quanto i pennelli e i pigmenti per un
pittore".
Come sottolineato da Mitchell, la mutabilità intrinseca cancella le
differenze tra fotografia e pittura. E - dal momento che il cinema è una
sequenza di foto - possiamo estendere la definizione di Mitchell al
cinema digitale. Così la pellicola diventa una serie di dipinti creati da un
artista che manipola le immagini, una per una o tutte insieme.
8
Siamo abituati a pensare al computer come portatore dell’animazione,
ma in realtà il risultato che ci troviamo ad affrontare è l’esatto opposto:
ciò che prima veniva registrato automaticamente con la macchina da
presa, ora viene dipinto a mano, fotogramma dopo fotogramma.
E le immagini non sono più una dozzina, come accadeva nel
diciannovesimo secolo, quanto una teoria infinita di fotogrammi.
Possiamo additare un’altra somiglianza con il cinema delle origini: la
colorazione manuale dei fotogrammi, per ricreare diverse
ambientazioni. Oggi molti degli effetti speciali digitali si fondano su
questo semplice metodo: modificare a mano migliaia di immagini.
I fotogrammi sono ridipinti o per creare dei filtri, o per cambiare
direttamente le immagini - come, ad esempio, in Forest Gump, in cui il
presidente Kennedy è tornato a parlare grazie all’alterazione delle sue
labbra, ritoccate fotogramma dopo fotogramma.
Il film completamente digitale può permettersi di creare un ambiente
totalmente differente e non legato in alcun modo al mondo fisico cui
siamo abituati, come del resto fa l’animazione tout court; d’altra parte
avendo la possibilità di creare oggetti e corpi in tre dimensioni, le
immagini di sintesi possono usufruire di una coerenza dei movimenti e
degli ambienti impensabile per un cartoon classico, e più vicina alle
regole di un film live.
Nasce così il concetto di animazione digitale, che da un bozzetto su
carta passa lo storyboard nel computer per sviluppare, con l’animazione
appunto, l’ambiente e i personaggi 3D.
Il passaggio alla pellicola allora assume un ruolo di secondo piano, un
riversamento su supporto classico di un materiale assolutamente
nuovo, che del sistema fotografico potrebbe benissimo fare a meno.
Inoltre tutto ciò che è creato al computer possiede una luminosità
propria, poiché sfrutta la luce endogena dei pixel per ricoprirsi di colori
brillanti e molto saturi, in tal modo le sfumature non sono ben calcolate
al computer e ciò va a vantaggio di una rappresentazione non
verosimile e dunque di un’estetica simbolica del digitale, che gli deriva
principalmente dal videogioco.
9
ELABORAZIONE DIGITALE DELLA PELLICOLA
Come fanno i 'maghi' dei visual effects ad aggiungere alla pellicola
scenari, uomini e qualunque altro elemento digitale? Questo paragrafo
nasce con l'intento di spiegare brevemente, e senza troppe pretese, i
procedimenti fondamentali seguiti per creare l'universo immaginario
della computer grafica.
Il primo passo da compiere è l'inserimento nel computer del negativo
con le riprese: a tale scopo gli esperti di CG ricorrono a speciali
apparecchiature, i laser scanner (i più usati sono quelli della Silicon
Graphics): queste macchine potentissime catturano le immagini
fotogramma per fotogramma ad una risoluzione non inferiore ai
2000x1500 dpi, al fine di mantenere inalterate le tonalità di colore delle
riprese.
In questo modo, ogni immagine, memorizzata sugli hard disk dei vari
computer collegati allo scanner, assume dimensioni variabili tra i 20 ed i
30 MB; considerando che per produrre una normale pellicola
cinematografica sono necessari 24 fotogrammi al secondo, si può
intuire la potenza di elaborazione e memorizzazione di queste
macchine.
Una volta acquisita tutta la pellicola, il montatore, che ha l'intero film
compresso su file, può procedere agli interventi in modo non-lineare:
dal fotoritocco, all'effettistica, all'animazione bi e tridimensionale, le
possibilità offerte all'operatore per modificare il materiale in postproduzione sono innumerevoli.
Terminata questa fase ed effettuata l'integrazione tra tutti gli elementi
aggiunti e quelli preesistenti, i dati devono essere nuovamente trasferiti
su pellicola: lo strumento addetto a questa funzione è il Digital
Recorder, un apparecchio estremamente sofisticato che, con un raggio
laser, incide i fotogrammi su un nuovo negativo.
10
IL DIGITALE COME LINGUAGGIO
Le tecnologie digitali, svincolate finalmente da un utilizzo circoscritto
alla realizzazione di spettacolari spot pubblicitari o film di fantascienza,
stanno diventando uno dei tanti strumenti di cui un regista può disporre
per creare la sua opera, così come la macchina da presa o gli attori in
carne ed ossa: un potenziale incredibile, che solo pochi filmaker sanno
sfruttare con naturalezza: il rischio di farsi prendere la mano dalle
nuove tecnologie rimane alto, così come la riluttanza di alcuni a
confrontarsi con qualche cosa che non rientra nel bagaglio delle loro
conoscenze.
Secondo Robert Legato, responsabile degli effetti speciali di
megaproduzioni come Apollo 13 e Titanic (gli omìni che cadevano in
mare da centinaia di metri sfiorando le eliche della nave erano sue
creaturine digitali, non credo che uno stuntman possa avere tanto
coraggio…), solo pochi registi (ovviamente tutti statunitensi), tra cui
Cameron, Zemeckis e Spielberg riescono a sfruttare con maestria le
immagini sintetiche, perché sanno pensare gli effetti prima di realizzarli,
e non sono messi in imbarazzo dal fatto di trovarsi a girare alcune
scene in cui il set è composto da un unico schermo blu (che verrà
sostituito solo sulla pellicola dall'effetto creato dal computer) e magari
da un solo attore che deve fingere di interagire con un ambiente che
non esiste (per ora!).
Inoltre il regista non deve necessariamente sapere come funziona il
giochino, c'è chi se ne occupa al posto suo: lui può pensare a scrivere il
film senza porsi limitazioni, sapendo che non sarà necessario aspettare
la stagione delle piogge tropicali per girare una scena con gli attori
inzuppati da un acquazzone, ma basterà simularne uno che sembri
vero, per cui lo spettatore non debba nemmeno porsi il problema sulla
sua effettiva natura. Effetti speciali funzionali al racconto, invisibili,
pervasivi e probabilmente sempre meno percettibili, dato che il cinema,
cambiando il suo linguaggio, sta modificando la nostra concezione della
realtà.
Le immagini digitali, irreali, immateriali, vengono oggi utilizzate in due
direzioni opposte, ma che inseguono la stesso scopo: quello di dare un
corpo a flussi di bit, ed integrare questi flussi con le fisicità del reale.
Da un lato le animazioni digitali vengono usate per creare sullo
schermo qualcosa di totalmente inesistente, di palesemente irreale,
come nel caso, ad esempio dei mostri alieni di Man in Black o di
Starship Troopers.
In questo caso la creatura che si vuole rappresentare sullo schermo è
già nella sua concezione qualcosa di non reale, e l'immagine digitale
può interagire con gli elementi reali del film senza paura di creare
contrasto.
11
Addizionando il computer alla sua tradizionale tecnologia ottica, il
cinema può dare corpo e credibilità nella narrazione ai sogni ed agli
archetipi dell'uomo, incarnandoli nelle animazioni computerizzate.
Dall'altro gli effetti digitali sono anche e soprattutto usati per ricreare
qualcosa di reale, di esistito o persino esistente, ma che è impossibile
realizzare in maniera tradizionale. La grande conquista del digitale in
questo caso è di integrare perfettamente nell'immagine filmica, gli
elementi digitali e quelli reali, rendendo impossibile allo spettatore di
distinguere ciò che è stato effettivamente girato dalla cinepresa e ciò
che è invece stato realizzato da un computer. Viene abolita (o almeno
si tenta di abolire) la distinzione tra immagini referenziali ed immagini
sintetiche.
Come sostiene Robert Legato, che ha realizzato tutti gli effetti speciali
del Titanic di James Cameron, "per il Titanic le novità sono state nel
creare acqua sintetica e persone sintetiche, acqua e persone digitali, e
nell'utilizzarle insieme in modo tale da dare un'impressione più naturale
e reale possibile, affinché non si avesse l'impressione di un effetto
speciale. Siamo stati in grado di alternare immagini reali ed immagini
digitali, in modo che gli spettatori non distinguessero più quelle reali
dalle altre.
Nel momento in cui gli spettatori non distinguono più le immagini reali
da quelle digitali, allora il film viene giudicato come tale e non come un
successo dell'impiego di nuove tecnologie, proprio perché in tal modo lo
spettatore si dimentica della tecnologia che viene impiegata… …. La
nave sembra una vera nave, così come tutto il resto: questo è il risultato
positivo nell'impiego degli effetti speciali. Le immagini vengono montate
in sequenze che alternano quelle reali e quelle digitali. Ripeto: l'aspetto
più interessante del film in generale, a mio avviso, è stato quello di
rendere il massimo del realismo, affinché tutto fosse altrettanto
realistico ed efficace delle riprese dal vivo. Quando nell'immagine ci
sembra di vedere il vero Titanic, proviamo delle emozioni. Penso che
questo sia stato un grande risultato."
Nell'uso di queste nuove tecnologie all'interno delle opere
cinematografiche si tende ad un doppio processo: una realizzazione del
virtuale insieme ad una virtualizzazione del reale, entrambi i processi
tesi ad una fusione tra i due mondi.
Le immagini digitali sono il frutto di una rivoluzione tecnologica che
segna la fine del secolo ma sono anche l'espressione della mutazione
del nostro sguardo.
Uno sguardo che si spinge oltre il visibile e che cerca nuove angolazioni
per raccontare la vita. Essa si manifesta infatti attraverso uno sguardo
estremamente ravvicinato, e la valorizzazione del dettaglio serve a
spostare l’attenzione dalla linearità del racconto al meraviglioso, allo
spettacolare.
12
Il dettaglio il particolare non sono più parte di una totalità, indizio di un
sistema in cui sono inseriti ma sono essi, pienamente autoreferenziali,
rinviano solo a se stessi.
Lo sguardo deborda dal quadro, allarga i confini del visibile, raggiunge
mete impossibili all’occhio umano. Esterno e interno perdono i loro
confini, punti di vista impossibili diventano reali, il nuovo spazio
narrativo diventa talmente malleabile da rendere visibile la traiettoria di
una pallottola, come dimostrano le ardite sequenze di Matrix
nell’ossessività del punto di vista che mette a fuoco brandelli di una
realtà restituita attraverso processi di pianificazione ed esaltazione dei
dettagli e dei particolari.
In questo contesto il fine è rispecchiarsi nella propria scrittura che
diventa spettacolo di sé si fa performance, diventa oggetto visivo e
spaziale.
Il medium non è più la realtà ma diventa rappresentabile il pensiero,
l’idea…..
È il firmamento di un nuovo cinema tecnologico inconfondibile, che
esula dalle classificazioni dei generi conosciuti, che si pone come
spettacolo totale, dove la contaminazione dei modelli narrativi é
costante e dove diventa determinante il come si mostra.
13
IMMAGINI SINTETICHE
La storia della computer grafica inizia nel 1962 presso la Boing
Company (USA). In quanto società di progettazione, la BC era
interessata a sperimentare un mezzo che "simulasse" un progetto in
maniera scientificamente corretta.
La prima immagine elaborata da William Fetter non a caso fu quella di
due piloti nella cabina di pilotaggio per verificarne l'ingombro e la cosa
ancora più curiosa è che questa immagine finì pochi anni dopo (nel
1968) a Londra in "Cybernetic Serendipity" una delle più importanti
mostre curata da Jasia Reichart dedicata alla nuova arte tecnologica.
In questa prima decade la produzione della computer grafica interessa
società pubbliche e private: dai centri come la Bell and Telephon Lab
nel New Jersey, alle Università come quella dell'Illinois diretta da
Charles Csuri, uno dei principali artefici della sperimentazione dei nuovi
mezzi in campo artistico. Gli ingegneri e i tecnici informatici sono
dunque i primi veri "artefici "di questo nuovo corso nella storia della
rappresentazione per immagini, anche se quasi immediatamente i
laboratori si aprono agli artisti provenienti dall'arte visiva più o meno
tradizionale.
La produzione di immagini sia statiche che animate in quegli anni
spazia soprattutto in ricerche di tipo astratto: elaborazioni su pattern e
textures ottenute sviluppando programmi appositi in cui la funzione
random ad esempio veniva vista come equivalente del principio di
casualità in arte. La ricerca è "aperta", il campo totalmente da esplorare
e le sorprese non mancano.
E' il periodo in cui si gettano le basi grammaticali e sintattiche di un
nuovo linguaggio che solo oggi sta raggiungendo la sua maturità.
Dopo gli anni ottanta, caratterizzati da una sperimentazione finalizzata
alla ricerca e alla messa a punto di algoritmi per la rappresentazione
realistica tridimensionale e animata, la ricerca di un linguaggio più
evoluto cresce tappa dopo tappa e le applicazioni si infittiscono in
campo televisivo e pubblicitario.
La vena artistica tuttavia non si esaurisce. Convive con una spinta alla
sperimentazione orientata alla commercializzazione di sistemi grafici
"chiavi in mano". Si allarga insomma il campo di azione di queste
immagini frutto di una tecnologia digitale sempre più avanzata.
Nell'ultimo decennio la rappresentazione sintetica sta ottenendo sempre
maggiori riconoscimenti da parte di artisti, registi, creativi che la
utilizzano e la integrano nei loro progetti di comunicazione.
Molteplici sono i fattori che spiegano questa recente evoluzione.
In primo luogo, gli sviluppi tecnologici, soprattutto la maggior potenza
dei computer e il miglioramento delle prestazioni software. La diffusione
inoltre delle tecnologie (dovuta al progressivo abbattimento dei costi) e
14
la relativa facilità d'uso dei programmi di grafica tridimensionale,
trattamento digitale, ha reso gli strumenti più accessibili a molti.
Anche la formazione alle nuove immagini si è nel contempo
ampiamente diffusa in ambito universitario, presso le scuole d'arte,
istituti pubblici e privati.
Il mercato delle immagini di sintesi si è rivolto prima alla televisione, poi
ha guadagnato terreno all'interno del mondo pubblicitario o nella
produzione di filmati di comunicazione aziendale.
Negli ultimi tempi si è scatenata soprattutto l'industria dei sogni: il
cinema con le "nuove immagini" sta vivendo una nuova stagione; sono
sempre più frequenti infatti i film basati su effetti speciali digitali. Anche
l'industria della multimedialità ricorre a questo genere di
rappresentazione per la realizzazione di interfacce grafiche, per la
creazione di ambienti tridimensionali off line (cd-rom etc) e on line
(internet, programmi televisivi etc).
Il numero di società dedicate a questo genere di produzioni, continua a
salire, segno che dimostra la reale vitalità di un settore che è rimasto a
lungo ai margini della produzione audiovisiva, nonostante sia stato
accolto molto favorevolmente sin dall'inizio, dal grande pubblico.
Si moltiplicano anche gli appuntamenti internazionali. Il Siggraph negli
USA e' il momento più alto di incontro per monitorare lo stato dell'arte
della computer grafica mondiale e per spingere lo sguardo avanti sui
prossimi traguardi.
Un grande fascino emana da queste immagini che devono parte della
propria magia al modo in cui sono realizzate.
Non bisogna tuttavia sottovalutare la portata e l'influenza di questi nuovi
dispositivi, destinati a rimuovere i limiti della creazione senza che il
potere della tecnologia soffochi la capacita' di invenzione e la creatività.
Le immagini di sintesi sono il frutto della rivoluzione delle tecnologie
digitali che segnano la fine del secolo e aprono la strada a nuove forme
di creazione e di conoscenza.
Generare immagini manipolando linguaggi matematici, far leva sulle
molle dell'interattività, sia nel rapporto tra l'artista e il suo lavoro che tra
il pubblico e l'opera, sono il risultato della grande evoluzione della
nostra cultura dell'immagine.
La realtà virtuale, la televirtualità, le autostrade informatiche fanno parte
di questo scenario, si inseriscono in questo cammino tracciato,
dicevamo, non più di trenta anni fa dalla nascita della grafica
computerizzata.
15
IL NUOVO CONTESTO TECNOLOGICO
Vediamo ora quali modifiche ha introdotto la tecnologia più recente
nelle tradizionali tecniche di ripresa, animazione, post-produzione ecc.
Verso la metà degli anni '70 le tecniche informatiche applicate al
disegno progettuale e alla generazione di immagini animate escono
dalla fase sperimentale e cominciano a diffondersi nel mondo della
produzione vera e propria.
Fino a quel momento parlare di immagini elettroniche significava
soprattutto far riferimento alla televisione e alla registrazione
videomagnetica, dunque a sistemi riproduttivi di tipo analogico.
Per il montaggio delle immagini il termine di riferimento, anche in TV,
era ancora rappresentato dal montaggio cinematografico (l'immagine
televisiva veniva infatti trasferita su pellicola, per l'editing finale si
usavano taglierine e incollaggi nonché le stesse moviole meccaniche
adottate nel cinema).
Gli effetti speciali nel cinema e nella produzione televisiva si basavano
tutti su trucchi ottico-meccanici. I sistemi in uso facevano capo
soprattutto alle lavorazioni in truka (stampatrice ottica in grado di
consentire sovrimpressioni, mascherini, dissolvenze ecc.) e alla
macchina da ripresa usata tradizionalmente per le animazioni,
consistente in una camera disposta su uno stativo verticale in grado di
effettuare zoomate e carrellate su un piano orizzontale in cui si
disponevano i disegni o le fotografie da riprodurre.
Piano a sua volta composto di parti mobili, in grado cioè di scorrere e
ruotare mediante dispositivi più o meno automatici, ovvero manovelle e
motorini elettrici (banco di ripresa). La titolazione di un film o di un
programma televisivo era ancora ottenuta con procedimenti totalmente
manuali: scritte realizzate con tempere e pennelli su cartoni neri o su
fogli di acetato trasparente, caratteri trasferibili applicati con la
procedura della decalcomania (che furono introdotti solo alla fine degli
anni '60), elaborazioni grafiche in bianco e nero basate sulle procedure
fotomeccaniche (retini tipografici, stampe al tratto, ovvero prive di mezzi
toni).
Ma ecco in quegli anni i primi registratori e i primi mixer in grado di
consentire il montaggio e la manipolazione elettronica delle immagini.
Vengono introdotte anche le prime titolatrici dotate di un generatore
automatico di caratteri tipografici. Sul finire degli anni '70, mentre
l'industria informatica si avvia a lanciare sul mercato i primi home
computer, la post-produzione televisiva comincia ad includere un nuovo
tipo di trattamento delle immagini, consentito dai primi generatori di
"effetti digitali" inseriti nei mixer più sofisticati (effetti cosiddetti di
squeeze zoom, ovvero riconducibili a rapide "evoluzioni" o traiettorie
visive basate su moltiplicazioni, ingrandimenti e riduzioni delle immagini
nello schermo manovrabili in tempo reale).
16
Il teleschermo si frantuma e si dinamizza attraverso il continuo
sdoppiamento di una cornice capace di generare al suo interno una
vertiginosa proliferazione di ulteriori cornici.
Nell'80 al caleidoscopico repertorio dei nuovi mixer si aggiunge la
possibilità di un maggiore controllo dell'intervento sulle immagini grazie
all'introduzione delle prime "tavolette grafiche", ovvero di sistemi
grafico-pittorici digitali in grado di interagire in tempo reale con
l'immagine video. La nuova macchina è destinata quindi non più al
montatore ma al grafico, non riguarda più solo la possibilità di elaborare
contributi grafici per la post-produzione televisiva, ma consente di
produrre ex novo una serie di "quadri" ottenuti per lo più con una
simulazione elettronica delle tecniche manuali tradizionali (acquerello,
gessetto, aerografo, collage ecc.).
In altri termini, con la nuova "tavolozza elettronica" (Paint Box, dal
nome del modello più noto e diffuso nel broadcasting TV) è possibile
non solo il trattamento elettronico di immagini acquisite in vario modo e
da varie fonti (telecamere su banco di ripresa, videonastri, immagini
video in presa diretta ecc.), ma si può produrre un’intera animazione
frame by frame, inquadratura per inquadratura. Sempre nei primi anni
'80, anche il cinema comincia ad avvalersi dell'elettronica per introdurre
nuove possibilità espressive nel proprio linguaggio.
Le reti televisive cominciano a dotarsi anche di nuove sigle grafiche: i
prodotti più richiesti per ostentare il proprio aggiornamento tecnologico
erano dei logotipi animati realizzati con tecniche di simulazione
tridimensionale. Prodotti che, in quegli anni, comportavano ancora un
notevole impegno per le reti sia in termini economici sia per le difficoltà
logistiche, progettuali e realizzative implicate.
Alla metà degli anni '80 il mondo del personal computer, che nel
frattempo si è espanso a livelli di massa grazie soprattutto all'effetto
trainante dei videogiochi, si arricchisce di una nuova "filosofia" che
riguarda soprattutto le procedure operative, l'interazione dell'utente con
la macchina. Si utilizza un nuovo tipo di interfaccia grafica che simula
nello schermo "finestre" e "scrivanie", ovvero un ambiente familiare in
cui può muoversi agevolmente anche chi non sa nulla di
programmazione o di tecniche informatiche. Nasce la cosiddetta
editoria personale o da scrivania (desktop publishing), una realtà presto
destinata ad interessare direttamente anche il mondo della grande
editoria e della grafica professionale.
Comincia anche a delinearsi la potenzialità multimediale del computer
domestico: all'inizio si tratta di semplici archivi, data base o schedari
ipertestuali personalizzabili, sorta di agende elettroniche in cui è
possibile inserire suoni, disegni, piccole animazioni. Si tratta già di
qualcosa di non riducibile ad un comune programma per l'archiviazione
dei dati, utile solo per mettere un po' d'ordine in una massa
d'informazioni eterogenee: la flessibilità operativa del nuovo sistema
ipertestuale permette di considerarlo un vero e proprio sistema di
17
programmazione, un linguaggio peraltro assai evoluto, in quanto basato
su un approccio intuitivo e non già sulle astrazione numeriche del
"linguaggio macchina".
Negli anni '90 la nuova prospettiva multimediale si diffonde a livello di
massa.
Il tema della Realtà virtuale diventa all'ordine del giorno.
Le reti telematiche diventano una realtà comune, condivisa da milioni di
persone ormai in grado di "navigare" in Internet. Le TV satellitari o via
cavo rappresentano ormai dimensioni mediatiche in veloce espansione,
sempre più basate sull'integrazione e sull'interattività tipica degli
strumenti digitali. Nello stesso tempo, la nuova grafica cinetica e
multimediale raggiunge una fase di maturità nella quale non c'è più
posto per l'ingenua euforia tecnologica dei primi anni '80.
Le reti televisive sono sempre più pressate dalla necessità di
diversificare e specificare la propria offerta di programmi in un
panorama saturo di immagini e tendente all'omologazione che, proprio
per questo, impone una rigorosa definizione dell'identità visiva di ogni
emittente (occorre insomma rendersi riconoscibili tra migliaia di canali).
La comunicazione visiva riconquista così un ruolo essenziale nella
dimensione strategica del coordinamento d'immagine, ma questa volta
gli aspetti audiovisivi, cinetici, multimediali, tendono ad essere
prevalenti rispetto alle tradizionali applicazioni editoriali, ovvero quelle
relative alla "carta stampata".
Nel frattempo molte figure professionali si sono riconvertite in relazione
ai nuovi sistemi produttivi per non estinguersi del tutto. Nelle nostre
mappe mentali la dimensione alfabetica, la tradizione tipografica da cui
è sorta la comunicazione visiva in senso moderno, è ormai
inestricabilmente connessa con la nuova iconografia digitale e con la
dimensione avvolgente di una plurisensorialità divenuta interamente
programmabile.
18
LA COMUNICAZIONE TELEVISIVA
Il linguaggio videografico nelle sigle istituzionali
Le sigle dei programmi televisivi cominciano a configurarsi in termini
dinamici, a proporsi come un prodotto audiovisivo completo, capace di
riassumere in pochi secondi un messaggio a volte anche molto
complesso.
La sigla funziona come una soglia paratestuale che introduce il testo
vero e proprio predisponendo psicologicamente alla visione e all'ascolto
del programma che segue.. Ma è anche un prodotto comunicativo
autonomo che spesso ha una funzione insieme "metalinguistica"
(rispetto al contesto cui rinvia) e autoreferenziale in ragione del proprio
carattere di messaggio a dominante estetica (dove cioè l'apertura verso
una molteplicità di significati e l'attenzione rivolta alle modalità
compositive o all'efficacia degli stimoli sensoriali assumono un ruolo
preponderante).
La sigla diventa insomma un'ancora sinestetica, qualcosa che fa
scattare nello spettatore una sorta di riflesso condizionato, proprio
come il suono delle campane del paese annuncia il giorno di festa, crea
un'atmosfera, predispone la mente al rito collettivo, raduna la gente
nella piazza o nella chiesa. Per approfondire il discorso sulla sigla
bisogna però affrontare il tema del progetto grafico applicato alla
comunicazione audiovisiva.
C'è un aspetto, in particolare, che occorre circoscrivere, quello della
sigla come marchio istituzionale di una rete televisiva. Se dunque la
sigla videografica assume un ruolo istituzionale (Station Ident ) come
impostare la strategia progettuale? Bisognerà probabilmente concepirla
fin dall'inizio nel quadro complessivo di un’immagine coordinata: essa
sarà il nucleo vivente, l'elemento generativo di tutti gli altri elementi di
una linea grafica. Marchio e logo andrebbero dunque concepiti già in
vista di una processualità e di un uso legato alle dinamiche audiovisive
delle tecniche d'animazione.
Graphic Design e Storyboarding
Un campo elettivo di applicazione dei metodi qui proposti è quello del
progetto grafico applicato ai media a sviluppo temporale.
Sebbene qualsiasi testo presuma uno sviluppo sequenziale e un tempo
di lettura, qui non intendo riferirmi ai tradizionali supporti editoriali, per
esempio libri o riviste, ovvero prodotti cartacei in genere, bensì al
settore in continua espansione che si avvale di supporti audiovisivi e
multimediali: da quelli tradizionali, sia fotochimici ( film, multivisione con
diapositive), che elettronici (televisione, home video), a quelli più recenti
basati sulla tecnologia informatica (strumenti digitali, programmi e
19
interfacce per computer, compact disc, reti telematiche, ipermedia,
sistemi di realtà virtuale).
Durante gli ultimi decenni abbiamo verificato una progressiva tendenza
all'integrazione tra le sfere produttive dell'industria editoriale, di quella
cinetelevisiva, nonché di quella discografica, nel segno unificante
dell'informatica e delle tecnologie digitali. Informazione e spettacolo,
cultura e telecomunicazioni, formazione e pubblicità, rappresentano
ormai delle realtà operative facilmente integrabili, rese omogenee da
una medesima tecnologia dominante.
Pressoché tutti i prodotti non cartacei a sviluppo temporale che
possono richiedere l'intervento qualificato di un graphic designer (film,
video, canali e programmi televisivi, pagine Internet, audiovisivi didattici,
multivisioni, prodotti ipermediali, insegne cinetiche su schermi
programmabili ecc.), esigono, almeno per ottenere risultati
potenzialmente eccellenti, un’accurata pianificazione della sequenza di
quelle inquadrature che occorre presentare al pubblico in un
determinato ordine (non necessariamente univoco o lineare) e
prevedendo uno sviluppo del messaggio per un certo arco di tempo.
L'aspetto forse più difficile da controllare per chi si è specializzato nella
comunicazione visiva, riguarda la necessità di coniugare le immagini
con i suoni in un processo dinamico che richiede particolari attitudini e
conoscenze tecniche. Ma questa difficoltà è notevolmente ridotta
dall'uso di un metodo progettuale che può tradurre in forma grafica sia
la dimensione sonora, sia l'evoluzione cinetica delle forme, mediante
opportune notazioni convenzionali. Del resto sono a volte gli stessi
strumenti digitali odierni a suggerire la possibilità di gestire entità
eterogenee, come immagini e suoni, attraverso un medesimo
procedimento di visualizzazione o uno stesso sistema operativo.
Ciò può favorire il dialogo tra professionisti ed esperti in discipline
anche molto distanti tra loro. E dunque rendere più agevole il lavoro di
équipe. Già oggi i programmi usati, ad esempio, da un musicista per
comporre brani musicali al computer, sono sostanzialmente simili
(parlano lo stesso 'linguaggio iconico') di quelli usati da un grafico per
elaborare immagini.
Se può essere facile, anche per un osservatore ingenuo, capire cosa
stia facendo un tizio alle prese con tela, pennelli e tubetti di colore, o un
altro intento a muovere le mani sulla tastiera di un pianoforte, non così
semplice è attribuire al primo colpo d'occhio un ruolo professionale
specifico a qualcuno la cui attività prevalente consista nel muovere
manualmente un mouse fissando con lo sguardo il monitor di un
computer.
Un tempo il grafico lavorava esclusivamente con testi e immagini
statiche e bidimensionali destinati ad essere riprodotti con un qualche
procedimento di stampa. Oggi nel curriculum di ogni graphic designer si
trova, in genere, una maggior varietà di settori d'intervento: oltre al
progetto grafico per la stampa editoriale troviamo sempre più spesso
20
sigle televisive, sequenze di tipografia cinetica, impaginazioni di siti
Internet, interventi grafici per filmati pubblicitari, interfacce di sistemi
multimediali.
Qualsiasi progetto d'immagine coordinata di un qualche rilievo implica
ormai il probabile ricorso a varie applicazioni "sequenziali" che possono
giovarsi di un uso mirato e consapevole dei metodi di storyboarding.
Uno dei principali settori d'intervento per l'esperto in grafica cinetica è
quello della comunicazione televisiva. Le reti televisive tradizionali
utilizzano l'etere come canale di trasmissione. Oltre alla trasmissione
via etere, esiste oggi la possibilità d'inviare programmi televisivi
attraverso il cavo e il satellite. Le tecnologie digitali, unite all'uso dei più
evoluti sistemi di trasmissione, consentono di sviluppare una
comunicazione bidirezionale tra utenti di personal computer che è
destinata col tempo a ridurre la centralità della ormai concettualmente
obsoleta TV generalista, quella cioè che tratta un po' di tutti gli
argomenti e invia ad una massa più o meno indifferenziata di utenti
messaggi a senso unico (privi di feedback, ovvero della possibilità di
una puntuale risposta del destinatario in grado d'influenzare lo
svolgimento del processo comunicativo).
Già oggi l'uso del cavo consente di sviluppare una comunicazione più
mirata, tendenzialmente interattiva, basata sulle richieste specifiche
dell'utente. Anche la TV satellitare, consentendo la copertura di territori
ben più vasti dei confini nazionali, tende a specializzarsi in senso
tematico (su scala planetaria anche occuparsi di un singolo argomento,
per quanto d'interesse "minoritario", può rivelarsi un buon affare).
Inoltre, proprio l'adozione di una scala transnazionale, con la
conseguente esigenza di ovviare alle difficoltà legate alle barriere
linguistiche e ai diversi contesti culturali, spinge i produttori a fare un
ampio uso della comunicazione visiva.
Oltre alla necessità di distinguersi, di rendere riconoscibile il proprio
messaggio tra una molteplicità di emittenti, le reti televisive devono
ovviamente promuovere continuamente la loro immagine al fine di
accrescere il numero dei propri utenti, di mantenere stabile nel tempo il
buon rapporto di empatia già stabilito con un certo numero di spettatori,
nonché di ancorare l'utente alla programmazione quotidiana mediante
continui richiami seduttivi tesi ad evitare che questi cambi canale
approfittando magari di qualche "punto debole" del flusso audiovisivo
(ad esempio, i momenti di passaggio tra un programma e l'altro).
In questo contesto, il ruolo strategico del Graphic design può essere
decisivo. Anche per le reti televisive vale la regola che l'elemento su cui
si fonda l'intero progetto dell'immagine coordinata è rappresentato dal
marchio d'identificazione.
Marchio e/o Logo rappresentano dunque quel centro visivo e
concettuale che dovrebbe riassume, già al primo colpo d'occhio, la
"missione" fondamentale, l'identità stessa dell'emittente (il suo modo di
costituire un punto di vista, una mappa della realtà). Ogni punto di vista
21
è necessariamente parziale, tanto più quando pretende di essere
rivelatore di una presunta realtà oggettiva. Ma oggettivo, per così dire,
può essere solo l'occhio in quanto cosa, in quanto concreta entità
percettiva, non lo sguardo che esso dischiude o il mondo che esso
traduce in una mera proiezione visiva.
Un’emittente può, certo, risultare più o meno credibile. Ma questa
immagine positiva dipende in larga misura dal modo in cui presenta
anzitutto se stessa e costruisce la propria identità produttiva.
Il Logo è l'impronta visiva che trasforma un’organizzazione
necessariamente anonima e collettiva in un soggetto dotato di un
carattere unico e inconfondibile, di una precisa "personalità".
Senza una firma autenticata che attesti l'identità di un soggetto
determinato, difficilmente una qualsiasi testimonianza può risultare
credibile.
Allo stesso modo, senza un logo (l'equivalente simbolico di una firma),
una qualunque emittente non potrebbe neppure essere riconosciuta
come tale o distinguersi dalle altre. Per questo ogni rete televisiva ha un
suo logotipo animato (Station Ident) che viene trasmesso
continuamente durante la programmazione giornaliera per segnalare ai
telespettatori la presenza costante di un soggetto che si assume la
responsabilità di quanto trasmesso e per ricordare, a chi si fosse
casualmente "messo in ascolto" (o, meglio, in contatto visivo), su quale
canale è sintonizzato il suo televisore. Il logo dell'emittente avvia un
gioco di scatole cinesi: la rete stessa è il contenitore più grande, al cui
interno possiamo trovare i singoli programmi (che a loro volta avranno
bisogno di un involucro e di un segnale d'identificazione).
Ciascun programma può prevedere una sigla animata, titoli di testa o di
coda ed eventuali altri elementi di titolazione elettronica basati su scritte
in movimento (tipografia cinetica), oltre che un certo numero di altri
contributi grafici (indici segnaletici o cornici d'impaginazione, intersigle,
cartine geografiche, tabelle e diagrammi esplicativi, illustrazioni e
animazioni di vario genere, scenari virtuali ecc.). Più tutti questi
elementi, per quanto necessariamente eterogenei, appaiono "pensati" e
integrati tra loro, ispirati ad una medesimo repertorio linguistico,
collegati da una coerente linea grafica, più il messaggio complessivo
dell'emittente risulterà originale e ben configurato rispetto al target di
riferimento.
La risultante globale di tutte le componenti sensoriali "periferiche" (i
processi di configurazione linguistica), unite a quelle "centrali" riferibili ai
contenuti specifici dei programmi trasmessi, determina l'Immagine in
senso ampio di un'emittente. Entro tale accezione allargata del termine
immagine, è chiaro che al Graphic design, inteso come ambito
professionale che pur si occupa in prevalenza di aspetti visivi, non può
essere attribuita la responsabilità esclusiva dell'efficacia del risultato
finale, ma solo dell'aspetto strettamente legato alla messa a punto, per
grosse linee, di un progetto unitario, di un manuale d'immagine
22
coordinata e di un uso adeguato delle strategie di storyboarding. Il
cuore di tale progetto sarà, come sempre, costituito dal Logo - o meglio,
trattandosi nella grafica TV di concepire immagini semoventi - dal Logo
pensato fin dall'inizio come un oggetto dinamico (una sorta di creatura
vivente, capace di crescere e di camminare con le proprie gambe).
Il progetto di uno Station Ident richiede dunque, in forma più o meno
esplicita, la definizione di un più ampio contesto d'immagine coordinata
(Identità di Rete).
“CORPORATE IDENTITY = significa unità di contenuti, dichiarazioni e
comportamenti di un'azienda o di un'organizzazione”.
“CORPORATE DESIGN = significa che l'espressione centrale di
un'impresa - dunque la sua 'filosofia' - deve essere visualizzata nei
prodotti e quindi essere riconoscibile per l'utente (identità interiore ed
esteriore, coerenza di espressione tra interno ed esterno)”.
(Cfr. Bernhard E. Bürdek, 1991)
Corporate identity di una rete televisiva:
q
premesse metodologiche
q
ideologia (idea-guida)
q
logo (struttura e verifiche a tutti i livelli e con tutti i supporti)
q
marchio (genesi, struttura, posizionamento, verifiche)
q
metamorfosi del marchio
q
versioni tridimensionali del marchio
q
lettering televisivo e tipografico
q
relazioni previste tra marchio e logo
q
videografica (sigle, supporti informativi, inserti, illustrazioni,
identificazione e impaginazione di programmi, riferimenti per effetti
speciali, sistemi modulari per processi automatici)
q
grafica editoriale per stampati e oggetti promozionali (penne,
orologi, bottoni, magliette ecc.)
q
pagine per Internet
q
set-design (scenografie, arredamenti)
q
elementi architettonici di valore simbolico e allestimenti per
esposizioni o manifestazioni culturali in genere
q
design dei costumi
q
design del suono
q
autopromozione di rete e promozione programmi
23
MARCHIO E LOGO AL CENTRO DELL'IMMAGINE
COORDINATA
Nella comunicazione mediatica c'è il problema di conferire una
personalità riconoscibile non solo al singolo programma o prodotto
audiovisivo ma anche all'emittente che lo propaga via etere o lo irradia
via satellite o lo invia in rete attraverso un cavo. In questo contesto, il
ruolo strategico dei segnali visivi d'identificazione, o meglio di quelle
componenti spesso considerate del tutto periferiche, quasi fossero
mere cornici decorative rispetto ai contenuti trasmessi, non può che
rivelarsi invece d'importanza decisiva nello stabilire e mantenere un
contatto "empatico" con lo spettatore. Non tutti, ovviamente,
posseggono gli strumenti culturali per rendersi conto che, anche in
questo settore, è spesso la qualità di un progetto d'insieme ben
coordinato a fare la differenza.
Committenza e strategie progettuali
Come in tutte le attività progettuali, le prestazioni professionali del
Graphic Designer si basano sul rapporto con una committenza e
sull'analisi rigorosa delle esigenze poste in gioco dalla richiesta che di
volta in volta viene formulata. Esistono vincoli interni alla disciplina
(necessità metodologiche, limiti tecnici, regole da rispettare e di cui il
"profano" può ignorare del tutto l'esistenza). Ma esistono anche
parametri esterni che dipendono solo dal particolare contesto entro cui
si colloca questo o quell'intervento (caratteristiche del destinatario a cui
ci si rivolge, risorse economiche impegnate per l'operazione, situazione
determinata dalla concorrenza ecc.). Il colloquio preliminare con il
cliente deve dunque essere considerato uno dei momenti chiave
dell'esercizio professionale, e deve prevedere uno scambio di
informazioni che sia il più ampio e completo possibile. Solo una corretta
impostazione o riformulazione del problema può rendere efficace la
ricerca di una soluzione da proporre.
Solo un accordo iniziale sui criteri di valutazione del prodotto può
scongiurare imbarazzanti equivoci o arbitrarie ingerenze altrui sul
processo ideativo. In questa fase si definiscono ruoli e competenze, ci
si accorda sugli onorari, si acquisiscono informazioni preziose per
determinare i requisiti di cui tener conto nel progetto.
Le regole da seguire sono quelle tipiche ormai di tutte le discipline del
design, applicate e consolidate nel tempo anche dagli operatori
impegnati nelle strategie pubblicitarie.
Occorre tener presente che uno degli aspetti preliminari e più
qualificanti di una strategia progettuale riguarda la capacità di
reinquadrare le richieste del cliente cercando di far emergere nel
24
dialogo, al di là delle eventuali ingenuità o idee precostituite
dell'interlocutore, l'effettiva natura del problema.
Un tipico elenco indicativo dei punti da affrontare nel briefing con il
cliente può essere riassunto nel seguente schema:
q
Condizioni del mercato e Missione del cliente
q
Posizionamento del prodotto
q
Obiettivi da conseguire
q
Destinatari da raggiungere e tipo di rapporto da instaurare
q
Status desiderato e contesto culturale di riferimento
q
Messaggio chiave
q
Tono del messaggio
q
Informazioni istituzionali o aziendali
q
Caratteristiche del prodotto
q
Innovazione da introdurre
q
Vincoli tecnici
q
Requisiti di legge
q
Data di consegna
q
Formato previsto
q
Budget stanziato
q
Specifiche esigenze produttive
Le scelte progettuali si baseranno dunque su queste informazioni
preliminari raccolte nel colloquio con il cliente. Sarà opportuno in alcuni
casi (in base alla psicologia e al ruolo dell'interlocutore) offrire almeno
tre versioni alternative del progetto di massima al cliente, in modo che
questi non si senta posto di fronte ad una sola ipotesi, ma neppure
"preso nel dilemma" di dover scegliere tra due possibilità. Riassumiamo
in sette punti gli argomenti da chiarire con le domande rivolte al cliente:
1) - Stato desiderato (obiettivo, risultato perseguito)
2) -Stato attuale (definizione del contesto presente)
3) - Stato problematico (impedimenti e vincoli che ostacolano il
cambiamento)
4) - Risorse necessarie per ottenere lo stato desiderato
5) - Criteri adottati per controllare la validità del processo evolutivo
intrapreso al fine di raggiungere l'obiettivo prescelto (possibilità di
feedback o "retroazione autocorrettiva")
6) - Ricerca mnemonica delle modalità operative già collaudate che, in
situazioni analoghe, hanno consentito di perseguire con successo un
risultato in base alle stesse risorse attualmente disponibili.
7) - Valutazione anticipata delle risorse che si è disposti ad impiegare
per realizzare il nuovo progetto.
25
IL LINGUAGGIO VIDEOGRAFICO
Gli stilemi dominanti
Quali sono oggi i linguaggi e gli stilemi più usati nella videografica e
nell'infodesign? Esiste un rapporto tra questi linguaggi e le avanguardie
artistiche più o meno recenti? Viviamo in un'epoca caratterizzata
dall'eclettismo e dalla contaminazione dei linguaggi.
La tecnologia elettronica e informatica ha contribuito in modo
sostanziale a determinare questo contesto storico.
La condizione della post-modernità è stata definita in svariati modi
all'interno degli ormai innumerevoli contributi teorici, ma sembra
comunque connessa strutturalmente con i cambiamenti dello scenario
produttivo nella realtà industriale a partire dalla fine di un ruolo
egemone delle tecnologie meccaniche. Sul piano dei linguaggi della
grafica questi fenomeni hanno portato ad una perdita della centralità
ideologica del cosiddetto Stile tipografico internazionale, inteso come
quell'approccio sistematico che perseguiva la sintesi geometrica, la
costruttività del segno e un ideale riferimento alle metodologie razionali,
e che trovava la sua maggiore legittimazione teorica nelle rigorose
necessità compositive imposte dalla moderna tipografia meccanica.
Anche se, per contro, oggi gran parte delle istanze di un metodo
progettuale di ascendenza gutenberghiana sembrano rilanciate proprio
dalla diffusione della logica digitale e, dunque, da un’ennesima
riscossa, per così dire, dell'uomo alfabetico rispetto alla dimensione
iconico-orale implicita nel flusso elettronico della cultura video o
paleotelevisiva (quando cioè la comunicazione elettronica era ancora
tutta improntata sulle caratteristiche dominanti delle tecniche
analogiche).
Ecco allora la coesistenza dell'approccio moderno con la deflagrazione,
la disseminazione e la contaminazione post-moderna dei linguaggi delle
avanguardie artistiche del '900, divulgati ormai a livello di massa proprio
grazie alle tecnologie elettroniche, insieme a recuperi di stilemi
premoderni, il tutto in un'ottica performativa, ovvero sostanzialmente
anti-ideologica e pragmatica. Sul piano della nuova realtà tipografica,
emblematica appare la palese influenza odierna (su scala non certo
locale, bensì quasi come una sorta di International Style "alternativo") di
un linguaggio grafico come quello, ad esempio, di Neville Brody, il quale
sfrutta a getto continuo, spesso in anticipo sugli altri autori, la vasta
gamma di possibilità manipolatorie offerte dal computer anche nelle più
consuete applicazioni editoriali.
L'avvento delle tecniche digitali nei linguaggi della videografica ha avuto
un evidente impatto innovativo, al punto che l'attuale popolarità di
questa disciplina è in gran parte dovuta all'irruzione della computer
animation e della post-produzione digitale nella dimensione televisiva,
26
avvenuta all'inizio degli anni '80. La grafica televisiva, ovviamente,
esisteva anche prima dell'avvento di queste tecnologie, ma la sua realtà
disciplinare (nonché il suo basarsi su tecniche puramente manuali e
cinematografiche) non rappresentava certo una novità o un fenomeno
che poteva interessare un vasto pubblico, ma solo la cerchia molto
ristretta degli addetti ai lavori.
Lo sviluppo storico della grafica televisiva è in un certo senso gravato
da una sorta di vizio d'origine, poiché agli inizi della storia della
televisione (per noi, in Italia, si parla degli anni '50) l'intervento grafico si
riduceva sostanzialmente ai rulli di testa e di coda delle trasmissioni.
In questo senso la grafica TV si trovava oggettivamente in ritardo
rispetto al dibattito culturale che già caratterizzava la grafica della carta
stampata.
Occorre comunque osservare che gli esordi della televisione italiana
furono pur sempre all'insegna di un ottimo progetto d'immagine
coordinata, quello impostato da Erberto Carboni, uno dei personaggi
chiave del fecondo contesto disciplinare milanese di quegli anni.
Accanto a quello decisivo di Carboni, troviamo inoltre i pregevoli
benché sporadici contributi di autori come Albe Steiner e Armando
Testa.
Nel periodo che va dagli anni '50 alla fine degli anni '70 troviamo poi
saltuariamente impegnati con la realtà televisiva grafici di grande
prestigio come Bruno Munari, Giancarlo Iliprandi, Pino Tovaglia, Hans
Waibl, Sergio Ruffolo. Grafici, animatori ed artisti visivi tentarono in vari
modi di arginare la "naturale" tendenza del mezzo televisivo a sottrarsi
alla logica del progetto e al rigore etico della ricerca applicata alla
comunicazione per immagini. Artisti come Pino Pascali ed Eugenio
Carmi, animatori come Lodolo, Manfredi e Piludu, grafici come Alfredo
De Santis, Piero Gratton e Michele Spera, si misurarono con questo
arduo e spesso ingrato compito.
Nel 1979 fa la sua prima irruzione nel linguaggio televisivo la
dimensione pirotecnica degli "effetti elettronici": si deve un primo
sostanzioso apporto in questa direzione al regista bulgaro Valerio
Lazarov che utilizzò i nuovi artifici retorici all'interno degli spettacoli di
varietà. In seguito, un apporto pionieristico sul fronte delle nuove
tecniche di computer graphics fu dato da Guido Vanzetti. Dai primi anni
'80 ad oggi la videografica ha attraversato sostanzialmente tre fasi. La
prima, che potremmo definire ingenua, si basava sull'uso e sull'abuso
degli effetti speciali della post-produzione televisiva. Alcuni registi,
come Francesco Crispolti e Sergio Spina, riuscirono comunque a fare
un uso non gratuito della grafica elettronica.
La seconda, intorno alla metà degli anni '80 (che viveva ancora
l'ebbrezza della nuova tecnologia), affermava su scala internazionale la
logica omologante dei Flying Logos (logotipi volanti, per lo più cromati e
luccicanti, realizzati in 3D); era ancora l'epoca in cui realizzare una sigla
tridimensionale comportava un notevole impegno produttivo, dunque
27
un’effettiva possibilità di ostentare pubblicamente le proprie risorse
tecnologiche ed economiche. Ogni rete televisiva si sentiva pertanto
obbligata a raggiungere quello standard per mettersi al passo con i
tempi, per uniformarsi al luogo comune del meraviglioso tecnologico.
Anche la Rai introdusse la simulazione tridimensionale nei nuovi
logotipi che identificavano le tre reti nazionali con le forme della sfera,
del cubo e della piramide (si trattava del primo tentativo di trovare
nuove modalità autopromozionali e di coordinamento d'immagine, a
partire da un logo, disegnato da Giorgio Macchi, completamente
diverso da quello originario di Carboni). Ma lo scenario complessivo
risultava ancora sostanzialmente caotico. Le rare eccezioni di uso
appropriato e originale delle nuove tecnologie, presenti anche nella TV
italiana (pensiamo, ad esempio, alle sigle di Mario Sasso o ai lavori di
Mario Convertino a partire dalla trasmissione Mister Fantasy), non
potevano ovviamente modificare quella linea di tendenza.
Ma bisogna tener conto che anche durante tale periodo continuavano
pur sempre gli apporti "esterni" di alcuni artisti come Ugo Nespolo e
Pablo Eucharren (chiamati da Mario Sasso a lasciare il loro segno nella
linea grafica di Rai Due), di alcuni grafici e designer come Massimo
Vignelli, Pierluigi Cerri, Tullio Pericoli, Sergio Salaroli, Ettore Vitale,
nonché promettenti giovani leve come Enzo Sferra e Vittorio Venezia.
Dopo quella seconda fase ancora euforica, si arriva agli anni '90,
quando le reti più lungimiranti cominciavano ad abbandonare l'enfasi
tecnologica e ad assumere un atteggiamento più circostanziato e
maturo.
Da un lato la tecnologia più avanzata entrava a far parte ormai della
routine produttiva, determinando un nuovo assetto dell'organizzazione
del lavoro, dall'altro lato si riproponeva l'esigenza di uscire
dall'omologazione e di ricercare una più specifica identità linguistica e
culturale.
Con l'avvento della TV via cavo e via satellite tale necessità di trovare
un approccio più mirato e meditato alla comunicazione visiva diveniva
ancor più evidente. La nascita della rete italiana RAISAT consentiva
un’inedita
possibilità
di
sperimentazione
linguistica
e
di
programmazione unitaria dell'immagine videografica che inaugurava
emblematicamente gli anni '90: un esempio, pressoché unico nel suo
genere, d'intervento coordinato in termini globali da uno specialista del
settore, Mario Sasso, il quale a sua volta si avvaleva in modo mirato
dell'apporto di artisti noti per il loro lavoro quali autori indipendenti
(Baruchello, Boetti, Canali, Cucchi, Luzzati, Nespolo, Paik, Plessi).
Intanto la TV privata, a cominciare dal gruppo Fininvest, il più
importante concorrente della RAI, introduceva una dimensione più
veloce e pragmatica nella grafica televisiva, avvalendosi in modo diretto
delle esigenze del marketing. Dal 1982 il regista Lazarov si trovò a capo
di una struttura operativa (Videotime) cui la Fininvest affidò la
produzione coordinata delle proprie sigle di rete. Emblematica appare
28
oggi la dichiarazione di Lazarov che già nel 1986 affermò la non
opportunità, forse anche per la rilevata tendenza del telespettatore a
fare zapping proprio nei momenti di passaggio tra un programma e
l'altro, di produrre sigle più lunghe di 8-10 secondi. Finisce così, nel
segno del più lucido realismo commerciale, lo spazio ipotetico della
"sigla d'autore", ovvero di un prodotto capace di rendersi in parte
autonomo rispetto alle esigenze strettamente segnaletiche di un
palinsesto televisivo.
Oggi la videografica, dunque, nella sua fase "matura", non può che
tornare ad inscriversi nella logica del progetto, dell'identità di rete, di
una Brand Identity che trova un luogo esemplare di manifestazione
nell'opera in campo internazionale di un designer televisivo che può
considerarsi il maggiore esperto in tale settore, l'inglese Martin LambieNair.
29
DECALOGO OPERATIVO
Quali conclusioni, naturalmente provvisorie, possiamo trarre
riassumendo quanto abbiamo finora esposto? Proviamo a riassumerle
in 10 punti.
1) Il segno a mano libera
Evitare l'errore grossolano di considerare superata la dimensione
espressiva del disegno a mano libera e delle tecniche grafico-pittoriche
tradizionali. Occorre invece continuare ad esercitare l'azione congiunta
dell'occhio e della mano, ovvero, parafrasando Arnheim, del padre e
della madre di ogni espressione artistica visiva. Storicamente il disegno
rappresenta nel mondo delle arti visive (che un tempo venivano
comprese proprio nella dicitura di "arti del disegno") non solo uno
strumento creativo elementare, ma qualcosa di più rispetto ad un mero
strumento qualsiasi: esso è stato inteso talora come la forma primaria di
manifestazione del pensiero visivo.
Con la padronanza del disegno, ad esempio, l'artista rinascimentale ha
trovato la possibilità di rivendicare uno statuto teorico, una nuova
dignità intellettuale, un ideale margine di autonomia disciplinare
all'interno della propria operatività finalizzata. Il termine design
testimonia ancora oggi il permanere di questo stretto legame semantico
tra competenza grafica e progettualità consapevole. Al punto che il
termine composto graphic design apparirebbe quasi ridondante se non
fosse giustificato dal riferimento ad un particolare settore applicativo.
Sebbene oggi il computer possa tendenzialmente assumere in molti
casi, nelle mani del progettista, il ruolo di strumento elementare, una
reale competenza nell'uso del computer presume pur sempre che si
sappia decidere in quali occasioni tale uso risulta appropriato e
conveniente.
L'aspetto paradossale, infatti, è che proprio la diffusione del computer
ha comportato un rilancio della "manualità" e l'affermazione di un valore
aggiunto del segno a mano libera.
2) Lettere dell'alfabeto
Ricordarsi che la scrittura alfabetica costituisce ancor oggi una delle
strutture portanti della comunicazione visiva, e trattarla dunque come
tale: essa è il modello di ogni processo di astrazione del segno, tanto
più da quando le sue forme si sono coniugate storicamente con le
moderne tecniche tipografiche (sia meccaniche che elettroniche),
dunque il lettering e la sintesi grafica rappresentano ancora il termine
essenziale di riferimento in ogni strategia di visual design.
Occorre forse ritrovare una capacità di stupirsi per l'aspetto enigmatico,
diremmo quasi "metafisico" (al pari di un dipinto di De Chirico), che la
scrittura può assumere quando si opacizza poeticamente la sua
30
transitività, la sua subordinazione alla sfera dell'utile, alla mera
funzionalità informativa. Immaginiamo, sia pure per un attimo, di
perdere il codice, la chiave interpretativa che rende trasparente un testo
al suo significato convenzionale: insegne luminose tipo Las Vegas,
scritte mobili e incisioni marmoree, cartelli segnaletici e targhe di ottone,
messaggi promozionali e titoli in video, lapidi e graffiti urbani...tutto ciò
potrebbe apparire agli occhi di un ipotetico archeologo del futuro come
un corpus frammentario di preziosi "geroglifici"(sacre incisioni) che
tanto più sembra riassumere lo "spirito di un'epoca", quanto più se ne
sia smarrito il senso immediato, il significato contestuale e letterale, al
punto da poterlo leggere, con sguardo straniero, come un'arcana
sequela di segni puramente analogici, tracce significanti e tuttavia
insondabili.
3) Fotografia e collage
Il vasto e fecondo tema della Foto-Grafia (Albe Steiner) si arricchisce
oggi di ulteriori spunti critici legati alle più recenti opportunità tecniche.
Il taglio dell'inquadratura è un elemento compositivo essenziale sia per
il fotografo che per il grafico multimediale. L'inesperto tende ad eludere
la necessità di questo "taglio", a mettere tutto in scena, a non utilizzare
le potenzialità comunicative del fuoricampo. A volte, per verificare la
leggibilità di un testo, il grafico ricorre all'espediente di coprire (tagliare)
la metà inferiore delle lettere. L'inquadratura fotografica impone sempre
alla nostra immagine del reale una sorta di analoga prova di
riconoscibilità del segno iconico.
Ma in genere l'interesse estetico di una foto sta proprio nell'effetto
décadrage (disinquadratura) che produce rispetto alle convenzioni
pittoriche, ai canoni tradizionali della rappresentazione figurativa.
E occorre saper trasformare questo limite dell'inquadratura in una
deliberata selettività dello sguardo. La logica indiziaria del fotografico
attraversa tutta l'arte del nostro tempo. Scrittura "automatica" mediante
la luce: il procedimento fotografico ha introdotto la categoria estetica
dello straniamento tecnologico, costituendo il paradigma storico di ogni
successivo rapporto tra arte e tecnologia.
Stampa a contatto, fotomontaggio, collage: le avanguardie artistiche
hanno prefigurato l'orizzonte di una scrittura iconica che va ben oltre il
più consueto utilizzo in chiave documentaria della fotografia. Oggi,
tuttavia, bisogna anche porre il problema etico di un possibile uso
disonesto e mistificatorio della manipolazione digitale.
(Cfr. Albe Steiner, Foto-Grafia. Ricerca e progetto, Laterza, Bari 1990).
4) Immagini in sequenza
Il racconto di una storia mediante un numero necessariamente limitato
di inquadrature chiave o immagini salienti pone in gioco le ormai
consolidate acquisizioni linguistiche del montaggio cinematografico, ma
a queste si possono aggiungere quelle ulteriori modalità di transizione
31
tra un'immagine e l'altra che in parte provengono dal cinema
sperimentale o d'avanguardia, nonché dalle tecniche d'animazione
tradizionali, ma per altri versi presumono ulteriori artifici o effetti retorici
introdotti a partire dalle tecniche elettroniche e informatiche più recenti.
Il facile utilizzo delle nuove tecniche di post-produzione, consente ad
esempio di giustapporre all'interno della stessa inquadratura diverse
fasi di svolgimento dello stesso evento, come ha mostrato
esemplarmente Greenaway nel suo Dante's Inferno. Chi opera nei
media a sviluppo temporale deve dunque conoscere l'intero arco di
queste possibilità espressive.
5) Il movimento del corpo
L'importanza del movimento, in particolare di quello relativo alla
percezione corporea, quindi al senso cinestetico, tende ad essere
sottovalutata da chi opera nel campo della comunicazione visiva.
Si tratta bensì di un fattore essenziale anche nel determinare il nostro
orientamento nello spazio, dunque il coordinamento e l'efficacia stessa
delle nostre azioni. I movimenti e i ritmi corporei rivestono inoltre un
ruolo importante nella sfera auditiva o dell'estetica sonora. Lo studio del
movimento è ancora oggi una premessa di molte pratiche espressive.
L'arte moderna, una volta acquisita sul piano del sapere accademico la
morfologia dinamica del corpo umano (la cosiddetta anatomia artistica),
si è potuta concentrare nel '900, grazie al cinema, sul flusso reale del
movimento corporeo, all'inizio mettendolo spesso in relazione con le
metalliche durezze e la geometrica potenza della metropoli
paleoindustriale, ovvero con la cinetica delle macchine (l'universo
meccanico dell'industria pesante), in seguito sviluppando una ricerca a
partire da quel Fluxus multisensoriale ininterrotto che scorre nel sistema
nervoso dell'informazione "in presa diretta", condizione evidenziata oggi
esemplarmente, su scala planetaria, dalla versione digitale del
dispositivo elettronico, dal carattere sempre più avvolgente dell'ecosfera
mediatica. Nell'epoca del cyberspace il discorso appare quasi
capovolto: ora sono le macchine ad assomigliare sempre più ad un
organismo vivente.
In ogni caso, anche nel più recente immaginario dell'animazione
digitale, la dimensione del movimento resta sostanzialmente
antropomorfa: tutto ciò che si muove in qualche modo ci somiglia.
6) Colore ed emozione
Un aspetto che non ho trattato, ma che va comunque ritenuto
essenziale nel determinare la qualità della comunicazione visiva, è
quello relativo all'uso espressivo del colore. Le persistenti ricerche in
campo pittorico dell'arte odierna restano un importante punto di
riferimento anche per il progettista multimediale. L'implicita vocazione
espressionistica, chiamata in causa da ogni poetica tendente a
privilegiare l'impatto corporeo della sensazione cromatica (coinvolgente
32
in modo palese la più intima sfera emozionale dell'individuo), rispetto
alla neutra riflessività del puro concettualismo, ha sempre fatto nell'arte
da necessario contrappunto ad ogni rigoroso "primato del disegno" (o
della linea) tipico, ad esempio, dell'approccio costruttivista, in quanto
interessato più ai sostantivi (l'oggettività delle strutture portanti) che agli
aggettivi (sensazioni ed emozioni contingenti, legate a mutevoli risposte
soggettive).
La vaghezza del pittorico, insomma, in quanto opposta alla chiarezza
del lineare. Ma in pittura il colore è stato pure analizzato con fredda
precisione, com'è noto, a partire dal post-impressionismo di Seurat.
Scomposto nelle sue componenti primarie alla luce di una visione
razionale, scientifica, come quella della moderna psicologia della
percezione. Al punto che oggi, del colore, se ne può certo fare un uso
assai consapevole: non solo, quindi, come esito di una personale
attitudine o sensibilità espressiva, ma come scelta strategica che può
essere persino calibrata su presunte attese intersoggettive o sulle
esigenze psicologiche di un nostro ipotetico destinatario.
7) Linea del tempo
Richiamerò l’attenzione sulla nozione di timeline, ritenuta molto
importante per definire non solo l'orientamento nel tempo delle
sequenze audiovisive, ma anche per le numerose implicazioni teoriche
relative a quelle forme simboliche che, nelle diverse culture, segnano le
più comuni modalità di rappresentazione del divenire, dunque
l'immagine convenzionale della storicità degli eventi (l'idea stessa di
"storia") in un determinato contesto antropologico. Che cosa sia il
tempo, il flusso del divenire in quanto tale, è certo una complessa
questione ontologica, una dimensione originaria dell'esperienza difficile
da definire senza uno spazio di riferimento o in assenza di un qualche
orizzonte culturale, filosofico (nonché, forse, "poetico") in base a cui
orientarsi.
8) Tecniche come linguaggi
Così come le forme della scrittura dipendono anche dagli strumenti
utilizzati per scrivere, le nuove tecniche della grafica, benché tendenti
alla simulazione delle procedure già collaudate, richiedono l'invenzione
di nuovi linguaggi. Occorre non solo fare qualcosa che non sia stato già
fatto, ma spesso anche reinventare il modo di fare, ad esempio,
trasformando gli eventuali problemi tecnici in opportunità espressive,
oppure rinunciando, se è il caso, a delle possibilità tecniche, quando
queste non trovano un’adeguata giustificazione in termini di linguaggio.
Il compito di un autore è allora quello di saper interpretare le inedite
potenzialità espressive degli strumenti che, di volta in volta, si trova ad
affrontare.
9) Messaggi multisensoriali
33
Per trarre le opportune conseguenze pratiche dal nostro discorso sulle
tre sequenze parallele, suggeriamo di affrontare un tema, un problema
comunicativo qualunque, cominciando sempre con l'impostare una
mappa delle idee. Al centro della mappa si metterà dunque l'idea-guida,
l'argomento da sviluppare. Da questo centro faremo partire tre linee che
indicheranno le nostre ormai ben note categorie sensoriali (visiva,
auditiva, cinestetica). Le tre linee ci collegano, in sostanza, con tre
contenitori (le categorie, appunto).
Da ogni contenitore, che nella mappa può essere rappresentato come
un cerchio, si dipartono a loro volta un certo numero di grappoli
associativi.
In altri termini, lo stesso tema solleciterà in noi una serie di libere
associazioni, ma l'importante è sviluppare questi concetti in forme
concrete, tenendo cioè presenti le possibili implicazioni "estetiche" per
ciascuna delle tre modalità sensoriali dominanti. Solo dopo aver
costruito la mappa potremo eventualmente procedere all'impostazione
di un percorso sequenziale univoco (come quello, per intenderci, di uno
storyboard tradizionale), stabilendo altresì un più preciso parallelismo
fra le tre colonne previste dal metodo (video, audio, azioni).
10) L'impronta del soggetto
Ovvero le strategie di auto-rappresentazione: la traccia, il riflesso
speculare o la mappa con cui un autore mette in sigla se stesso, anche
quando non intende proporre esplicitamente la propria opera come un
vero e proprio autoritratto. Ciascuno di noi lascia, che lo voglia o no, le
proprie impronte digitali in quel che realizza operando in un certo modo.
La messa in scena della singolarità di un soggetto è un tema chiave
della ricerca artistica (l'artista si esprime sempre in prima persona, in
quanto soggetto idealmente "autonomo"), ma è anche un tema del
Design quando si tratta d'interpretare visivamente la "personalità" di
una complessa organizzazione (un'azienda, una rete TV, un ente
pubblico) come se questa fosse, appunto, una persona.
Nel campo delle strategie di Corporate Design o immagine coordinata,
la definizione di cosa sia l'impronta di un soggetto diventa, se possibile,
ancora più complicata che nelle pratiche artistiche cosiddette
autonome. Problema teorico che il progettista non può ignorare. Egli,
infatti, si trova in quella che abbiamo definito una "meta-posizione": non
si esprime, come l'artista, in quanto singolo autore, ma per conto di
qualcuno o di qualcosa. Tuttavia, anche la soggettività del designer non
può non lasciare qualche impronta...
34
INTRODUZIONE ALLA COMPUTERGRAFICA
TRIDIMENSIONALE
Nel 1987 fece per la prima volta la sua comparsa su un personal
computer un programma che permetteva a chiunque di creare le
proprie immagini "sintetiche" (opposte cioè a quelle naturali) anche se a
costo di fatica e dedizione. Il programma era Sculpt 3D, il computer era
l'Amiga, e con poco più di un milione di lire di allora si poteva iniziare ad
esplorare il mondo del "ray-tracing", producendo magari un'immagine al
giorno.
Oggi, con l'equivalente di quell'investimento, si possono realizzare
opere di complessità enormemente superiore, sfruttando software
sempre più facili ed intuitivi da usare, e computer capaci di produrre
centinaia di immagini al giorno.
Non può stupire quindi la proliferazione di una nuova generazione di
artisti ed aspiranti tali, che fanno del computer il loro strumento
d'elezione.
Naturalmente il calcolatore non crea nulla da solo, ma rappresenta uno
strumento di potenza inaudita, una sorta di leva capace di sollevare
l'artista dai compiti più gravosi permettendogli di focalizzare l'attenzione
su ciò che più conta: l'Opera.
Le basi della tecnica
Partiamo quindi da quella che è ancora oggi la pietra angolare delle
immagini di sintesi: la rappresentazione poligonale.
Per far comprendere al calcolatore concetti come spazio e forma è
ovviamente necessario esprimerli con precisione e semplicità.
Uno dei primi metodi impiegati e' stato la rappresentazione per poligoni,
e specialmente per triangoli (il triangolo è il più semplice tra i poligoni).
Volendo istruire il computer a disegnare un singolo triangolo nello
spazio è sufficiente indicargli la posizione dei tre punti corrispondenti ai
vertici e come questi siano connessi tra loro da linee.
Queste informazioni possono essere fornite in molti modi ma il più
consueto, che ricorda la tecnica delle proiezioni ortogonali, prevede
l'uso di tre viste separate, che rappresentano rispettivamente il sopra, il
davanti ed il lato dell'oggetto che desideriamo descrivere.
Una volta in possesso delle coordinate, la trasformazione prospettica
permette al calcolatore di creare una quarta vista, detta appunto
prospettica o tridimensionale, che colloca la figura geometrica nello
spazio.
Adoperando più punti è possibile rappresentare figure sempre più
complesse, pur mantenendo lo sforzo dell'operatore al minimo.
Naturalmente la rappresentazione per linee, detta wireframe (a fil di
ferro), ha i suoi svantaggi: per un ben noto effetto ottico non e' sempre
35
facile individuare la prospettiva corretta e talvolta una parte che
dovrebbe sporgere ci sembra rientrare e viceversa.
Una prima soluzione e' quella di adottare una vista con rimozione delle
linee nascoste, in questo modo l'immagine precedente appare più
chiara e comprensibile e possiamo iniziare ad apprezzarne la natura
tridimensionale.
Il computer, è in grado di stabilire come disegnare l'immagine in modo
che i nostri occhi la percepiscano immediatamente come dotata di
spessore.
Il successivo miglioramento nella resa dell'immagine si ottiene
introducendo un altro elemento fondamentale: la luce.
Sappiamo tutti per esperienza come la luce ci fornisca informazioni su
di un oggetto: se è lucido o ruvido, se è solido o trasparente, se è
morbido o se è duro... possiamo stabilire questo e molto altro
semplicemente guardando come esso riflette la luce.
Procedendo all'inverso possiamo anche determinare dove si trova la
luce semplicemente osservando come essa cade sull'oggetto, come ne
disegna i contorni e in quale direzione proietta le ombre.
Poiché è sempre la luce che scolpisce le forme davanti ai nostri occhi,
possiamo istruire il computer ad imitare il comportamento della luce
quando è chiamato a tracciare una superficie curva.
La prima tecnica di interpolazione introdotta nel campo della computer
grafica che porta il nome del suo inventore è il "Gouraud Shading"
(shading = ombreggiatura). L'immagine appare immediatamente più
morbida dove serve, più realistica.
Purtroppo anche questa tecnica risente di difetti (la natura dei quali
esula da questa introduzione, ma che si manifestano come bande
discontinue di colore) e questo ha portato un altro ricercatore, Bui
Tuong Phong, alla realizzazione del metodo noto come "Phong
Shading" usato ancora oggi nella maggioranza dei software 3D.
Il risultato, è senz'altro migliore, ed in più mostra un effetto collaterale di
questa tecnica detto "colpo speculare".
Il colpo speculare è quel punto più luminoso che appare sugli oggetti (in
pratica è il riflesso della fonte di luce) fornendo importanti informazioni
alla nostra mente sul materiale di cui è composto l'oggetto e sulla
posizione delle fonti di luce.
Sebbene sia più costoso (in termini di tempo) ed offra risultati migliori,
anche il Phong Shading è un’approssimazione empirica delle leggi
fisiche che governano l'illuminazione, ed i risultati sono ben lontani da
quelli offerti da algoritmi più sofisticati e più lenti quali "Radiosity" che
considera la luce per quello che è: energia.
Confrontato pero' ad un algoritmo assai più lento e reputato da molti
migliore, ovvero il ray-tracing, il Phong Shading e le sue infinite varianti
si dimostrano un eccellente strumento capace di creare immagini
estremamente realistiche.
36
Verso il fotorealismo
Finora abbiamo visto solo oggetti semplici, geometrici, e modelli di
illuminazione applicati crudamente sulle superfici.
Esistono però numerosissimi metodi per abbellire e rendere più
realistiche le immagini; è possibile infatti modellare qualsiasi forma
partendo dai triangoli, non solo figure rigidamente geometriche.
Una parte importantissima dei software di grafica tridimensionale è il
"modellatore", ovvero il modulo dedicato alla costruzione ed alla
modifica degli oggetti.
Un buon modellatore permette di tagliare, incollare, tornire, perforare, e
comunque modificare un oggetto esattamente come si potrebbe fare in
un’officina con materiali reali, offrendo in più possibilità di deformazione
e manipolazione che non hanno equivalenti nel mondo reale.
Il "texture mapping", invece, permette di "dipingere" gli oggetti tanto con
immagini reali acquisite mediante digitalizzatori e scanner, quanto con
sofisticate procedure matematiche che simulano le proprietà di certi
materiali.
La resa dell'immagine è decisamente più realistica e credibile rispetto a
quella dell'oggetto colorato uniformemente, ed anche qui la natura
virtuale del procedimento risparmia all'artista ore di lavoro.
Se si è insoddisfatti dal risultato è sufficiente applicare un altra
immagine scegliendola dalla lista di quelle disponibili.
Altri generi di abbellimento sono quelli che simulano una o più
caratteristiche particolari del mondo reale: nebbia, rifrazione,
diffrazione, aberrazioni ottiche, pioggia, erosione...
Alcuni di questi effetti sono ottenuti mediante varianti del texture
mapping, altri con una tecnica detta dei "sistemi di particelle", nella
quale milioni di piccoli puntini creano forme soffici nell'universo
tridimensionale, altri effetti ancora si avvalgono della geometria frattale
per riprodurre il caos della natura. In realtà l'unico elemento di rilievo è
quanto bene questi effetti approssimino l'immagine reale che vogliono
simulare, e l'unica certezza
-potremmo definirla la prima legge della computer grafica- è che quanto
migliori saranno i risultati tanto maggiore sarà il tempo impiegato dal
computer per ottenerli.
37
L’EVOLUZIONE DELL’IMMAGINE DIGITALE
Sulle due pietre miliari che segnano l’inizio del matrimonio tra bit e
celluloide gli esperti sono tutti d’accordo: 2001 Odissea nello spazio
(1968) di Stanley Kubrick e “Guerre stellari” (1977) di George Lucas.
Nell’odissea di Kubrick fece il suo esordio il motion control, un sistema
computerizzato per sincronizzare i movimenti della cinepresa e degli
elementi scenici che è alla base degli effetti visivi moderni. Mentre il film
di Lucas va ricordato non fosse altro perché in quell’occasione il regista
fondò l’Industrial Light & Magic, che oggi è uno dei templi assoluti degli
effetti speciali.
Per le magie digitali vere e proprie bisogna aspettare gli anni Ottanta,
quando i supercalcolatori diventano abbastanza potenti ed economici.
Così nascono, nel 1982, Tron, dove compaiono immagini di computer
graphic simili a quelle dei videogiochi, e Star Trek, l’ira di Khan, con la
prima scena realizzata interamente al computer: il ritorno alla vita di un
intero pianeta morto. Poi, nel 1988, esce Chi ha incastrato Roger
Rabbit di Robert Zemeckis, dove trionfa la tecnica del blue screen: gli
attori sono ripresi su uno sfondo blu o verde, “ritagliati” al computer e
mescolati ai cartoni animati. Undici anni dopo i fratelli Wachowsky
utilizzeranno la stessa tecnica per Matrix, dove Keanu Reeves salta dai
grattacieli e corre sui muri grazie agli sfondi creati al computer.
Negli anni Novanta gli effetti digitali, ormai, non servono solo per i film
di fantascienza: permettono di creare scene “impossibili” ma del tutto
realistiche. Ecco allora che in Forrest Gump (1994) Tom Hanks può
stringere la mano a John Kennedy, o partecipare ad un talk show con
John Lennon. In questo caso, oltre al collage digitale, i computer hanno
abbassato la qualità dell’immagine di Hanks per uniformarla alle riprese
televisive d’epoca. All’altro estremo, arrivano i lungometraggi
interamente al calcolatore. Leader è la Pixar con la serie di Toy story.
Ma tra gli effetti digitali più riusciti ci sono senza dubbio le fantastiche
creature solido-liquide di The Abyss o di Terminator II, in cui il computer
genera le caratteristiche di materiali che non esistono in natura. E nel
caso del terribile cyborg T-1000 di Terminator, gli animatori hanno
anche dovuto rendere credibile il movimento di un corpo umano
generato al computer. Il fatto è che siamo geneticamente programmati
per riconoscere i nostri simili e ingannare il nostro occhio non è facile.
Un modo è di utilizzare la motion capture, cioè riprendere un attore vero
che si muove con spot luminosi piazzati in alcuni punti particolari, come
le articolazioni, il bacino, la testa e così via. Questi punti servono poi
come riferimento per costruire un’immagine digitale dai movimenti
realistici.
Anche “Titanic” è popolato di centinaia di controfigure digitali, come i
passeggeri che cadono dalla nave che affonda. In questo caso
Cameron ha utilizzato il key framing: uno stuntman viene ripreso mentre
38
compie un balzo di pochi metri. I fotogrammi servono poi come punti
chiave della sequenza definitiva, mentre lo spazio tra un fotogramma e
l’altro viene riempito dal computer. E se comparse e controfigure
possono ormai essere sostituite dai loro emuli di bit, gli esperti
assicurano che presto potrebbe toccare anche agli attori protagonisti. I
maghi della computer graphic sono già al lavoro sui primi sythespian o
v-actors, star virtuali cui affidare ruoli veri e propri.
39
II PARTE: Making of
40
2001: A SPACE ODISSEY
Stanley Kubrick, 1968
Il 2 Aprile 1968, a Washington, fu proiettata la prima di 2001 Odissea
nello spazio. Quattro anni di lavorazione, per il costo complessivo
(allora rilevante) di 11 milioni di dollari: un film che cambiò il modo in cui
la civiltà occidentale guarda al futuro. Stanley Kubrick diresse, produsse
e co-sceneggiò il film insieme ad Arthur C. Clarke, scrittore di punta del
genere science-fiction. Kubrick era determinato a fare di 2001 Odissea
nello spazio il film tecnicamente più realistico mai realizzato. Mentre
molti film di fantascienza di quel periodo illustravano mondi impossibili
ambientati in un lontano futuro, Kubrick provò ad immaginare come le
cose sarebbero potute andare nel giro di qualche decennio. Basandosi
sulle valutazioni e sulle previsioni di consulenti industriali e scientifici, e
consultandosi con la NASA, il film risultò realmente credibile.
Inizialmente attaccato dai critici per la sua fine ambigua (la nascita del
bambino dello spazio che può rappresentare il super-uomo del futuro),
2001 è poi stato riconosciuto come una delle più grandi imprese
dell'immaginazione filmica. Nel film, il computer principale della
navicella spaziale, Discovery, gioca un ruolo centrale. Originariamente
chiamato "Athena", il computer in seguito, grazie al supporto dell’IBM
(che fornì il design della macchina), divenne un modello IBM. Ma
quando la sceneggiatura cambiò e il computer da amichevole divenne
malvagio, l'IBM chiese che il suo nome fosse rimosso dal film. Il nome
IBM, infatti, fu cambiato con HAL, ottenuto sostituendo ad ogni iniziale
del nome IBM la lettera che la segue nell'alfabeto.
Il film si apre su un paesaggio preistorico. Alcune scimmie vivono
pacificamente in branchi fino a quando, per una strana congiunzione
astrale, combinata con la presenza di un monolite nero, uno dei primati
intuisce il possibile uso di un osso come arma. Sono passati quattromila
anni, l'uomo ha raggiunto lo spazio e vi compie dei viaggi. Sulla base
lunare Clavius viene scoperto un misterioso monolite nero dall'origine
sconosciuta, posto in una congiunzione astrale con il pianeta Giove.
Viene deciso di mandare una spedizione di ricerca composta da alcuni
astronauti (in parte operanti e in parte ibernati) a bordo dell'astronave
Discovery, comandata da un sofisticatissimo cervello elettronico, HAL
9000. Durante il viaggio, il computer provoca un guasto che causa la
morte di tutti gli uomini, eccetto che del comandante Bowman che, non
senza fatica, riesce a disattivarlo. L'astronave, arrivata nei pressi di
Giove, finisce dentro ad una sorta di paradosso spazio-temporale, in cui
Bowman si vede vecchio e morente e, successivamente, feto astrale
destinato alla rinascita.
Questo film riveste una grande importanza nell’analisi e nella riflessione
sull’uso degli effetti speciali digitali nel cinema.
41
Pur non avendo al suo interno effetti di sintesi si nota un’ossessiva
ricerca della perfezione formale dell’opera al fine di conseguire
un’assoluta credibilità visiva.
Kubrick mette in scena un nulla da visualizzare attraverso un linguaggio
cinematografico che ripercorre la sua stessa storia, reinventando una
semiotica visiva, no solo del “genere SF”, ma anche del sistema di
concepire le immagini.
L’opera di Stanley Kubrick si colloca in una sintesi tra quanto insegnato
dal “cinematografo” e la potenzialità del cinema d’oggi, ponedosi come
nuovo segno nella storia del cinema, come referente obbligato per tutte
le storie che richiederanno l’uso degli effetti speciali.
2001: Odissea nello spazio è una superproduzione che impegnò in tre
anni e mezzo di lavorazione circa dieci milioni di dollari per realizzare
612 inquadrature e 205 effetti, girati in diciotto mesi di lavorazione, negli
studi di Borehamwood, situati nei pressi di Londra e ritenuti nel 1965 i
più attrezzati d’Europa.
Per Stanley Kubrick era importante ottenere attraverso gli effetti del film
un’illusione di realtà totale, proiettare gli spettatori in un infinito del
quale nessuno potesse dire che “è sol un trucco”.
Gli interventi e la creatività di Douglas Trumbull, (candidato all’Oscar
nel 1982 per gli effetti speciali di Blade Runner), furono determinanti per
la risoluzione di effetti e l’invenzione di nuovi sistemi di ripresa, come la
slit-scan, grazie al quale fu resa possibile la straordinaria sequenza del
corridoi di luci.
Questa tecnica afferma Trumbull, consente di ottenere due piani di
esposizione apparentemente infiniti con una profondità di campo da
una distanza di quindici piedi a un pollice dall’obiettivo, con un apertura
di diaframma F/1.8 e con un’esposizione di circa un minuto per
fotogramma usando una macchina da presa Mitchell 65 mm.
E’ come fotografare i fari di un’automobile che avanza nella notte con
l’otturatore aperto. La lunga esposizione produce un effetto di striscia
luminosa.
Se le luci dell’auto vengono spente e accese, cambiano di colore
durante l’esposizione, e la qualità e l’intensità delle strisce luminose si
modifica.
Quest’effetto ottico, prelude già alle future forme e sorgenti luminose
generate dalla computergrafica, suggerendo quindi un modello che
verrà imitato e rielaborato dai nuovi mezzi in tutti i modi possibili.
La ripresa avviene attraverso una fessura praticata su un piano posto
davanti alla macchina da presa, in grado di ruotare davanti a una
stampa illuminata mossa verso l’obiettivo durante ogni esposizione.
I movimenti programmati causano distorsioni controllate delle immagini.
Tutti questi movimenti avvenivano automaticamente, in modo tale che
l’apparecchiatura potesse ripetere gli stessi passaggi con assoluta
perfezione.
42
Si può quindi affermare che la slit-scan, costruita a Borehamwood è
senz’altro il precursore di tutti i sistemi di ripresa controllati
elettronicamente che avrebbero preso piede negli anni Settanta.
Nel 1969 Kubrick vince con 2001: Odissea nello spazio l’Oscar per gli
effetti speciali grazie anche al team dei supervisori agli effetti che fu
determinante e i cui nomi sono: Douglas Trumbull, Wally Veevers,
come capo della parte effetti speciali degli Shepperton Studio si occupò
dei modelli.
Tom Howard (Oscar per gli effetti speciali del film Blithe Spirit,1946, e Il
ladro di Bagdad di George Pal,1959), diresse il reparto degli effetti
ottici.
Uno dei production designers era Harry Lange, che aveva collaborato
per diversi anni con la Nasa visualizzando con il suo talento d’artista le
possibili esplorazioni spaziali future.
43
Produzione e Regia:
Stanley Kubrick
Sceneggiatura:
Stanley Kubrick, Arthur C. Clarke, tratto dal racconto "La sentinella" di
Arthur C. Clarke.
Fotografia:
Geoffrey Unsworth
Fotografia addizionale:
John Alcott, girato in Super Panavision, presentato in Cinerama, Color
Metrocolor
Effetti speciali e fotografici:
Stanley Kubrick
Supervisori agli effetti speciali fotografici:
Wally Veevers, Douglas Trumbull, Con Pedereson, Tom Howard
Scenografia:
Tony Masters, Harry Lange, Ernie Archer
Direzione artistica:
John Hoesli
Costumi:
Hardy Amies
Musica:
Richard Strauss, Johann Strauss, Aram Khachaturian, GyorgyLigeti
Suono:
Winston Ryder
Montaggio:
Ray Lovejoy
Prodotto da:
Metro-Goldwyn-Mayer
Origine:
USA
Durata:
141'
Distribuzione cinematografica:
Metro-Goldwyn-Mayer, Films Incorporated/16
PERSONAGGI E INTERPRETI:
Keir Dullea (David Bowman), Gary Lockwood (Frank Poole), William
Sylvester (Dr. Heywood Floyd), Daniel Richter (Moon-Watcher),
Douglas Rain (Voce di HAL), Leonard Rossiter (Smyslov), Margaret
Tyzack (Elena), Robert Beatty (Halvorsen), Sean Sullivan (Michaels),
Frank
Miller (Mission Control), Penny Edwina Carroll, Mike Lovell, Peter
Delman, Dany Grover, Brian Hawley
44
STAR TREK 2: THE WRATH OF KHAN
Nicholas Meyer, 1982
Nicholas Meyer dirige con mano sicura questo capitolo della saga
fantascientifica più amata da tutti i tempi, ed è un successo.
Riccardo Montalban interpreta la parte del malvagio Khan Noonien
Singh, che ha sottratto la formula del progetto “Genesis” concepito e
sviluppato dall’ex-compagna di Kirk e dal suo legittimo figlio, ed intende
usarla a fini non proprio umanitari; ma grazie al sacrificio di Spock
l’equipaggio dell’Enterprise e la nave riescono a sottrarsi all’imminente
distruzione.
…L’Enterprise fa rotta verso la stazione di Regola Uno e Kirk convoca
nella sua cabina spock e Mc Cay per mostrare loro che cosa è il
Progetto Genesis.
Per fare questo egli si collega con l’archivio della Federazione dove gli
viene richiesta la prova vocale e l’esame della retina; quindi sullo
schermo appare un filmato nel quale la dottoressa Marcus illustra per
mezzo di filmati computerizzati la finalità del progetto, (è la prima volta
che un’intera sequenza computerizzata viene realizzata appositamente
per un film).
Carol: “ Cos’è esattamente Genesis? Beh, per semplificare Progetto
Genesis è la vita dall’essenza di vita.
E’ un processo in cui la struttura molecolare è riorganizzata al livello
subatomico nella materia che genera la vita di uguale massa.
Lo Stadio Uno dell’esperimento è stato condotto in laboratorio, lo Stadio
Due sarà sperimentato in una cultura in assenza di vita.
Lo Stadio Tre vedrà il processo tentato su base planetaria.
E’ nostra intenzione introdurre il dispositivo Genesis in una zona
preselezionata di un corpo spaziale privo di vita, una luna o un altro
pianeta inanimato.
Il dispositivo viene azionato provocando istantaneamente quello che noi
chiamiamo Effetto Genesis.
La materia viene riorganizzata e il risultato è una rigenerazione vitale.
Invece di una luna morta avremo un pianeta vivente che respira,
capace di mantenere qualsiasi forma di vita decidessimo di depositare.
”
Spock: “ E’ letteralmente la genesi, ammiraglio ”.
Kirk: “ La forza della creazione ”.
Genesis Effect Demo è un minuto di effetti speciali generati al
computer.
Nella sequenza del film la macchina da presa segue nel cosmo la
Genesis-bomb (l’esplosione della natura) che vola verso il pianeta
morto: una detonazione della superficie, poi fiamme e cataclismi che
mutano l’aspetto del pianeta; si formano oceani e continenti, mentre la
45
macchina da presa mostra in un impressionante volo la genesis del
mondo, per allontanarsi poi da quella nuova terra.
La realizzazione dell’Effetto Genesis fu a cura della Pixar Computer
Animation Group, che in quel periodo era la Computer graphic Division
della Lucas film Ltd.
La Pixar sviluppa tre nuove importanti tecniche di computergrafica,
usate per conferire maggior realismo alle immagini: fractal surface,
particle system e digital compositing.
Fractal surfaces, (usato in questo caso per modellare le montagne) e i
particle System, (usati per modellare il fuoco), infine sono state inserite
texture e bump mapping.
I modelli geometrici di questi oggetti sono generati automaticamente dal
computer usando semplici funzioni di probabilità per determinare la loro
forma evitando così la descrizione lunga e snervante di ogni dettaglio.
Con la funzione di probabilità si può inserire nel computer una
descrizione di questo tipo: “ Normalmente una montagna è come ”, e il
computer crea qualcosa di nuovo e interessante con parte di tutte le più
importanti caratteristiche.
46
Regia:
Nicholas Meyer
Sceneggiatura:
Jack B. Sowards
Fotografia:
Gayne Rescher, A.S.C.
Scenografia:
Joseph R. Jennings
Musica:
James Horner
Montaggio:
William P. Dornisch
Prodotto da:
Robert Sallin
(USA, 1982)
Durata:
108'
Distribuzione cinematografica:
U.I.P.
PERSONAGGI E INTERPRETI
James T. Kirk: William Shatner
Spock: Leonard Nimoy
Dr. McCoy: DeForest Kelley
Hura: Nichelle Nichols
Pavel Checov: Walter Koenig
Scott: James Doohan
Hikaru Sulu: George Takei
Khan Noonien Singh: Ricardo Montalban
Saavik: Kirstie Alley
Terrell: Paul Winfield
47
TRON
Steven Lisberger, 1982
La Walt Disney insieme al regista Steven Lisberger incoraggiati dal
successo riscosso dai videogiochi, creano un film dedicato alla
computergrafica tipica del videogioco.
Tron il cui nome deriva dal vocabolo electron, rappresenta il mondo
gelido dell'informatica.
L’intelligenza umana si confronta con un universo apparentemente
perfetto, e la lotta contro il potere della tecnologia emerge ancora una
volta attraverso le sequenze di questo film.
Il regista Steven Lisberger, nella rappresentazione di un accecante e
gelido mondo elettronico, insinua il timore della perdita d’identità
dell’uomo asservito ad un domani totalmente informatizzato.
In Tron si vive lo scontro tra due universi: quello dei creativi e quello dei
programmatori; un viaggio allucinante all’interno di memorie e circuiti
elettronici.
Al centro della vicenda di Tron c’è Flynn, un esperto di elettronica che
gestisce una sala giochi e che è stato derubato dei suoi programmi
originali da Dillinger.
Dillinger è a capo della Encom una fabbrica di apparecchiature
elettroniche e software, ma chi realmente dirige la Encom è MPC
(Master Control Program), un elaboratore dalle incredibili potenzialità.
Flynn, aiutato da due ricercatori, Alan e la fidanzata Lora, tenta di
violare le memorie di MPC.
Il computer li disintegra, risucchiandoli nel suo universo elettronico.
Flynn ora si chiama Clu, e i suoi amici, Alan e Lora, Tron e Yori.
Dopo una lunga lotta riusciranno a distruggere la memoria centrale
dell’elaboratore e a tornare nella dimensione reale
Tron si propose al pubblico come un film dominato dalla presenza delle
immagini sintetiche, anche se per buona parte delle sequenze non si
trattava ancora di vera e propria animazione digitale, ma piuttosto di
massicci interventi di computergrafica all’interno dei singoli fotogrammi,
che venivano modificati uno a uno con la tecnica del rotoscoping.
Gli attori sono vestiti con tute bianche sulle quali sono state disegnate
linee nere per rappresentare i circuiti del computer, filmati su fondo nero
(il design dei costumi ha ricevuto una nomination all’Oscar) e le
architetture disegnate da fasci di luce (tipo tubi al neon), hanno
contribuito al successo del film.
Per produrre le necessarie immagini computerizzate furono contattate
diverse società: la Robert Abel & Associates, la Stargate Film, la Digital
Effects Inc. e la Magi-Synthavision.
L’elaboratore Mirage Quantel, ha creato le immagini computerizzate
elaborando immagini video.
48
Regia:
Steven Lisberger
USA, 1982
PERSONAGGI E INTERPRETI
Jeff Bridges.... Kevin Flynn/Clu
Bruce Boxleitner.... Alan Bradley/Tron
David Warner.... Ed Dillinger/Sark/Master Control Program (voice)....
Cindy Morgan Lora/Yori
Barnard Hughes.... Dr. Walter Gibbs/Dumont
Dan Shor.... Ram
Peter Jurasik.... Crom
Tony Stephano.... Peter/Sark's Lieutenant
Craig Chudy.... Warrior #1
Vince Deadrick Jr..... Warrior #
Sam Schatz.... Expert Disc Warrior
Jackson Bostwick.... Head Guard
David S. Cass Sr..... Factory Guard
Gerald Berns.... Guard #1 Bob Neill.... Guard #2
49
STAR WARS
George Lucas, 1977
La saga di Guerre Stellari
Il film ha un’importanza enorme nella storia dell’immagine digitale, in
quanto proprio per la sua realizzazione è stata fondata da George
Lucas la Industry Light + Magic, allo scopo di creare gli effetti speciali
per il film.
Il film ha richiesto quattro anni di lavoro di cui due dedicati alla
sceneggiatura.
“Con Guerre Stellari ho voluto realizzare la fiction hollywoodiana
classica, quella di vecchio tipo, tanto apprezzata dai ragazzi, e ho
voluto affrontare problemi tecnici molto complicati.”
“…Per l’Impero colpisce ancora abbiamo usato tutta l’elettronica
possibile…
…Con questo film abbiamo inaugurato il Duemila, evitato tutto quanto ci
poteva essere di meccanico o manuale nel processo di ripresa, e
abbiamo conseguito risultati particolari studiando con i computer le
reazioni dell’occhio umano al movimento e al colore.
Per questo motivo nel film si ha l’impressione di essere nello spazio e di
nuotare nei colori.”
“È quello a cui tendo, fare dei film che uno può consumare senza
preoccuparsi troppo di sapere bene la storia: musica visiva, immagini
musicali…”
“Perché voglio farlo con il cinema? Perché io sono soltanto immagini: io
sono l’immagine di Godard, di Mizoguchi, di Kurosawa, di Ford, di
Bergaman, diFellini.
Io non sono che immagini cinematografiche.
Io non sono io. Io sono il cinema di Welles…di Chaplin…di…di…”
Per Guerre stellari fu creato un laboratorio di modellismo in grado di
produrre veicoli spaziali perfetti nei più piccoli dettagli.
Per sequenze nelle quali non si possono creare scenari concepiti, si
ricorre al matte painting, una tecnica che consente di inserire
scenografie disegnate in una live action girata in studio, o in esterni
ripresi in parte per essere combinati insieme ai disegni
successivamente.
Questi disegni vengono realizzati spesso su vetro, con parti nere nelle
quali verrà inserita l’azione con gli attori.
Vengono usati colori a olio o acrilici per creare mondi fantastici in
lontane galassie, bizzarre architetture e qualunque visione suscitata
dalla più fervida fantasia.
In Guerre stellari sono stati utilizzati 13 matte painting combinate con la
live action, utilizzando il sistema della rear projection in un'unica scena.
50
Il sistema di rear screen projection è stato ampiamente usato con i
matte painting: dietro il disegno fatto su vetro viene sistemato un
proiettore. Si rimuove quindi dal vetro l’area di disegno in cui s’intende
proiettare la live action, e sulla finestra creata nella matte painting si
attacca un materiale che la trasforma in uno schermo traslucido. La
scena proiettata sull’area traslucida viene ripresa dal davanti combinata
con il matte painting.
Per Il ritorno dello Jedi, nel matte painting del villaggio degli Ewok,
furono proiettate in dodici punti diversi direttamente live action,
esponendo ripetutamente lo stesso negativo e oscurando le zone di live
action già impressionate.
L’inizio del film è una straordinaria fusione di live action e numerosi
matte painting, ci sono circa sette scene realizzate grazie a questa
tecnica combinata con riprese in miniatura attraverso le tecniche del
blue screen per creare una straordinaria ambientazione spaziale.
La sequenza del “briefing room” mostra le forze ribelli che studiano un
displey olografico della luna di Endor e della stazione spaziale Death
Star, (la Morte Nera), in costruzione attorno alla sua orbita, protetta da
un campo di energia che la nasconde ad occhi indiscreti.
William Reeves, della Pixar Computer Animation Group e Tom Duff,
degli AT&T Bell Labs, hanno realizzato l’effetto ologramma per la
sequenza del film.
Le immagini sono state realizzate con un Evans & Sutherland Picture
System calligraphic displey, sviluppato in linguaggio C con sistema Vax
11/750 (Digital Equipment Corporation).
Si può quindi filmare il tutto direttamente dal displey in formato
Panavision a 35 mm. La pellicola ad alto contrasto bianco e nero è
stata in seguito colorata e implementata con altri elementi visivi, girati
qualche tempo prima nel nord della California e in Gran Bretagna.
Lo story-board e il conceptual disegn sono di Joe Johnston della ILM.
Ogni fotogramma è composto da otto elementi filmati separatamente e
aggiunti alla live action. I matte painting sono stati usati per costruire il
paesaggio di Endor, i laghi, i continenti e il campo di forza che avvolge
la Morte Nera.
La scena si svolge in meno di 40 secondi ma, per preparare il tutto ci
sono voluti oltre quattro mesi di lavorazione.
Un elemento molto importante è rappresentato dalla corsa delle
navicelle di Luke Skywalker all’interno dell’astronave della Morte Nera,
poiché anticipa ciò che sarà inventato alla fine degli anni ottanta per i
videogame di simulazione di volo, creando nello spettatore
un’immedesimazione totale nell’oggetto volante attraverso una nuova
grammatica di ripresa, che aggancia la cinepresa e l’occhio dello
spettatore alla navicella spaziale.
Tale simulazione è molto più facile da realizzare oggi con le cineprese
virtuali usate per le immagini di sintesi, ma la possibilità di creare angoli
di visuale “digitali” è nata proprio con Guerre stellari.
51
RETURN OF THE JEDI
Regia:
Richard Marquand
Sceneggiatura:
Lawrence Kasdan, George Lucas (da un suo soggetto)
Fotografia:
Alan Hume, Jack Lowin, James Glennon
Scenografia:
Michael Ford, Harry Lange
Musica:
John Williams
Montaggio:
Sean Barton, Marcia Lucas, Duwayne Dunham, Arthur Repola
Prodotto da:
Howard Kazanjiam, Robert Watts, Jim Bloom
(USA, 1983)
Durata:
133'
Distribuzione cinematografica:
20TH Century Fox
PERSONAGGI E INTERPRETI
Luke Skywalker: Mark Hamill
Han Solo: Harrison Ford
Principessa Leila Organa: Carrie Fisher
Lando Calrissian: Billy Dee Williams
Ben Obi-Wan Kenobi: Alec Guinnes
C3PO: Anthony Daniels
R2D2: Kenny Baker
Chewbacca: Peter Mayhew
Darth Vader: David Prowse
Voce di Darth Vader: James Earl Jones
Yoda: Frank Oz (animazione e design)
Imperatore Palpatine: Ian Mcdiarmid
Anakin Skywalker: Sebastian Shaw
Boba Fett: Jeremy Bulloch
52
THE ABYSS
James Cameron, 1989
“Io l’ho toccato con le mie mani e…E non era come un oggetto che
avremmo potuto costruire noi! Scivolava…era la cosa più bella che
avessi mai visto…Era come una danza di luce.”
Pseudopode, questo è il nome con cui è stata definita la creatura, o
meglio l’esemplare più spettacolare e poetico realizzato dalla ILM.
Pseudopode è la fantasia, l’immaginazione non più mediata, ma
immediata dell’idea geniale di Cameron, che grazie all’uso delle
tecnologie digitali si rivela anche a noi in tutte le sue forme.
È una creatura fatta d’acqua, con la capacità di imitare i volti e i tratti
somatici dei personaggi umani venuti a contatto con il suo ambiente.
La tecnica per creare l’alieno è piuttosto complicata e l’Oscar per gli
SFX se lo sono proprio meritato.
I tecnici della Dream Quest e George Joblove della ILM hanno lavorato
per giorni su un computer per creare la figura del serpente d’acqua,
facendo in modo che sembrasse acqua ammassata insieme e non un
guscio di plastica trasparente con dell’acqua colorata.
Attraverso un software adeguato, è stata elaborata al computer
l’originale forma dell’essere, rivestito di una superficie mobile e
trasparente con sfumature colori e riflessi tutti programmati.
Sono state prese delle Scan Photo (fotografie passate allo scanner)
degli attori di cui Pseudopode avrebbe dovuto riprodurre i lineamenti e
sono state elaborate e processate con lo stesso trattamento, indi sono
state integrate in fase di montaggio con la live action.
George Joblove, della ILM, ha affermato: “La cosa più importante, dopo
questo film, è la dimostrazione più evidente di aver segnato il momento
più avanzato nell’uso della computergrafica, riuscendo a mettere
insieme tecniche diverse per offrire in tal modo ai registi nuove
possibilità per esprimere le loro fantasie.
53
Regia:
James Cameron
Usa, 1989
PERSONAGGI E INTERPRETI
Ed Harris.... Virgil "Bud" Brigman
Mary Elizabeth Mastrantonio.... Lindsey Brigman
Michael Biehn.... Lieutenant Hiram Coffey
Leo Burmester.... Catfish De Vries
Todd Graff.... Alan "Hippy" Carnes
John Bedford Lloyd.... Jammer Willis
J.C. Quinn.... "Sonny" Dawson
Kimberly Scott.... Lisa "One Night" Standing
Captain Kidd Brewer Jr..... Lew Finler
George Robert Klek.... Wilhite
Christopher Murphy (I).... Schoenick
Adam Nelson (I).... Ensign Monk
Dick Warlock.... Dwight Perry
Jimmie Ray Weeks.... Leland McBride
J. Kenneth Campbell.... DeMarco
54
TERMINATOR 2:JUDGMENT DAY
James Cameron, 1991
Immagini di un mondo futuro ove guerrieri umani sparano con armi
laser contro robot umanoidi.
La guerra imperversa senza tregua e dall’alto di una collina un uomo
osserva la battaglia.
Due Terminator vengono inviati sulla terra a ritroso nel tempo.
Il primo terminator (Arnold Swarzneger) è un modello T101, inviato sulla
terra dalla resistenza umana per proteggere il loro leader John Connor,
figlio di Sarah.
L’antagonista è un modello T1000 un prototipo avanzato, mandato sulla
terra per uccidere il ragazzo.
Dei lampi annunciano l’arrivo del varco spazio-temporale lasciando
apparire un modello Terminator che si impossessa di moto, abiti e fucile
e inizia la sua missione alla ricerca di John Connor.
Intanto un’auto della polizia giunge sul luogo dove sono state osservate
delle scariche elettriche e un poliziotto viene assalito dal secondo
Terminator (Robert Patrick), il quale prende possesso della sua
uniforme e del suo terminale sul quale compone la richiesta di indirizzo
del giovane Connor.
I due Terminator raggiungono John Connor contemporaneamente e si
fronteggiano mentre John, avvertito da un amico che un poliziotto lo
stava cercando, fugge a bordo della sua moto.
Più volte colpito dal Terminator, il T1000 con un elegante effetto di
morphing, assorbe i colpi e si getta all’inseguimento di John.
Il Terminetor riesce ad afferrare il ragazzo, caricandolo sulla propria
moto, un attimo prima che l’avversario sta per travolgerlo e i due si
allontanano velocemente verso la periferia della città.
John: “Non te la prendere storta ma…non sarai mica un Terminator?”
Terminator: “Sì. Cyborg High System Modello 101. Sono un organismo
cibernetico, tessuto vivente su endoscheletro metallico.”
John: “Che figata! …non sei qui per uccidermi, questo l’ho capito da
solo…Com’è la storia?
Terminator: “La mia missione è proteggerti”
John: “Ah sì? E chi ti ha mandato?”
Terminator: “Tu stesso 350 anni da ora. Tu mi hai riprogrammato per
essere il tuo protettore in questo periodo.
John: “Ah! …sempre più fico…ma allora quest’altro è un Terminator
come te!”
Terminator: “Non come me è un T1000 è un prototipo avanzato.”
John: “Cioè è più perfezionato?”
Terminator: “Sì. Lega polimetallico mimetica”
John: “Che cavolo significa?”
Terminator: “Metallo liquido.”
55
John: “ Dove stiamo andando?”
Terminator: “Dobbiamo uscire dalla città subito”
John: “ Io devo passare da casa, voglio prendermi della roba.”
Terminator: “Negativo.Il T1000 tenterà certamente di riprendere
contatto con te.
Quindi John telefona a casa ma non parla con sua madre, anche se la
voce è la sua.
In realtà e il T1000 che preso l’aspetto della madre adottiva, parla con
lui mentre uccide il padre trasformando la mano in un punteruolo
affilato.
John si accorge che qualcosa non va dal tono di sua madre, e capisce
che i suoi tutori sono stati uccisi.
Intanto all’ospedale psichiatrico di Los Angeles la polizia cerca di far
luce sull’accaduto, interrogando Sarah, (Linda Hamilton), la vera madre
di John, che è ricoverata con una diagnosi di sindrome schizzoaffettiva
acuta…È convinta che una macchina detta Terminator, un robot dalle
sembianze umane, sia stato inviato a ritroso nel tempo per ucciderla.
I poliziotti le mostrano delle fotografie, risalenti ad anni addietro quando
un “uomo” uccise degli agenti e distrusse una centrale di polizia; lo
stesso uomo è stato fotografato oggi mentre portava via suo figlio.
Sarah sconvolta decide di fuggire dall’ospedale dove nel frattempo è
giunto il T1000, che entra nella clinica psichiatrica e davanti alla
reception chiede di Sarah.
Pochi istanti dopo deve nascondersi prontamente poiché dei poliziotti
stanno uscendo in quel preciso istante e per farlo il cyborg si trasforma
nel pavimento sul quale il guardiano sta camminando; appena l’uomo è
passato il Terminetor si ricompone assumendo l’aspetto del guardiano
stesso, uccidendolo.
Ma nel frattempo la donna è riuscita a scappare e si sta dirigendo verso
l’uscita.
Davanti alla clinica giungono anche John e il Terminator, i due
dirigendosi verso la porta dell’ascensore incontrano Sarah, ma in quel
preciso istante giunge anche il T1000 e i due terminator si affrontano.
Un colpo di fucile in piena faccia al T1000 regala prezioso tempo a i tre,
permettendogli di fuggire con l’auto della polizia. Ma la fuga non dura a
lungo il cyborg cerca di agganciarsi allungando e trasformando le sue
braccia in punte mortali che si conficcano nella lamiera dell’auto.
Un colpo secco sparato dal fucile del Terminator alla guida, sgancia la
punta del cyborg che viene rigettata sulla strada, dove il T1000
prontamente la riassorbe.
I tre cercano rifugio in un garage. Il Terminator allora spiega a Sarah
quello che è il progetto Skynet: un computer verrà inserito in tutti i
sistemi informatici militari, i quali saranno automatizzati, i bombardieri
voleranno senza bisogno di equipaggio e l’intero sistema di difesa
prescinderà dalle decisioni umane.
56
Skynet non obbedirà più agli ordini e il 29 Agosto del 1997 sgancerà i
missili contro i bersagli in Russia.
I tre dopo aver riempito il furgone di armi arrivano alla base dove Dyson
sta costruendo il progetto Skynet.
Entrano di prepotenza e dopo aver illustrato a Dyson quello che
sarebbe potuto accadere in un prossimo futuro, tutti insieme si dirigono
al caveau, anticamera del laboratorio per distruggere il progetto Skynet.
Dyson da fuoco a tutti i documenti riguardanti l’esperimento e cancella
ogni file relativo alla ricerca, mentre Sarah e il Terminetor minano il
centro di ricerca.
John e Dyson entrano nel caveau e si impossessano dei resti del
cyborg.
Il cyborg si fa largo tra le forze di polizia che sparano all’impazzata e i
tre impossessandosi di un furgone si dirigono verso la statale.
Il T1000 è sulle loro tracce e inizia l’inseguimento a bordo di un
elicottero.
I due si schiantano, il Terminator prende a prestito un camioncino lì
davanti, mentre il T1000 elimina il guidatore di una cisterna carica di
idrogeno liquido a bassissima temperatura.
L’inseguimento termina in una fonderia, dove entrambi i mezzi vengono
distrutti, il carico della cisterna investe il T1000 bloccandolo e
congelandolo, finché un colpo di pistola del Terminator lo frantuma in
mille pezzi.
Ma il calore del metallo in fusione della fonderia sta lentamente
rigenerando il loro mortale nemico.
Pur semidistrutto il cyborg riesce alla fine a scaraventare il T1000 in
una vasca colma di acciaio fuso dove finalmente viene eliminato.
Strisciando, con un braccio distrutto e il viso che mostra chiaramente la
sua natura non umana, il Terminator chiede ora ai suoi amici di
distruggerlo.
Sarah fa scendere attraverso una carrucola il Terminator nella vasca di
metallo fuso.
Il Terminator continua a guardare i suoi amici mentre il liquido lo
sommerge, il braccio alzato resta ancora un attimo in superficie con il
pollice rivolto verso l’alto e la mano stretta a pugno.
Poi più niente, il suo visore si spegne per sempre.
Prodotto nel 1991 dalla Carolco Pictures, nato dalla fantasia di James
Cameron, il secondo episodio di Terminator ha definitivamente
abbattuto la barriera che nell’opinione comune voleva l’immagine
fotorealistica come necessariamente fotografica e quindi distinta da
quella digitale; aprendo la strada all’immagine ibrida che
contraddistingue l’attuale concezione di animazione di sintesi.
Infatti, con il digitale è possibile trattare film, cartoon, oggetti 3D creati al
computer, immagini televisive e altro ancora, allo stesso modo.
Il digitale attirando a sé il fotografico lo trasforma in qualcos’altro, in un
ibrido che molto spesso tende al design del cartoon.
57
Così in Terminator 2, la lotta disperata tra il cyborg Schwarzi, ormai
obsoleto, ed il nuovissimo micidiale T1000 assume i caratteri
metamorfici di una sfida generazionale che travalica lo schermo: stopmotion contro morphing, stantuffi meccanici e armi da fuoco contro
computer-graphic e morte digitale, muscoli d’acciaio contro perfida
dissimulazione virtuale.
Vincerà l’antico simbolo positivo del cinema “tradizionale”, ma sceglierà
comunque di auto-terminarsi, riunendosi al metallo fuso da cui aveva
preso vita: in quella fonderia si consuma il destino del meglio che la
tecnologia “manuale” aveva finora espresso, vaporizzato in un girone
infernale dal quale risorgerà, trionfante, la tecnologia digitale.
Gli effetti digitali sono stati creati dalla ILM, cui Cameron si era già
rivolto per The Abyss, 1989.
Con Terminator 2 il morphing digitale 3D arriva a livelli di grande qualità
e complessità.
L’integrazione della computergrafica con la stop-motion utilizzata
durante la sequenza di solidificazione-liquefazione-ricomposizione del
cyborg nemico, è stato lo scoglio più duro da superare.
Cameron non era soddisfatto della sola grafica computerizzata in
quanto non riusciva a dare la giusta credibilità, mentre utilizzare la stopmotion sarebbe stato troppo dispendioso in fatto di denaro e di tempo.
Si decise quindi di integrare le due cose realizzando in stop-motion solo
alcune sequenze: venne creata una miscela d’acqua distillata, gelatina
incolore e piccole infiltrazioni di glitter (gel cosmetico con brillanti) e lo si
fece scivolare in un letto di plastica trasparente scavata ad arte, in
modo da obbligare la mistura a seguire un determinato percorso, quindi
si sovrapposero queste sequenze a quelle generate al computer e
l’effetto fu davvero sorprendente.
58
Regia
James Cameron
Usa, 1991
PERSONAGGI E INTERPRETI
Arnold Schwarzenegger.... The Terminator (T-800)
Linda Hamilton.... Sarah Connor
Edward Furlong.... John Connor (Age 10
Robert Patrick.... T-1000
Earl Boen.... Dr. Peter Silberman
Joe Morton.... Miles Bennett Dyson
S. Epatha Merkerson.... Tarissa Dyson
Castulo Guerra.... Enrique Salceda
Danny Cooksey.... Tim
Jenette Goldstein.... Janelle Voight
Xander Berkeley.... Todd Voight
Leslie Hamilton Gearren.... Sarah Connor Double
Ken Gibbel.... Douglas
Robert Winley.... Cigar-Smoking Biker
Shane Wilder.... Trucker
59
JURASSIC PARK
Steven Spilberg 1993-1997
L’evoluzione della specie
Jurassic Park è innegabilmente la realizzazione che ha portato alla vera
e propria rivoluzione degli effetti speciali tramite la computergrafica
tridimensionale.
La perfetta integrazione dei dinosauri in CG con l’azione dal vivo ha
dimostrato la superiorità di queste tecniche, rispetto alla tradizionale
metodologia dello stop-motion.
Diretto da Steven Spilberg, basato sull’omonimo racconto di Micheal
Crichton, Jurrasic Park è stato il film che ha permesso di creare
l’impossibile rendendolo credibile, di coinvolgere l’immaginario collettivo
spostando il confine tra reale e fantastico, al punto di farci credere che
su un’isola disabitata, un gruppo di scienziati è riuscito a far rivivere i
dinosauri.
Il realismo raggiunto dalle creature in CG era stupefacente a tal punto
che nel 1994 Dennis Muren, supervisore degli effetti visuali
dell’Industrial Light & Magic, ha vinto un Oscar per il suo lavoro.
Ma tutto questo era solo l’inizio…
Se con Jurrasic Park la computergrafica raggiunge ottimi livelli di
integrazione con la live action ne Il Mondo perduto l’ILM si preoccupa
soprattutto dell’aspetto psicologico e interpretativo dei personaggi
digitali.
“Abbiamo cercato di far sembrare che il TRex potesse pensare” afferma
il capo animatore Dan Taylor. “Può essere sufficiente anche una
rotazione della testa.
Ma dà la sensazione che nel suo cervello ci sia qualcosa in più
dell’unica preoccupazione di che cosa mangiare subito dopo.”
La famiglia dei Tirannosaurus Rex (Trex), composta dalla mamma, il
cucciolo e il padre, prima creatura digitale ad essere protagonista di un
sequel, hanno una gamma molto più vasta di capacità recitative rispetto
ai dinosauri di Jurassic Park.
“È come se con Jurassic Park avessimo costruito gli strumenti”, spiega
Muren (che anche per questo film dirige gli effetti speciali), “ora stiamo
imparando ad usarli e stiamo scoprendo quello che ci permettono di
fare”.
“La cosa che più mi interessa” continua Muren, “era di progettare scene
che non dessero l’impressione di aver limitato la libertà del regista nei
movimenti di camera, perché bisognava usare degli effetti
speciali…Abbiamo dinosauri che si muovono in ambientazioni di giorno,
di notte, con la pioggia, con fumo, nella giungla, in mezzo alle case e in
mezzo alla nebbia…”
60
“Se si riescono a realizzare delle scene in cui una creatura sembra
totalmente reale e sta balzando su una persona, si raggiunge un
realismo scioccante, perché non si è mai visto niente di simile.
Il realismo aumenta quando una creatura può afferrare qualcosa
direttamente da una persona. Non si deve necessariamente far posare
a terra prima l’oggetto e poi farlo prendere dalla creatura. In questo
modo la scena risulta più interessante.”
In Jurassic Park, c’è una scena forte nella quale il TRex abbassa la
testa, tira fuori una persona (stuntman digitale), da una cabina, la tiene
ferma per un istante tra i denti e poi la ingoia.
Nel Mondo perduto, i dinosauri afferrano le persone, le scuotono e le
spezzano in due.
Da queste due scene a confronto si può capire come l’evoluzione della
CG ha definitivamente rotto il “cordone ombelicale” con la materia,
ovvero, non c’è più bisogno di ricreare, paesaggi e personaggi in scala
1: 1 e farli quindi muovere mediante pompe idrauliche e circuiti
elettronici; oggi stando comodamente davanti a un monitor si può
ricreare un universo di immagini ed emozioni.
Penso che uno dei vantaggi sia proprio l’immediatezza che è un fattore
determinante nel processo creativo.
L’intuizione, l’ispirazione è così fragile e fugace che solo un’esecuzione
rapida fa sì che possa essere realmente congelata nella sua essenza.
Per gli effetti visuali de Il Mondo perduto, hanno lavorato 25 animatori,
capeggiati da Randy Dutra, 30 direttori tecnici, 3 disegnatori e 8
persone per le operazioni di sincronizzazione dei movimenti.
Il film comprende circa 190 scene di effetti, delle quali 80-85 includono
dinosauri.
Complessivamente ne Il Mondo perduto c’è circa un 40% in più di
computergrafica 3D rispetto a Jurassic Park (che comprendeva solo 60
scene in CG).
Inoltre le scene 3D nel Mondo perduto spesso includono più dinosauri
contemporaneamente e rispetto ai dinosauri di Jurassic Park, quelli di
Lost World e come se avessero fatto un corso di aerobica.
La costruzione dei modelli
Una delle persone che ha contribuito alla creazione di stuntman digitali
in varie fasi di "divoramento" è stata Paul Giacoppo, che ha
supervisionato la modellazione 3D di The Lost World.
Oltre agli stuntman, sono stati realizzati modelli 3D anche per veicoli,
oggetti di scena e naturalmente per tutte e dieci le specie di dinosauri. I
tre dinosauri che ritornano dopo la loro partecipazione in Jurassic Park
sono il T Rex, i velociraptor e il gallimimus. I nuovi dinosauri includono
lo stegosaurus ("Steg" per gli amici), il parasaurolophus ("Pari"), il
pachycephalosaurus ("Paci"), il compsognathus ("Compy"), il
gigantesco mamenchisaurus e il triceratops ("Trike"). Quest’ultimo era
61
effettivamente già comparso nel film Jurassic Park, ma in quel caso era
stato utilizzato unicamente un modello fisico. C’è anche un pterosauria,
una specie di pteranodon. Di queste creature, i "Compy" sono i più
piccoli (hanno le dimensioni di una gallina).
Gli altri sono grandi, partendo dalle dimensioni di una mucca e
arrivando a superare quelle di qualsiasi altro animale attualmente
esistente sulla Terra. Lo "Steg" ha grandi placche sul dorso; il "Trike" ha
tre corni sul muso; il "Pari" ha un becco d’anatra; il "Paci" ha una testa a
cupola con un teschio osseo sporgente; e lo pteranodon è simile a un
uccello.
Il modello dello stegosauro, come molti altri, è stato costruito in base ai
modelli fisici realizzato da Stan Winston, ma poi ha subito delle
modifiche. Infatti, il modello di Winston era stato realizzato con la coda
bassa, ricalcando un’immagine vista spesso nei documentari. Ma
recenti studi di paleontologia hanno concluso, in base all’anatomia delle
anche, che gli stegosauri tenevano la coda sollevata. Il modello al
computer è stato quindi modificato, trasformando di conseguenza non
solo la silhouette dell’animale, ma anche la sua "personalità", dato che
la coda alzata gli dava un look più mobile e attento.
"La prima domanda che facciamo quando dobbiamo costruire un
modello è "da quale distanza lo si vedrà" e "quanto dev’essere
dettagliato", spiega Giacoppo. "Dalle risposte, dipende quanto tempo
richiede la sua realizzazione". Fortunatamente, lo staff è riuscito a
risparmiare un po’ di tempo riutilizzando i modelli del primo film.
"La modellazione effettuata per il film originale è stata fatta così bene
da essere ancora validissima", afferma. Sono stati in grado anche di
adattare il T Rex originale per realizzare la versione "femminile" e
quella "baby".
Un altro elemento che ha fatto risparmiare tempo è stata la creazione
dei modelli con lo stesso numero di CV, in modo da poter riusare
l’inviluppo e il socking. "Quando costruiamo un animale, lo suddividiamo
in pezzi", spiega Giacobbo. "Questi pezzi vengono poi uniti insieme: le
dita alle mani, le braccia alle spalle". La tecnologia di socking della ILM
connette i pezzi per realizzare una creatura senza giunzioni. Il software
proprietario d’inviluppo controlla il movimento comunicando ai punti di
quanto spostarsi e in quale direzione. "Tutto inizia con il modello",
afferma Giacoppo. "Se non ci sono abbastanza dettagli, un’area può
stirarsi troppo quando si cerca di muoverla. Aggiungendo punti,
possiamo mantenere la struttura e la forma".
Per i dinosauri presenti anche in Jurassic Park, i modellisti sono potuti
partire dai vecchi modelli, e poi arricchirli per ottenere quelli nuovi, per
esempio per realizzare un esemplare maschio da uno femmina.
Per i nuovi dinosauri, i modellisti hanno usato come punti di partenza i
modelli fisici realizzati dallo studio di Stan Winston e alcuni disegni.
Tutti i dinosauri sono stati realizzati con i software Alias PowerAnimator
e Softimage 3D, e così è stato anche per gli oggetti di scena e i veicoli,
62
alcuni dei quali si sono rivelati molto complessi. In effetti, uno dei
veicoli, un doppio furgone, è intricato quasi quanto il drago di
Dragonheart, uno dei modelli più complessi mai realizzati dalla ILM.
Gli strumenti proprietari
Oltre ai software commerciali Softimage e Alias, i modellisti hanno
utilizzato anche gli strumenti proprietari della ILM, in particolare uno
nuovo chiamato I-Sculpt, sviluppato da Jim Hourihan.
"Con I-Sculpt, si può lavorare su un modello come se fosse fatto di
creta", afferma Giacoppo.
I modellisti hanno usato I-Sculpt per abbozzare rapidamente un
oggetto, al quale sarebbero poi stati aggiunti i dettagli con Alias o
Softimage. Lo hanno usato anche per aggiungere forme ai modelli
creati con Alias e Softimage.
Giacoppo spiega la differenza tra i pacchetti commerciali e I-Sculpt:
"Normalmente, bisogna muovere dei punti su una spline, e questo
modo di operare può essere molto noioso, specialmente su un modello
particolarmente denso. Se si deve ingrossare un modello, bisogna
gestire molti punti. Con I-Sculpt, si hanno a disposizione sfere
d’influenza che permettono rapidamente di tirare, spingere e stirare
aree di un modello".
I-Sculpt è servito anche per creare forme da usare nelle animazioni
secondarie in CARI, un altro strumento software proprietario della ILM
che permette agli animatori di manipolare le forme.
Invece di usare le tecniche d’inviluppo, gli animatori hanno potuto
mischiare e manipolare forme in CARI (che è l’abbreviazione di
CARICATURE, un programma scritto, guarda caso, da Cary Phillips)
per creare distorsioni volumetriche che permettono a una zampa di
espandersi, per esempio, e di spostare la superficie del modello. "L’idea
è di creare l’illusione dei muscoli che si muovono sotto la pelle, invece
di qualcosa che assomiglia a dei salsicciotti sopra la struttura in
wireframe", dice Snow.
Taylor spiega come tutto ciò possa influenzare l’aspetto
dell’animazione: "In passato, abbiamo cercato di far sembrare pesante
un animale in base al modo in cui colpiva il terreno quando camminava.
Ma se guardate un elefante, il movimento è talmente fluido che sembra
che scivoli. Si ha un senso del peso in base al modo in cui si muovono i
muscoli e la pelle".
Gli animatori hanno creato i movimenti di massima in Softimage,
mentre i dettagli delle animazioni secondarie, come il movimento della
pelle e dei muscoli (che Taylor chiama i "datori di vita"), sono stati creati
in CARI. Questo programma è stato utilizzato in precedenza per creare
l’animazione facciale per Dragonheart.
Da allora, la sua capacità di permettere agli animatori di lavorare in
modo interattivo con modelli di grandi dimensioni, usando la
63
manipolazione delle forme, è stata estesa. "In CARI, possiamo ottenere
rendering molto rapidamente con socking e inviluppi, e possiamo
vedere come si comporta la geometria della superficie. Il livello di
controllo che abbiamo su pelle e muscoli è notevole. Possiamo
ritoccare ripetutamente l’animazione".
Quando Taylor e Randy Dutra hanno iniziato ad animare il T Rex per Il
mondo perduto, non hanno preso in considerazione il modo in cui si
muoveva il modello originale del film Jurassic Park. "Poi ci siamo
accorti", racconta Taylor, "che nel primo film la creatura aveva dei tratti
caratteristici, come il modo in cui piantava i piedi per terra, che
dovevamo replicare. Altrimenti, il nostro T Rex avrebbe fatto la stessa
impressione di Mel Gibson che interpreta il sequel di Indiana Jones: un
attore bravissimo, ma non è comunque Harrison Ford".
Anche l’animazione del gigantesco mamenchisaurus ha presentato non
pochi problemi. Questa creatura dal lungo collo poteva raggiungere 15
metri di altezza e 30 metri di lunghezza. Dato che nessun animale
attualmente esistente sulla Terra raggiunge quelle dimensioni (per
fortuna...), gli animatori non avevano un chiaro riferimento per
replicarne i movimenti. Alla fine, si è deciso di utilizzare un’andatura
simile a quella della giraffa, che presenta nello stesso tempo
caratteristiche di grazia e fluidità, unite a un senso di maestosità.
Una delle sequenze di gruppo più complesse del film è quella in cui
corrono insieme quasi 50 creature, inseguite dai "cattivi" del film.
"Pensavamo di riuscire a gestire interamente la scena con l’animazione
di cicli", racconta Snow, "ma questa tecnica è risultata troppo
meccanica. Di conseguenza, abbiamo dovuto ritoccare ogni singola
creatura per darle un comportamento individuale". Talvolta gli animatori
sono riusciti a ottenere un comportamento individuale aggiungendo un
salto o una corsa allo script per il ciclo di animazione. Altre volte, hanno
dovuto ritoccare l’animazione procedurale. L’utilizzo dei cicli di
animazione ha sicuramente facilitato la realizzazione di una scena così
complessa, ma lo svantaggio è che questa tecnica può risultare in
un’animazione dal look "automatizzato" e ripetitivo. "Stavamo sempre
attenti a non incappare nella maledizione dei cicli", afferma Taylor. "Se
non ci sono movimenti casuali, i cicli possono realmente "sembrare" dei
cicli. Devono invece essere considerati solo una base, qualcosa da cui
partire per costruirci sopra.
In una mandria di animali che camminano, ci sono movimenti unici tra
gli individui, ma ci sono anche movimenti comuni a tutti gli animali. I cicli
permettono a più animatori che lavorano sulla stessa scena di partire
da questi movimenti comuni. Ma qualche volta è più difficile modificare
un ciclo piuttosto che partire da zero. I cicli vanno considerati solo come
un altro strumento del proprio arsenale di animatore".
D’altra parte, Dennis Muren non è convinto che l’approccio procedurale
sia migliore o più efficiente di quello che gestisce l’animazione per ogni
singolo animale. "Non ho niente contro i cicli di camminata e di corsa",
64
sostiene, "ma queste tecniche richiedono così tanto lavoro di ritocco per
ottenere delle animazioni convincenti, che non sono sicuro che ne valga
la pena. Si sostiene che l’approccio procedurale fornisca almeno un
punto di partenza, dal quale gli animatori possono partire per apportare
i loro ritocchi. Ma è come il gatto che si morde la coda. Si guarda a
quanto è stato fatto in modo procedurale, e poi si cerca di aggiungere
vitalità all’animazione, ma solo dove si pensa che sia necessario. È
molto diverso dal dare vita a ogni personaggio fin dall’inizio del
processo di animazione. Non penso che il primo metodo riesca a fornire
risultati pari al secondo; ma, realisticamente, l’approccio procedurale è
il solo modo per realizzare in tempo sequenze di "massa" come quella
del Mondo perduto, considerando il numero di animali da gestire".
Mentre gli animatori erano impegnati per impostare le animazioni,
Susan Ross si dedicava al disegno delle texture map per i modelli. Per
questo lavoro, Ross ha utilizzato il programma di paint 3D proprietario
della ILM, Viewpaint, che funziona all’interno di Matador della Avid, un
programma commerciale di paint 2D per workstation SGI.
I dettagli delle texture map
Per Il mondo perduto, Ross ha disegnato tutte le texture dei dinosauri,
incluse le versioni maschio e femmina per molte specie, e alcune
texture dettagliate per primissimi piani, "fin quasi a livello dei pori",
commenta Susan.
In Jurassic Park, tutti i dinosauri erano femmina. I dinosauri maschi del
Mondo perduto sono molto più colorati. Ross ha lavorato guardando
prima i dinosauri nelle immagini dal vivo in forma di modelli fisici, poi in
forma di wireframe nelle immagini di
match-move, poi animati con una pelle bianca, poi con la stessa
illuminazione delle riprese dal vivo, e alla fine "mi occupavo di renderli
veramente tridimensionali", afferma.
Per ogni dinosauro sono state utilizzate molte texture map: opacity,
specularity, bump, color map e, qualche volta, mappe per lo sporco. È
stata Ross a disegnarle tutte. Ha iniziato a lavorarci sopra nell’agosto
del ’96, impiegando da tre a quattro settimane per dinosauro.
"Originariamente, disegnavo le color map senza ombre, poi creavo
bump map per creare le pieghe, ma ora ho capito l’importanza di creare
le pieghe direttamente nella color map". Uno dei dinosauri di cui è più
soddisfatta è lo stegosauro. "In una scena lo si vede passare davanti
alla macchina da presa in primissimo piano e camminando lentamente,
senza nessun motion blur, quindi ho dovuto veramente disegnarlo fin
nei minimi dettagli". Questo lavoro è stato sicuramente facilitato dai
recenti aggiornamenti al software proprietario Viewpaint. "Ai tempi di
Jurassic Park", racconta Ross, "dovevamo lavorare un po’ alla cieca,
cercando d’indovinare quale sarebbe stato l’aspetto finale dei dinosauri
dopo che il direttore tecnico aveva aggiunto l’illuminazione e le ombre.
Se volevamo che la pelle fosse chiara, per esempio, dovevamo farla
65
ancora più chiara, cercando di compensare lo "scolorimento" dovuto
alla successiva applicazione di motion blur e illuminazione. Ora,
possiamo vedere contemporaneamente le nostre color, bump e
specular map; possiamo anche modificare l’illuminazione per farla
assomigliare a quella della scena finale".
Le mappe disegnate venivano poi prese in carico da un direttore
tecnico, che applicava gli algoritmi procedurali scrivendo shader di
Renderman per dare al modello il suo aspetto finale. Si è trattato di un
processo interattivo. "Qualche volta potevamo sistemare le cose in
maniera procedurale negli shader; altre volte, dovevamo farlo
ritoccando le texture", spiega Miyashiro.
L’illuminazione e il compositing
Una delle scene del film più complesse da realizzare è stata quella in
cui corrono quasi 50 creature contemporaneamente sullo schermo.
"Dovevamo gestire un’illuminazione particolare su molte creature, e
integrare il tutto in modo realistico in una scena dal vivo".
In altre parole, bisognava inserire creature in CG in una scena con uno
schema complesso di luci e ombre. Inoltre, le creature interagivano con
l’ambiente, saltando su oggetti, sollevando la polvere, correndo in
mezzo a fumo e fuoco, e attaccando le persone.
Jack Mongovan, supervisore al rotoscopio, ha lavorato a questa scena
per mesi, ritoccando le immagini di background in modo da poter
comporre le creature in CG e gli effetti in CG.
La scena è stata filmata utilizzando dei cavalli. "Presentano il vantaggio
di continuare a correre", dice ridendo Mongovan. Poi ha dovuto
cancellare i cavalli e i riferimenti posizionati sul terreno per far capire al
resto del team la velocità alla quale scorreva il terreno. In alcuni casi,
ha potuto utilizzare strumenti che lo facevano automaticamente.
Per i "match mover" (responsabili della sincronizzazione tra immagini
dal vivo e digitali) Terry Chostner e Dave Hanks, il compito era di creare
un file 3D che imitasse o corrispondesse alle immagini di sfondo, e di
creare una telecamera virtuale che imitasse la macchina da presa reale
utilizzata per le riprese dal vivo. Gli animatori avrebbero potuto poi
posizionare le loro creature e gli effetti in questo set virtuale. Per creare
il set virtuale, i match mover hanno cercato di ottenere le misure esatte
sul luogo delle riprese. "Avevamo bisogno delle distanze dalla
macchina da presa degli oggetti nel campo di vista, e delle dimensioni
di quegli oggetti. Più misure riuscivamo a ottenere, e meglio era".
Hanno creato il set virtuale in una versione di Softimage che hanno
adattato per gestire un loro tipo di telecamera. "Abbiamo inserito nel
software gli obiettivi della macchina da presa", spiega Chostner. "La
nostra speranza era di avere anche l’altezza della macchina da presa e
la sua inclinazione di base".
66
Poi sovrapponevano all’immagine di sfondo la visuale in prospettiva da
loro creata, e muovevano la telecamera fino a quando non
corrispondeva con l’azione dal vivo. "Questo film è stato molto difficile",
dice Chostner, "a causa della quantità d’interazione con l’ambiente. Non
era facile ottenere delle buone misure".
"In questo film abbiamo alcune scene in pura CG, un po’ di bluescreen
e alcune miniature", dice Snow, "ma la maggior parte sono state riprese
sul luogo". È stato compito dei direttori tecnici prendere tutti questi pezzi
e metterli insieme. "Ricevevamo contributi di varia natura per tutto il
giorno", dice Miyashimo. "File di animazione, rotoscopio, pezzi da
modellisti, oggetti di scena, match-move. Li abbiamo messi tutti insieme
e li abbiamo illuminati. Per ottenere dei rendering fotorealistici, ci siamo
ispirati alle luci dei set cinematografici, non solo agli shader.
Se sul set c’era una luce da 10K, cercavo di simularla".
"Per quel che riguarda l’illuminazione, abbiamo dovuto affrontare la
sfida di riuscire a ottenere i valori tonali che corrispondessero alle
immagini di sfondo", afferma Muren. "In molte scene, avevamo tonalità
basse, tonalità alte e quasi nessuna tonalità intermedia, quindi
ottenevamo delle silhouette debolmente illuminate che erano molto,
molto nitide. L’illuminazione del Mondo perduto è molto diversa da
quella di Jurassic Park. È molto più suggestiva, terrorizzante. Tutti i
rendering, i compositing e le riprese dovevano essere perfetti per
funzionare insieme".
Quando Muren stava valutando se lavorare a questo film, la gente gli
chiedeva perché volesse farlo. "Mi domandavano: "Perché fare The
Lost World? Lo avete già fatto". Mi sono tornati alla mente i tempi di
Jurassic Park, quando molti mi chiedevano: "Perché usare la CG?".
Quando sento queste domande, penso di essere sul punto di fare
qualcosa di nuovo, perché la gente non riesce a capirlo e a vederlo. Si
ha la possibilità di arrivare a un livello superiore, e il trucco sta nel
capire qual è e come si fa ad arrivarci. Non volevo creare qualcosa che
sembrasse Jurassic Park Lato B. Volevo capire qual era il passo
successivo. Parte di questo passo è consistito nell’aspetto dei
dinosauri, nel modo in cui si muovono e interagiscono, e nel modo in
cui sono state progettate le sequenze. La combinazione di tutti questi
elementi ha permesso di arrivare a un risultato superiore". Come ama
dire Ben Snow, bisogna cercare nuovi modi per rendere sempre
migliore la magia degli effetti speciali.
67
Regia:
Steven Spielberg
Sceneggiatura:
David Koepp, dal romanzo "Il mondo perduto" di Michael Crichton
Fotografia:
Janusz Kaminski
Scenografia:
Rick Carter
Musica:
John Williams
Effetti speciali dei dinosauri in Full motion:
Dennis Muren
Effetti speciali dei dinosauri in Live action:
Stan Winston
Effetti speciali dinosauri:
Michael Lantieri
Prodotto da:
Gerald R. Molen, Colin Wilson
(USA, 1997)
Durata:
134'
Distribuzione cinematografica:
UIP
PERSONAGGI E INTERPRETI
Ian Malcolm: Jeff Goldblum
Sarah Harding: Julianne Moore
Roland Tembo: Pete Postlethwaite
Peter Ludlow: Arliss Howard
John Hammond: Richard Attenborough
Nick Van Owen: Vince Vaughn
Kelly Curtis: Vanessa Lee Chester
Dieter Stark: Peter Stormare
Ajay Sidhu: Harvey Jason
68
APOLLO 13
Ron Howard, 1995
Chi lavora nel campo degli effetti visuali deve accettare, come ironia di
questo tipo di occupazione, che i risultati dei suoi migliori sforzi risultino
spesso completamente invisibili. Questo è vero in particolar modo nel
film Apollo 13 della Universal, dov'è difficile individuare qualsiasi
elemento di computergrafica, anche se gli effetti sono presenti in tutto il
corso del film.
Come esempio prendiamo la sequenza del lancio. Se credete che sia
reale, avete appena fatto un grande complimento alle qualità artistiche
di chi lavora alla Digital Domain (Venice, California, USA). Anche se
erano disponibili le riprese NASA del lancio dell'Apollo 13, non erano di
qualità cinematografica. L'intera sequenza, quindi, è stata realizzata
con miniature (il razzo) e computergrafica (tutto il resto, incluso lo
sfondo).
Per creare le nuvole di vapore acqueo, il fuoco e i detriti prodotti dalla
propulsione, gli specialisti hanno utilizzato sistemi particellari.
Per creare il fondale di Cape Canaveral, hanno sviluppato una tecnica
molto intelligente basata sulla mappatura di aree di fondale su oggetti
3D. Questo ha permesso dei movimenti di camera d'effetto, in stile
ripresa-dal-vivo della sequenza di lancio, che in effetti è stata girata in
uno studio in motion-control. “Rob Legato, supervisore agli effetti visuali
per Apollo 13, realizzava un movimento di camera, e noi dovevamo
creare un fondale che gli si adattasse”, dice Kevin Mack, direttore
artistico degli effetti digitali alla Digital Domain.
Gli artisti sono partiti da riprese filmate da Legato a Cape Canaveral in
un periodo di due settimane. “Sono state effettuate proprio all'inizio del
progetto”, riporta Mack, “al punto che non era ancora stato preparato lo
storyboard. Quindi Legato le ha realizzate in modo da avere in seguito
la massima flessibilità”.
Una ripresa che ha richiesto questo tipo di flessibilità era un movimento
di camera costituito da “una gigantesca carrellata lungo la torre di lancio
verso il basso, seguita da un'inclinazione verso l'alto”, spiega Mack,
descrivendo la ripresa in motion-control della "miniatura" (alta sei metri)
del razzo. Gli artisti degli effetti visuali dovevano sostituire il fondale
verde della ripresa con un ambiente realistico che si adattasse al
movimento di camera di 180 gradi con rotazione e cambiasse
prospettiva di conseguenza. Per creare questo ambiente, una specie di
set virtuale realistico, si sono ispirati alle tecniche utilizzate per
realizzare mappature ambientali nella grafica 3D e ai piani multipli della
cel animation. Per prima cosa, hanno creato modelli in wireframe del
razzo con il software Prisms della Side Effects da usare come
riferimenti per la ripresa.
69
Anche i dati di motion-control della camera sono stati portati in Prisms.
Poi, Kevin e Martha Snow Mack hanno selezionato le riprese dal filmato
girato da Legato e le hanno manipolate per creare un'ambientazione
contestualmente accurata e per farle legare tra di loro. Hanno rimosso
edifici, aggiunto erba alla piattaforma di lancio e creato una continuità
d'illuminazione e di nuvole. “In un paio di riprese originali il cielo non era
uguale, ma erano così adatte che volevamo comunque usarle”, riporta
Mack, “così abbiamo aggiunto la maestosità dei bei cieli della Florida
fondendola all'affascinante luce mattutina”.
Poi, gli artisti hanno mappato le immagini modificate per la sequenza su
piani posti ad angoli perpendicolari per creare una specie di diorama
3D, con il piano per il terreno, quello per le montagne e quello per il
cielo. “È come mappare un ambiente all'interno di una scatola aperta”,
spiega Mack.
Normalmente, in una ripresa su più piani la camera è parallela al piano
dell'immagine e i movimenti vengono applicati lateralmente. È un effetto
ottico che imita quello che si sperimenta se, per esempio, si guarda da
un finestrino di un'automobile e si vedono gli oggetti in primo piano
correre via, mentre le montagne sullo sfondo rimangono fisse.
Mappando invece le immagini su piani perpendicolari, gli artisti
potevano effettuare movimenti su più piani e mantenere comunque la
prospettiva per la ripresa che proponeva una rotazione di 180 gradi.
“Dovunque si muova la camera, il fondale è corretto e in prospettiva”,
afferma Mack. Per esempio, hanno usato tecniche di piani multipli per
posizionare delle nuvole basse (una serie di disegni) in primo piano e
oscurare la parte superiore del razzo mentre la camera si muoveva.
“Abbiamo potuto mettere i piani a distanze differenti dalla camera, e
quando la spostavamo, i piani si muovevano con la corretta velocità
perché erano nello spazio 3D”.
Queste tecniche, precisa Mack, non sono nuove, anche se
l'applicazione può essere innovativa. “Le ho usate anche in
precedenza”, riporta, “e lo hanno fatto anche altri. Ma penso proprio che
le abbiamo migliorate perché le abbiamo applicate in maniera molto
realistica”.
Alla fine, quello che conta davvero è se funzionano. E sicuramente
hanno funzionato molto bene, offrendo a Legato un mondo virtuale nel
quale lavorare. “Abbiamo dato a Rob la massima flessibilità”, dice
Mack. “Abbiamo effettuato riprese che non era possibile realizzare in
nessun altro modo”. Ed è questo in fondo lo scopo degli effetti visuali.
70
Regia:
Ron Howard
Produzione:
Brian Grazer
Sceneggiatura:
William Broyles Jr, Al Reinert
Fotografia:
Dean Cundey
Montaggio:
Mike Hill, Dan Henley
Musica:
James Horner
Costumista:
Rita Ryack
Scenografia:
Michael Corenblith
(Usa, 1995)
Durata:
140'
Distribuzione cinematografica:
UIP
Distribuzione Home Video:
CIC VIDEO
PERSONAGGI E INTERPRETI
Jim Lowell: Tom Hanks
Fred Haise: Bill Paxton
Jack Swigert: Kevin Bacon
Ken Mattingly:Gary Sinise
Gene Kranz:Ed Harris
71
JOHNNY MNEMONIC E VIRTUOSITY
Robert Longo, 1995
È da un po' di tempo che si continua a parlare della sempre più stretta
collaborazione tra Hollywood e Silicon Valley, cioè tra l'industria del
cinema e quella dei computer. In genere, quando si pensa agli effetti
speciali di un film, soprattutto se di fantascienza, vengono in mente
potenti workstation e software da varie centinaia di milioni di lire
utilizzati per arricchire di effetti visuali qualsiasi film.
Le tecniche sono ormai così sofisticate che è virtualmente impossibile
distinguere la finzione dalla realtà Ultimamente, però, sta emergendo la
tendenza a utilizzare strumenti del tutto identici al personal che
abbiamo in ufficio o in casa per realizzare gli stupefacenti effetti visivi
delle grandi produzioni cinematografiche.
Nell'ambito di produzioni hollywoodiane di serial televisivi, tra i
computer desktop l'Amiga ha svolto un ruolo molto importante,
vantando produzioni del calibro di Star Trek, Robocop, SeaQuest...
Per quel che riguarda il cinema, come succede ai veri attori, che in
genere all'inizio fanno solo piccole particine o ruoli marginali, i personal
hanno dimostrato il loro valore a Hollywood nell'ambito della gestione
della visualizzazione di prova di effetti speciali, della realizzazione
elettronica dello storyboard e dello sviluppo dei titoli di testa e di coda. Il
tutto con costi di realizzazione in genere molto contenuti. Ma oggi,
anche i PC stanno entrando nella produzione di effetti visuali di qualità
cinematografica.
Lo dimostrano film importanti come Johnny Mnemonic della TriStar
Pictures, interpretato da Keanu Reeves, e Virtuosity della Paramount
Picture, interpretato da Denzel Washington. E siamo solo all'inizio, visto
che ormai anche Softimage è disponibile non più solo per workstation,
ma anche per PC.
Un approccio multipiattaforma
“Stiamo esplorando per primi l'utilizzo di più piattaforme di computer per
la produzione di lungometraggi”, afferma Franck Foster, vicepresidente
delle produzioni multimediali alla Sony Pictures Imageworks (SPI), la
società della Sony Pictures Entertainment responsabile degli effetti
visuali di Johnny Mnemonic. “In effetti, la SPI è così impegnata nella
produzione multipiattaforma che stiamo realizzando l'interconnessione
tra i nostri sistemi di produzione basati su PC e quelli basati su
workstation. In questo modo, abbiamo la possibilità di utilizzare gli
strumenti più adatti per una certa attività, a seconda che sia più
importante il costo o il tempo di realizzazione.
I risultati finali sono comunque in risoluzione filmica”, continua Foster.
72
Nel caso della L2Communications, produttrice degli effetti visuali di
Virtuosity della Paramount, una data di consegna praticamente
impossibile da rispettare ha costretto la società ad affidarsi a qualsiasi
processo e tecnologia multimediale avesse a disposizione. A causa di
ciò, la L2Communications ha sperimentato per prima molte tecniche
che stanno rivoluzionando la fase di post-produzione dell'industria
cinematografica. Secondo Brett Leonard, regista del film e co-fondatore
della L2Communications, “Virtuosity utilizza una grande varietà di
tecniche, incluso il morphing facciale, l'integrazione digitale del trucco, il
controllo dei movimenti durante le riprese dal vivo, il compositing
digitale di elementi dal vivo e di computergrafica, il matte painting e la
creazione di ambienti completamente realizzati al computer”.
Come per la SPI, la L2Communications ha sviluppato questi effetti
rapidamente e con costi contenuti integrando varie piattaforme di
computer, pacchetti software e tipi di supporto.
Molti elementi di computergrafica del film sono stati creati dalla
divisione interna L2Effects principalmente su PC dotati di processore
Pentium con una combinazione di programmi proprietari e applicazioni
commerciali, come 3D Studio della Autodesk, Photoshop della Adobe e
CoSA After Effects.
“In Virtuosity, i sistemi basati su PC sono stati usati per portare alla vita
la visione della realtà virtuale di Brett Leonard.
Gli strumenti si sono dimostrati perfettamente adeguati allo scopo”,
afferma Jon Townley, supervisore agli effetti visuali della
L2Communications.
Il PC emerge da dietro le quinte
Molto prima di utilizzare i PC per creare gli effetti visuali di Johnny
Mnemonic, la SPI ha valutato molte soluzioni software per lo sviluppo in
proprio di visualizzazioni di prova di effetti e di titolazioni.
In precedenza, la progettazione degli effetti e la produzione di titolazioni
era dominio di poche società specializzate.
Nel 1993, dopo più di un anno di prove software su PC, Macintosh e
workstation, la SPI ha scelto 3D Studio della Autodesk come
componente principale del sistema di produzione digitale. Secondo
Foster, questo sistema ha segnato il primo grande passo dell'industria
cinematografica verso l'utilizzo intensivo dei PC per la pianificazione dei
film e la produzione in proprio di titolazioni.
“Inizialmente, abbiamo utilizzato 3D Studio per pianificare con costi
contenuti il lavoro degli stunt-man, provare finali alternativi, e
visualizzare in anteprima intere sequenze (poi realizzate in versione
definitiva su workstation) ”, spiega Foster della SPI. Una volta provata
la sua validità come sistema di previsualizzazione, il PC è stato poi
utilizzato per la creazione dei titoli di testa e di coda.
73
Fino a oggi, la SPI ne ha prodotti più di una dozzina a risoluzione
filmica con 3D Studio. Tra questi vi sono Wilder Napalm, Wolf e Speed.
Incoraggiata da questi successi, la SPI ha iniziato a usare gli strumenti
del PC per creare elementi di sequenze di effetti visuali. “Con
l'importanza crescente che andavano assumendo gli effetti visuali, il
nostro gruppo doveva dimostrare gradualmente che i PC avevano la
potenzialità di ottenere risultati a risoluzione filmica”, fa notare Foster.
“Una volta riusciti a dimostrarlo, il passo successivo era una
realizzazione completa di effetti visuali”.
La visione di William Gibson
Il progetto di Johnny Mnemonic ha dato alla SPI la possibilità di
dimostrare le capacità del proprio sistema di produzione basato su PC.
Versione cinematografica di un racconto breve di William Gibson,
Johnny Mnemonic è un film di azione/avventura interpretato da Keanu
Reeves, scritto da Gibson e diretto dall'artista, scultore e creatore di
video-clip Robert Longo. Ambientato in un futuristico "cyberspazio", un
termine coniato da Gibson, Johnny Mnemonic racconta le vicende di
Johnny, un corriere che deve consegnare dei dati, memorizzati su un
chip installato nel suo cervello, o morire.
Il produttore di effetti visuali della SPI George Merkert e il supervisore
John Nelson sono stati incaricati di realizzare la visione del cyberspazio
di Gibson.
Una parte importante del lavoro ha coinvolto l'uso dei dipinti realizzati
dall'artista Jamie Rama. In altre circostanze, la SPI aveva utilizzato
sofisticate workstation per lavori di questo tipo. Ma per Johnny
Mnemonic, limitazioni di budget e di disponibilità del sistema non hanno
permesso l'utilizzo di questi sistemi.
Confidando nel fatto che il reparto PC della SPI potesse creare l'aspetto
del cyberspazio pensato dal regista Longo, entro i tempi e i costi
previsti, Nelson ha incaricato Foster e il suo team di creare una serie di
prove su PC.
Dieci dei migliori animatori della SPI hanno utilizzato 3D Studio e Adobe
Illustrator per creare un video di 45 minuti. Anche se questo video è
riuscito a convincere Nelson che il PC poteva produrre i risultati
desiderati, il produttore degli effetti Merkert rimaneva scettico.
Secondo Foster, Merkert era preoccupato del fatto che il PC non
riuscisse a raggiungere la risoluzione, i colori ed effetti di luce di qualità
filmica.
Particolarmente critica era l'animazione di una mano in realtà virtuale
che doveva mimare perfettamente i movimenti reali di Keanu Reeves.
Ancora una volta, il PC doveva superare un esame. Una prova
aggiuntiva, realizzata da un veterano degli animatori degli effetti visuali,
Glen Campbell, ha dimostrato a Merkert che 3D Studio poteva
74
realizzare la sequenza del guanto virtuale. Finalmente, la produzione
degli effetti ricevette il via libera.
I risultati di questo lavoro sono due significative sequenze di effetti
speciali.
La prima scena, battezzata la "chiamata telefonica", è la sequenza nel
cyberspazio che inizia quando Johnny indossa i guanti e il casco
virtuali. La sequenza incorpora circa 17 scene di computergrafica
sviluppate principalmente con 3D Studio, ed è basata
fondamentalmente su versioni tridimensionali dei dipinti di Jamie Rama,
tradotte in forma elettronica dall'artista digitale Brumbauer.
Durante una proiezione di prova, la sequenza del "telefono" ha fatto
una buona impressione sul pubblico. Come risultato, il regista Longo ha
richiesto alla SPI di creare un'altra esperienza di cyberspazio.
Questa nuova sequenza, che inizia durante i titoli di testa, viene
chiamata il "risveglio".
In essa, si vede un segnale che viaggia attraverso uno stilizzato
Internet del futuro, fino a quando non sveglia Johnny nella sua stanza
d'albergo. John Nelson ha progettato la nuova scena di apertura come
una sola sequenza digitale comprendente più di 2.400 frame a
risoluzione filmica. Questo segmento di computergrafica della durata di
80 secondi, è la ripresa più lunga mai progettata e renderizzata
interamente su PC per un film.
Anche se la capacità del PC come strumento di produzione è stata
continuamente messa in discussione, Nelson non ha mai perso la
fiducia. “Era un progetto perfetto per il nostro reparto PC. Siamo riusciti
a fornire al cliente le sequenze a un costo dimezzato rispetto a quelle
realizzate su workstation, e a raggiungere comunque i risultati voluti da
Longo”.
La creazione di mondi virtuali
Dall'altra parte della città rispetto alla SPI, la L2Communications ha
creato molti mondi virtuali e altri effetti stupefacenti per il film Virtuosity.
Il film è diretto da Brett Leonard, il cui precedente film Il Tagliaerbe
aveva dimostrato che gli effetti digitali potevano essere creati con un
budget modesto.
In Virtuosity, Denzel Washington interpreta il ruolo di un ex-poliziotto
che deve dare la caccia a un criminale generato al computer, scappato
da un simulatore in realtà virtuale della polizia nel mondo reale.
Le idee del regista Leonard per Virtuosity richiedevano che gli effetti
digitali fossero visivamente accattivanti, ma non distogliessero
l'attenzione dalla storia o dagli attori.
Per esempio, durante le scene in realtà virtuale, Leonard ha voluto
creare per le realistiche immagini di azione dal vivo delle inconsistenze
visive, che fossero appena percepibili dal pubblico. In altre scene, gli
effetti digitali sono stati usati per creare l'illusione che gli attori stessero
75
oscillando su sottili funi, senza controllo, a un'altezza di 50 piani sulla
futuristica città di Los Angeles. Altre scene ancora hanno luogo in
ambienti surreali o fantascientifici completamente ricreati con effetti
visuali.
Come nel caso della PSI, anche la L2Communications è da molto
tempo un'utilizzatrice di 3D Studio e promotrice della produzione
multipiattaforma degli effetti.
Lo sviluppo degli effetti in questa società è una combinazione di
creatività su più piattaforme, con elementi realizzati con Adobe
Photoshop sul Macintosh e successivamente applicati ai modelli di 3D
Studio su PC. I modelli tridimensionali sono spesso trasferiti di nuovo
sul Macintosh per effettuare il compositing con CoSA After Effects. In
alcuni casi, gli effetti sviluppati su PC vengono importati in pacchetti
funzionanti su workstation per un raffinato compositing digitale.
Computer che simulano se stessi
Dato che Virtuosity è un thriller high-tech, i computer vengono usati in
tutto il film e sono spesso vitali per la trama. Tuttavia, diversamente da
molti film che utilizzano immagini registrate in precedenza o una
visualizzazione grafica piuttosto semplice, Virtuosity utilizza programmi
reali con i quali l'attore interagisce e sofisticati effetti visuali per quasi
tutti i monitor di computer presenti sul set. In effetti, molti degli stessi
strumenti utilizzati per gli effetti visuali di Virtuosity sono stati utilizzati
anche per creare la grafica interattiva sullo schermo.
In molte altre scene fondamentali, gli attori appaiono in mondi
tridimensionali completamente renderizzati. “Diversamente dagli effetti
aggiunti a scene riprese dal vivo, queste particolari sequenze sono
interamente generate al computer, e sono quindi gli effetti del film più
intensivi dal punto di vista del rendering”, spiega il supervisore agli
effetti Townley.
Questi mondi virtuali, che includono una scena con dune di sabbia e
un'altra su una scacchiera, sono state per la maggior parte realizzate
con 3D Studio e generate con una risoluzione filmica. Una volta
realizzati i modelli 3D, gli artisti hanno usato una grande varietà di
texture ed effetti di luce per dare a ciascun mondo un aspetto
particolare.
Gli artisti hanno anche creato molti effetti 3D con 3D Studio che sono
stati aggiunti alle sequenze dal vivo del film.
Post-produzione in tempo reale
A complemento della serie di strumenti basati su PC utilizzati per creare
effetti digitali, altre novità del campo della post-produzione hanno
permesso di terminare Virtuosity a tempo di record. Secondo quanto
riporta il regista Leonard, sono state utilizzate linee di
76
telecomunicazione digitali ad alta velocità per trasferire dati
rapidamente e senza bisogno di supporti magnetici.
Queste linee di trasmissione hanno permesso una comunicazione
istantanea tra il reparto di effetti visuali e quello di montaggio,
eliminando le perdite di tempo e le frustrazioni associate alla spedizione
dei nastri in luoghi diversi.
Virtuosity è stato montato interamente in modo digitale e in rete,
permettendo un rapidissimo completamento del lavoro.
La produzione ha anche largamente sfruttato l'Open Media Framework
(OMF) Interchange, uno standard che permette lo scambio di dati tra
formati diversi.
A quanto pare, i mezzi sono diventati il fine, dato che Hollywood utilizza
sempre più spesso i computer e il cyberspazio come soggetti principali
dei propri film.
Nello stesso tempo, il modo in cui questi film vengono prodotti diventa
sempre più versatile, accessibile e poco costoso.
Come risultato, produttori sia grandi che piccoli possono dar spazio alla
propria creatività, e realizzare così gli effetti che attirano al cinema un
pubblico sempre maggiore.
77
JOHNNY MNEMONIC
Regia:
Robert Longo
Soggetto:
William Gibson
Sceneggiatura:
William Gibson
Fotografia:
François Protat
Scenografia:
Nilo Rodis Jamero
Montaggio:
Ronald Sanders
Musica:
Brad Fiedel
Produzione:
Don Carmody
(USA, 1995)
Durata:
98'
Distribuzione cinematografica:
MEDUSA
Distribuzione home video:
MEDUSA HOME VIDEO
PERSONAGGI E INTERPRETI
Johnny: Keanu Reeves
Jane: Dina Meyer
J-Bone: Ice-T
Takahashi: Takeshi
Shinji: Denis Akiyama
Street Preacher: Dolph Lundgren
VIRTUOSITY
Regia
Leonard Brett
Usa,1995
PERSONAGGI E INTERPRETI
Crowe Russell Forsythe William Lynch Kelly Washington Denzel
78
JUMANJII
Joe Johnston, 1995
Jumanjii, della Tristar Pictures è un film di azione avventura, basato su
un libro per bambini del 1981, scritto da Chris Van Allsburg, nel quale
un magico gioco da tavolo diventa una porta di comunicazione per un
mondo fantastico.
Questo mondo è pieno di centinaia di animali 3D che giurereste reali.
È un passatempo molto bello ma, anche molto pericoloso, come
scoprono presto Alan (Robin Williams), Sarah (Bonnie Hunt) e due
orfanelli (Kirsten Dunst e Brodley Pierce).
Un lancio dei dadi per esempio, fa irrompere un’orda di demoniache
scimmie in una cucina, che si divertono poi a scorrazzare sulle moto
della polizia.
Un paio di rinoceronti a dimensione naturale, partono alla carica contro i
muri di una casa, facendo volare da tutte le parti libri e scaffali.
Dietro di loro ci sono elefanti, zebre e un pellicano che imperversano
per le strade della città. Un rigoglioso leone si aggira per il corridoio.
Sicuramente è stato molto divertente per il team degli effetti visuali della
Industrial Light & Magic, che ha creato molti degli effetti speciali di
Jumanjii e la maggior parte degli animali.
La cosa interessante è che in questo film non ci sono animali reali.
Il leone, il pellicano e i pipistrelli sono realizzati in computergrafica, con
alcuni cugini “animatronic”, (pupazzi meccanici animati all’interno
mediante comandi a distanza).
Le scimmie e le zanzare sono interamente in CG, lo sono anche i
rinoceronti e tutti gli altri animali che corrono sulla strada, (circa 60).
Gli animali sono stupefacenti ma tuttavia non sono esattamente
fotorealistici.
Il regista Joe Johnston, che ha già contribuito alla vittoria di un Oscar
per la ILM, (con la realizzazione degli effetti speciali de I predatori
dell’Arca perduta), ha voluto che gli animali, dato che appartenevano a
un mondo di fantasia, fossero più grandi e minacciosi di quelli reali della
giungla.
La creazione di questi animali presentava per la ILM due nuove
difficoltà: la prima anche se gli animali di Jumanjii sarebbero state delle
esagerazioni avrebbero comunque dovuto superare un test di realismo
e diversamente dai dinosauri di Jurassic Park, gli animali di Jumanjii
sarebbero stati confrontati con animali reali.
Inoltre, mentre la ILM aveva avuto molto successo con le pelli simili a
lucertole create per i dinosauri, realizzare un’intera pelliccia, quella per
il leone, sarebbe stato un compito molto arduo.
Il secondo problema sarebbe stato la gestione di dozzine di creature
tutte inserite in un'unica sequenza e quindi modellate e animate.
79
Il lavoro fu diviso fra quattro gruppi, ciascuno con a capo un
supervisore.
Per prima cosa si modellarono i corpi dei rinoceronti e delle scimmie, la
testa della zebra e i trenta musi delle scimmie e le dieci espressioni del
leone per l’animazione facciale.
Sono state necessarie in media sette settimane per ogni modello e
mentre i modellisti creavano le forme, gli addetti agli “involucri”,
(chiamati enveloper) si occupavano della pelle.
Nello stesso tempo i disegnatori aggiungevano realismo mediante
bump map e texture.
La fuga inizia con due rinoceronti di dimensioni naturali che iniziano una
carica lungo un corridoi, urtandosi l’uno con l’altro mentre si spostano
oltre la macchina da presa.
I rinoceronti fracassano i muri della biblioteca, una scena creata con la
combinazione di elementi reali e in CG, e poi si mettono alla testa di
una fuga precipitosa attraverso le case e nelle vie della città.
Gli animali in fuga (rinoceronti, elefanti, zebre…), sembrano in numero
infinito e sarebbe stato un problema gestirli tutti nella stessa scena in
Softimage 3D della Microsoft, così è stato escogitato un metodo
chiamato “Muncycle”, che utilizza pedine al posto di modelli reali.
In seguito le pedine furono sostituite con gli animali “reali” ai quali
furono aggiunti particolari della pelle, come le vibrazioni dei ventri e
movimenti più fini, come l’inclinazione degli animali in curva.
La sequenza dell’elefante che schiaccia col suo peso l’automobile è
stata realizzata combinando insieme elementi reali con effetti visuali in
CG.
Gli animatori sincronizzarono i movimenti dell’animale con le
ammaccature provocate fisicamente.
Un’altra scena molto efficace è quando tutti gli animali vengono
risucchiati in soffitta da una grande forza che distrugge finestre e muri.
Gli animali scalciano e si agitano per uscire dal gigantesco vortice che
avvolge l’intera stanza, cattura gli animali e crea un effetto di
distorsione che li avvolge al suo interno fino a vaporizzarli e inghiottirli
nel brodo primordiale.
Le zanzare sono state ancora più divertenti. “Avevamo carta bianca”,
racconta Mitchell; “non c’erano animatronic da imitare e i modelli non
dovevano essere corretti anatomicamente”. E infatti non lo sono.
Queste zanzare sono dei mostri, lunghi da 15 a 20 centimetri. ”volano in
formazione come dei caccia stellari, si fermano di colpo e terrorizzano i
bambini.
Per la realizzazione delle scimmie la ILM impiegò circa un anno e i
primi due mesi li passarono a studiare il comportamento e gli
atteggiamenti delle scimmie.
Il risultato è esattamente quello che le scimmie fanno nella cucina,
creano disastri, così attraverso una combinazione di effetti reali e
visuali, il forno a gas si trasforma in una palla di fuoco, i cassetti e i
80
piatti vengono lanciati in aria, le scimmie si appendono ai lampadari
combinando una totale confusione.
Una delle principali ragioni per cui le scimmie sembrano reali è la
pelliccia.
I peli corti vengono creati al livello di rendering, l’operatore orienta delle
piccole frecce (vettori) per impostare la direzione della crescita, poi
specifica i parametri per descrivere ulteriormente i peli. Per i peli lunghi
gli animatori definiscono la posizione e la forma di singoli peli della
criniera utilizzando un software personalizzato che si integra con
Softimage.
Una volta modellati, vengono fatti passare attraverso un programma di
parametrizzazione per impostare texture che definiscono aspetti quali la
lunghezza, il colore, la turbolenza e l’arruffamento.
Oltre a sviluppare il software per i peli, il gruppo ha rifinito molti altri
strumenti proprietari, come il programma di Paint 3D Viewpoint, il
software di creazione delle pelli e quello di animazione facciale.
81
Regia:
Joe Johnston
Soggetto:
dal libro di Chris Van Allsburg,
adattamento di Greg Taylor, Jim Stain & Chris Van Allsburg
Sceneggiatura:
Jonathan Hensleigh, Greg Taylor & Jim Strain
Fotografia:
Thomas Ackerman
Montaggio:
Robert Dalva
Scenografia:
James Bissel
Musica:
James Horner
Produzione:
Scott Kroopf & William Teitler
(USA,1995)
Durata:
100'
Distribuzione cinematografica:
COLUMBIA TRISTAR
Distribuzione Home Video:
COLUMBIA TRISTAR
PERSONAGGI E INTERPRETI
Alan Parrish: Robin Williams
Van Pelt/Sam Parrish: Jonathan Hyde
Judy: Kirsten Dunst
Peter: Bradley Pierce
Sarah: Bonnie Hunt
Bentley: David Alan Grier
82
SPECIES
Roger Donaldson, 1995
Con l'esplosione della richiesta a Hollywood di creature e personaggi in
computergrafica, questa fusione di talenti è destinata a ripetersi sempre
più spesso. È una ricetta che potenzialmente può dare origine a grandi
disastri o perlomeno frustrazioni. I registi sono abituati a lavorare con
attori, spesso creando scene grazie all'improvvisazione. Gli animatori
sono abituati a disegnare e approvare ciascuna scena nei dettagli,
spesso immagine per immagine. Chiedere a un regista di film
d'avventura di approvare un'animazione in forma di storyboard è come
chiedere a un campione di karatè di descrivere in anticipo la sua
prossima competizione e poi attenersi alla sua descrizione. D'altra
parte, gli animatori che lavorano con i programmi di animazione in
keyframing non dispongono di strumenti per l'improvvisazione. Quando
la Boss Film (Marina del Rey, CA, USA) ha affrontato questo problema,
lo staff tecnico ha preso in mano la situazione e ha progettato nuovi
strumenti di animazione.
Perfezionando un sistema di cattura del movimento (motion capture) da
loro già utilizzato, sono riusciti a creare un sistema che ha permesso al
regista di Species, Roger Donaldson, di lavorare in tempo reale con
una creatura in computergrafica dotata di texture che si muoveva in un
ambiente virtuale.“Roger è una persona che ama l'azione diretta”, dice
Ellen Somers, vicepresidente della produzione alla Boss, “e non il tipo
che ama affidarci le sue idee, sperando che abbiamo capito le sue
intenzioni”. “La creatività deriva dalla capacità di essere spontanei”,
dice Donaldson. “Se ci si deve affidare completamente allo storyboard,
con tutte le sfumature più sottili decise con sei mesi di anticipo, si perde
l'ispirazione”.
Invece di usare gli storyboard, lo staff tecnico della Boss ha dato a
Donaldson la possibilità di addestrare direttamente dei burattinai e di
vedere la creatura 3D completamente coperta di texture in azione nel
suo ambiente su un monitor TV. Per realizzare tutto ciò, è stato
necessario realizzare dell'hardware e del software ad hoc, in modo da
riuscire a catturare i movimenti in tempo reale e visualizzare il modello
con texture. È stato anche necessario del software aggiuntivo per
gestire il puntamento della telecamera e la sincronizzazione con
l'ambiente virtuale.
Ecco come si presentava il processo: tre o quattro burattinai che
lavoravano in uno studio audio della Boss muovevano i cosiddetti
waldo, armature simili a burattini realizzate con parti metalliche e altri
dispositivi. Un burattinaio gestiva le braccia metalliche e un altro le
gambe, quindi i due dovevano muoversi in perfetta armonia come dei
ballerini, con il burattino tra di loro. Se facevano fare un salto al
burattino da una scatola all'altra dello studio, Sil, il personaggio in
83
computergrafica 3D, compiva un balzo da una sporgenza rocciosa
all'altra sullo schermo.
Facendo accovacciare il burattino metallico si faceva in modo che il Sil
digitale si appollaiasse sul ciglio di una caverna, con le zampe ben
piantate sul "terreno". Nello stesso tempo, altri burattinai che
lavoravano con altri waldo avrebbero aggiunto l'animazione facciale.
Questa collaborazione creativa si è rivelata molto produttiva: lo staff è
riuscito spesso a realizzare 100 o più riprese al giorno.
Donaldson poteva improvvisare fino a quando non trovava quello che
voleva, per poi approvare l'animazione. Alla fine, poteva poi portarsi via
il lavoro in computergrafica su un disco SyQuest, collegarlo al suo
sistema Avid e montarlo insieme alle scene riprese in precedenza dal
vivo. All'inizio, però, non era tutto così semplice.
Otto mesi prima, il modello sullo schermo era di soli 500 poligoni e
venivano usati dei coni allungati per indicare la linea degli occhi.
Con del nuovo software proprietario e con la sostituzione di un
computer SGI Indigo con una stazione Onyx sempre della Silicon
Graphics, il modello è diventato più sofisticato: da 5 mila a 10 mila
poligoni dotati di texture visualizzati con una velocità da 24 a 30 frame
al secondo.
Poi “i nostri giovani geni hanno trovato il modo di attaccare una faccia a
quel corpo”, dice Richard Edlund, fondatore della Boss Film Studios e
anch'egli facente parte del gruppo dei geni.
Quando lavorava alla Industrial Light & Magic Edlund ha vinto quattro
Oscar per gli effetti speciali dei film Guerre Stellari e Indiana Jones, e
da quando ha fondato la Boss nel 1983 ha ricevuto le nomination
all'Oscar per sei film.
“Uno degli aspetti positivi della Boss Film”, dice Shadril Ibrahim, capo
del reparto di ricerca e sviluppo, “è che Richard non ha paura della
tecnologia. Se abbiamo bisogno di un nuovo dispositivo meccanico, la
sua risposta è sempre positiva”.
In questo caso, i dispositivi meccanici erano i tre waldo: il burattino di
metallo, i controlli facciali e il controllo dei capelli.
Il burattino sembra una bambola di metallo realizzata con giocattoli di
recupero da un mago dei computer, con un processore su ciascun arto
e numerosi cavi collegati a un banco di personal computer 486.
Ciascun PC è equipaggiato con una scheda personalizzata con un
convertitore analogico-digitale. I dati risultanti vengono quindi inviati
all'Onyx (si tratta dei dati provenienti dai tre waldo e da una
telecamera), dove vengono composti in tempo reale con un fondale 3D
preregistrato. “Donaldson voleva vedere un'animazione, ma voleva
anche avvicinare la telecamera, rendere quindi Sil più grande”, dice
Ibrahim.
“Così abbiamo scritto del software per renderlo possibile”.
In questo modo, il regista ha potuto cambiare l'angolazione della
telecamera per guardare l'azione da una prospettiva differente.
84
Per l'animazione facciale un burattinaio manipolava un aggeggio che
comprendeva delle levette per la mano sinistra e un controller per la
mano destra. La combinazione di questi elementi attivava uno dei 24
modelli facciali per produrre, per esempio, un'alzata di sopracciglia, un
ringhio o un occhio spalancato. Il waldo dedicato al controllo dei capelli
muoveva la capigliatura tentacolare di Sil tutta insieme. “Nelle
sequenze in cui invece "diventa Medusa"”, dice Ibrahim, “abbiamo
usato il programma Dynamation della Wavefront”. In effetti, i prodotti
Wavefront rappresentano il software principale di questo progetto. Per
aumentare il frame rate della visualizzazione in tempo reale, Hiro Yoki
Miyoshi della Boss ha reingegnerizzato il modulo Preview della
Wavefront.
Questo miglioramento, combinato con l'interfaccia progettata da
Gauthan Krishamurti della Boss, ha permesso al team di "giocare" con
Sil come se stessero mixando dei suoni.
“Potevamo prendere la parte inferiore del corpo, farla combaciare con
quella superiore e realizzare un nuovo movimento”, dice Ibrahim.
Uno dei motivi per cui tutto ha funzionato così bene è l'attenzione ai
dettagli da parte di Andre Bustanoby, responsabile dell'integrazione
grafica alla Boss, che confida molto nel fatto d'immettere informazioni
nel computer riguardo a una scena il più accuratamente possibile.
Per esempio, quando la scultura in dimensioni reali di Sil è stata
digitalizzata dalla Viewpoint Datalabs per poi modellare Sil con Alias,
Bustanoby ha deciso di usare gli stessi dati in Cadkey per realizzare il
burattino in scala 7/16. “Dal momento che tutto era in scala”, dice, “il
puntamento della telecamera diventava significativo.
Sil si muoveva nello spazio sul set e nel computer in modo molto
accurato”. Un'altra ragione per cui il puntamento funzionava bene era il
software che lui e il suo team hanno sviluppato.
Inoltre, Bustanoby ha analizzato accuratamente i set reali, per poi
ricostruire dei set in wireframe che facessero da riferimento per
l'animazione. Per quanto questi strumenti siano fantastici, non significa
che gli animatori siano rimasti con le mani in mano. “Potevamo vedere il
fondale con i movimenti della telecamera e della creatura in tempo
reale”, dice Somers. “Ma c'era comunque un enorme lavoro di rifinitura
da aggiungere successivamente, come il respiro, i capelli e i movimenti
delle dita”.
“La nostra idea iniziale era quella di catturare i movimenti, darli in pasto
al modulo Kinemation della Wavefront e usarli poi con RenderMan per il
processo di rendering”, dice Jim Rygiel, supervisore agli effetti digitali.
“Quando però abbiamo usato Kinemation, abbiamo notato imperfezioni
che non avevamo visto in bassa risoluzione, così abbiamo rifinito il
movimento”. Dale Baer, un animatore tradizionale, ha fatto da guida in
questa fase.
In alcune scene, i movimenti catturati sono serviti solo come
riferimento.
85
In altre, sono stati utilizzati per alcune parti del corpo, mentre per altre
parti è stata impiegata l'animazione tradizionale. “È stato un
procedimento misto”, dice Rygiel. Un elemento di complicazione è stato
poi il disegno stesso di Sil, realizzato da H.R. Giger, il creatore del
mostro del film Alien. “La realizzazione della creatura di Giger era un
progetto a dir poco ambizioso”, dice Rygiel.
“A causa della sua pelle trasparente, aveva anche una parte interna. E
in più non era una pelle liscia, ma stranamente ondulata”. Il modello in
computergrafica di Sil ha 500 mila poligoni e anche se in alcune scene
è stato possibile usarne di meno, si è dovuto comunque gestire quel
mezzo milione di poligoni in molte scene del film.
Rygiel racconta che numerose scene hanno dietro di loro un'opera di
computergrafica decisamente interessante. “È un lavoro notevole”, dice,
“usare trucchi 2D con tocchi di 3D per raggiungere una certa resa
finale”. Per queste scene è stato utilizzato ancora una volta il software
di animazione della Wavefront, Composer (sempre della Wavefront) per
il compositing, Alias per alcune modellazioni ed effetti di luce,
Softimage per la modellazione procedurale, Amazon 3D della
Interactive Effect per il disegno e RenderMan della Pixar per il
rendering.
“Pensavamo che fosse un tremendo lavoro di rendering”, dice Rygiel.
“Invece, normalmente ha richiesto 20 minuti per frame”.
Dati i tempi di lavorazione limitati, la velocità di rendering è stata utile.
“Potevamo arrivare alla resa finale velocemente e modificarla in fretta”,
dice Somers. “Ma è un'arma a doppio taglio. È un procedimento così
veloce da permettere di apportare modifiche. La buona notizia è che si
potevano effettuare modifiche. Ma la cattiva notizia era proprio il fatto
stesso di poterle effettuare”.
Con la prossima generazione di sistemi della Boss, progettati per una
maggiore capacità, la possibilità di effettuare modifiche renderà più
facile (e più difficile) la vita a Somers.
“Stiamo portando la computergrafica dagli studi ai set dal vivo”, dice
Ibrahim. “Questo cambia completamente il modo di fare animazione. In
più”, aggiunge sorridendo, “riusciamo a fornire un servizio
d'intrattenimento Sil è stata modellata a partire da una scultura a
dimensioni reali realizzata da Steve Johnson della XFX e digitalizzata
dalla Viewpoint Datalabs. A causa principalmente del fatto che la sua
pelle è trasparente, rendendo quindi visibile la sua struttura interna, il
modello in computergrafica risultante, creato alla Boss Film utilizzando
software Alias, è composto da un numero di poligoni variabile tra 250
mila e 500 mila. Sil è stata animata utilizzando un sistema di cattura del
movimento (motion capture) proprietario della Boss, utilizzato insieme
con i programmi Kinemation e Preview della Wavefront.
È stato poi utilizzato RenderMan della Pixar per il processo di
rendering. Ì
86
Regia:
Roger Donaldson
Sceneggiatura:
Dennis Feldman
Fotografia:
Andrej Bartkowlak
Montaggio:
Conrad Buff
Musica:
Christopher Young
Scenografia:
John Muto
Costumi:
Joe I. Tompkins
Creature e trucco effetti speciali:
Steve Johnson
Sil disegnata da:
H.R. Giger
Prodotto da:
Frank Mancuso, JR., Dennis Feldman
(USA, 1995)
Durata:
140'
Distribuzione cinematografica:
UIP
Distribuzione Home Video:
CIC VIDEO
PERSONAGGI E INTERPRETI
Xavier Fitch: Ben Kingsley
Sil: Natasha Henstridge
Press Lennox: Michael Madsen
Dan Smithson: Forest Whitaker
Laura Baker: Marg Helgenberger
Stephen Arden: Alfred Molina
John Carey: Whip Hubley
87
WATERWORLD
Kevin Reynolds, 1995
Per molte persone, la bellezza dell'oceano e di altre formazioni
acquifere sta nella loro semplicità. Per i modellatori e gli animatori al
computer che cercano di creare una rappresentazione realistica
dell'acqua, tuttavia, l'apparente semplicità nasconde un mare di
complessità. Alla Cinesite Digital Film Center, società di produzione con
sede a Hollywood, si sono resi subito conto di questo paradosso
quando è stata affidata loro la creazione degli effetti speciali per il film
Waterworld (Universal City Studios), un film d'azione/avventura
futuristico nel quale l'intero globo è coperto d'acqua.
La maggior parte di Waterworld è stato filmato su set con acqua reale,
fa notare Brad Kuehn della Cinesite, supervisore agli effetti digitali per il
progetto.
Alcune scene, tuttavia, sarebbero state troppo costose da filmare
sull'acqua, inclusa quella verso la fine del film che si svolge su una
petroliera. “La spesa del noleggio di una petroliera e di trasporto degli
elementi aggiuntivi per il set sarebbe stata assurda”, afferma Kuehn.
Invece, Michael McAlister, il direttore degli effetti visuali del film, ha
costruito una piattaforma di quasi 200 metri di lunghezza sulla
terraferma a Commerce, in California. Ha lasciato poi alla Cinesite il
compito di fare in modo che la piattaforma sembrasse una petroliera
galleggiante sull'acqua.
La simulazione dell'acqua al computer è una sfida in sé.
Cercare di creare un'acqua così realistica da non far capire al pubblico
che si tratta di una simulazione aumenta sostanzialmente la sfida.
Fortunatamente, quasi nello stesso periodo in cui il progetto di
Waterworld aveva inizio, i rappresentanti della Cinesite hanno assistito
a una dimostrazione di un nuovo programma di simulazione di oceani
sviluppato da una piccola società di ricerche applicate chiamata Areté
Associates, con sede a Sherman Oaks, in California.
Jerry Tessendorf, scienziato della Areté, racconta: “La nostra società è
sempre stata impegnata in esperimenti di remote-sensing nell'oceano.
Abbiamo sviluppato particolari tipi di sensori, principalmente
telecamere, ma non solo, e li abbiamo usati in ambienti oceanografici
per misurare le condizioni e l'ambiente dell'oceano. Di conseguenza,
abbiamo imparato molte cose sull'oceano, sia sulle sue proprietà
fisiche, sia su come quelle proprietà appaiono alla telecamera”.
Sfruttando la conoscenza acquisita dalla società nel corso degli anni,
Tessendorf e i colleghi Erik Krumrey e David Wasson hanno sviluppato
un programma per simulare scene oceaniche sia sopra che sotto il
livello dell'acqua (hanno cominciato a lavorare al codice molti anni fa).
La società ha intenzione di commercializzare una versione per SGI del
programma, chiamata RenderWorld, nella prossima primavera.
88
Tessendorf ha contattato la Cinesite per verificare la resa delle acque
generate dal programma nell'industria cinematografica.
Per dimostrare le potenzialità del software, Tessendorf ha mostrato agli
animatori una simulazione di 200 frame in risoluzione filmica di un'onda.
Impressionato dalla dimostrazione, Kuehn si è reso conto che molte
scene complicate di Waterworld potevano trarre beneficio dalla
simulazione dell'acqua.
“Se l'acqua è in una scala sbagliata, o con una velocità sbagliata, se
qualsiasi cosa non è corretta, lo si vede subito”, afferma. Quindi, la
Cinesite ha accettato di buon grado l'esperienza della Areté per il
progetto.
Anche se solo poche scene della petroliera avrebbero incorporato
l'acqua simulata (Tessendorf stima un totale di circa 30 secondi,
suddivisi in più riprese), sono stati necessari molti mesi di lavoro per la
sua creazione. Tessendorf e Kuehn sono d'accordo sul fatto che una
delle sfide più difficili è stata quella d'implementare il motion tracking.
Per seguire i movimenti della telecamera, la Cinesite ha posizionato 25
marker sulla parte superiore e sulle fiancate della petroliera di 200
metri.
Tessendorf racconta che “la telecamera era in continuo movimento, e
se l'acqua non si fosse mossa di conseguenza, non sarebbe apparsa
realistica.
La Cinesite ci ha fornito le posizioni e gli orientamenti della macchina
da presa per ogni frame, e la nostra simulazione ha mosso la
telecamera esattamente nello stesso modo”.
Kuehn aggiunge che “abbiamo anche indicato alla Areté la direzione del
sole, la velocità e la direzione del vento e l'altezza desiderata delle
onde. E loro le hanno messe nel programma”.
Per generare l'acqua, il programma della Areté tiene anche conto di
fattori che il normale artista di CG probabilmente non prenderebbe mai
in considerazione.
Per esempio, la Areté ha imparato dopo anni di ricerca che le onde più
piccole di quelle che si riescono a vedere con la telecamera software
influenzano comunque grandemente ciò che viene registrato. “Una
telecamera vede solo le strutture più grandi, tipicamente meno di quelle
presenti nell'oceano. Quello che fanno altri pacchetti è di generare
soltanto l'oceano che la telecamera può vedere. Ma abbiamo scoperto
che anche se le onde sono più piccole della risoluzione della
telecamera, bisogna comunque tenerle in conto, perché influenzano
quello che si vede.
Abbiamo passato anni a sviluppare tecniche per tener conto di queste
onde.
Per Waterworld, allo scopo di ottenere il massimo dettaglio, abbiamo
generato l'oceano con una risoluzione di circa 3 centimetri in tutte le
zone puntate dalla telecamera.
89
Per velocizzare la generazione, abbiamo applicato un ricampionamento
dinamico, in modo che quando la telecamera puntava all'orizzonte,
fosse meno sensibile e il programma generasse quindi meno dettagli”.
La Areté ha dovuto tenere in considerazione anche le richieste
artistiche del regista. Per esempio, in una scena il regista voleva che
l'acqua apparisse più luccicante.
Tessendorf spiega: “Quando abbiamo progettato originariamente il
codice, lo abbiamo concepito solo per un utilizzo nel campo della fisica.
Non era quindi possibile modificare i parametri.
Ma al regista piacevano alcune sequenze di riferimento e voleva
che l'acqua apparisse nello stesso modo. Quindi abbiamo messo
mano al codice e lo abbiamo modificato per permettere un
maggiore controllo sui parametri e dei ritocchi di tipo artistico”.
Gli artisti della Cinesite hanno effettuato le operazioni di compositing e
rotoscoping che hanno fuso perfettamente l'acqua simulata con il resto
del film. “Abbiamo fatto applicare un telone blu intorno a tutto il set, non
per usare tecniche di blue screen, ma per il rotoscopio”, racconta
Kuehn. “Il set era marrone, e il terreno intorno era dello stesso colore.
Sarebbe stato difficile per gli artisti vedere dove applicare il rotoscopio
con marrone su marrone.
Con il blu, potevano vedere dove lavorare”.
Anche se la Areté ha fornito agli artisti della Cinesite un'acqua con
un aspetto perfetto, durante le operazioni di compositing
quest'ultimi hanno dovuto comunque apportare alcuni
aggiustamenti, utilizzando il software Cineon della Kodak e
strumenti proprietari. “La Areté ci ha dato l'acqua e l'illuminazione
corretta, ma abbiamo dovuto armonizzarle con il resto del film”,
continua Kuehn. “Abbiamo aggiunto effetti come la nebbia
sull'acqua. Abbiamo anche diffuso i riflessi e suddiviso l'immagine
in varie sezioni, facendo in modo che gli elementi più lontani
fossero più sfocati, imitando così la naturale perdita di fuoco”.
Anche l'applicazione del rotoscopio è stata una grande sfida, fa
notare Kuehn. “Abbiamo dovuto lavorare su immagini di persone
che agitavano le armi, primi piani di teste, o capelli filamentosi.
Su tutti questi particolari abbiamo dovuto operare fotogramma per
fotogramma. Cinque anni fa, non si sarebbe potuto fare.
Gli strumenti ottici e di disegno non erano abbastanza potenti. Alla fine
bisogna avere una combinazione di strumenti giusti e talento artistico.
Se non si hanno artisti in gamba, non si ottengono i risultati.
Anche la Areté è orgogliosa del suo lavoro. E anche se la società ha
intenzione di proseguire il suo impegno nella realizzazione di nuovi
effetti speciali per il cinema, Tessendorf sottolinea che continuerà a
concentrarsi principalmente su quello che conosce meglio: i processi
fisici che influenzano i fenomeni naturali.
90
Regia:
Kevin Reynolds
Sceneggiatura:
Peter Rader e David Twohy
Fotografia:
Dean Semler
Scenografia:
Dennis Gassner
Montaggio:
Peter Boyle
Musica:
James Newton Howard
Produzione:
Charles Gordon, John Davis,Kevin Costner
(USA, 1995)
Durata:
130'
Distribuzione cinematografica:
UIP
Distribuzione Home video:
CIC VIDEO
PERSONAGGI E INTERPRETI
Mariner: Kevin Costner
Deacon: Dennis Hopper
Helen: Jeanne Tripplehorn
Enola: Tina Majorino
Gregor: Michael Jeter
91
101: DALMATIANS
Wolfgang Reitherman, 1996
Come si fa ad addestrare 101 cagnolini per farli sedere davanti alla TV
e far finta di seguire un videogioco sullo schermo?
“Non si può”, afferma Daniel Jeannette, supervisore delle animazioni
alla Industrial Light & Magic (ILM). Non è neanche possibile addestrarli
per far fare loro alcune delle altre cose richieste per questo film (un
rifacimento nel mondo reale del cartone animato La carica dei 101 della
Walt Disney), come correre in massa in un campo aperto. “Riuscite a
immaginare cosa voglia dire controllare la direzione di 101 cani che
corrono in un campo? Sarebbe praticamente impossibile!”.
La soluzione della ILM per questo problema, naturalmente, è stata
creare delle controfigure in CG dei cagnolini per affiancare quelli veri
che sono i protagonisti del film. Tuttavia, non è stato per niente facile
armonizzare i cani in CG con quelli veri. “Il problema del film La carica
dei 101 era fare in modo che gli animali in CG sembrassero simili a
quelli reali”, racconta Doug Smythe, supervisore associato degli effetti
visuali.
Diversamente dalla sequenza della fuga in Jumanji, nella quale
tutte le creature erano in CG, “per questo film abbiamo inserito i
nostri cani generati in CG nella stessa scena, persino fianco a
fianco, con cani reali. Quindi quelli in CG dovevano essere
assolutamente realistici. Dovevano essere perfettamente corretti
l'illuminazione, il pelo... è stato un lavoro complicato”.
Per riuscire nell'impresa, gli animatori hanno usato RenderMan per la
maggior parte dell'illuminazione e del rendering, completando il lavoro
con codice proprietario. “Per esempio”, riporta Smythe, “per gestire il
pelo abbiamo aggiunto un modulo apposito a Prender, il renderer
proprietario di particelle che abbiamo usato per Twister.
Per le scene nelle quali tutti i cagnolini sono in CG, abbiamo creato 14
modelli da inserire nelle scene, e poi abbiamo animato singolarmente
ogni cagnolino. Abbiamo iniziato con alcune animazioni di base da
ripetere più volte, e poi abbiamo aggiunto delle sfumature ad alcuni dei
cagnolini in primo piano, per esempio per cambiare lo sguardo,
rallentare un po' o annusare il terreno”.
Dato che la maggior parte delle sequenze richiedevano la presenza di
un massimo di ben 99 cagnolini in CG, la ILM ha dovuto animare i cani
in modo da combinare tipi diversi di movimento. “Siamo arrivati a
realizzare circa 50 o 60 cicli di animazione per movimento: un cane che
cammina, uno che corre, uno che trotta...”, spiega Jeannette. “Poi
abbiamo personalizzato l'animazione per adattarla alla scena. Inoltre,
abbiamo creato un cane e ne abbiamo variato le dimensioni, poi
abbiamo applicato casualmente vari schemi di macchie sul corpo. In
questo modo, abbiamo aggiunto un po' di varietà all'aspetto dei
92
cagnolini, in modo da non far capire che si trattava dello stesso modello
replicato più volte”.
93
Regia:
Wolfgang Reitherman, Hamilton Luske,
Clyde Geronimi, Walt Disney
Soggetto:
Bill Peet
(tratto dall'omonimo libro di Dodie Smith)
Colonna Sonora:
George Bruns
Produzione:
Walt Disney
(USA, 1961)
Durata:
76'
Distribuzione cinematografica:
Buena Vista
Distribuzione home video:
Buena Vista Home Video
94
DRAGONHEART
Rob Cohen, 1996
Siamo intorno all’anno 1000. Finalmente la ribellione dei contadini
contro il re despota ha avuto una svolta: sul campo di battaglia lo
stesso sovrano è caduto e il suo erede, il principe Einon, è rimasto
ferito gravemente ha causa di un incidente fortuito.
Portato così in una grotta da sua madre, la regina Aislinn e dal suo
precettore Bowen, un forte e nobile cavaliere votato agli alti ideali
dell’Antico Codice, il ragazzo viene salvato dalla metà del cuore donato
dal drago che abita al suo interno, dopo aver giurato che la tirannia e la
sete di sangue sarebbero state sempre sepolte.
Einon si dimostra però con il passare degli anni, despota molto più
malvagio dello stesso defunto padre e Bowen, credendo che proprio il
cuore del drago abbia avvelenato Einon, giura di dare la caccia alla
creatura per il resto della sua vita.
Bowen abbandona disgustato il reame, rinnega i suoi ideali
cavallereschi e dedica la sua vita allo sterminio dei draghi, responsabili,
secondo la sua visione, del cambiamento del re.
Dodici anni dopo, Bowen ritorna al suo paese natale ma ormai l’onore e
l’Antico Codice sono solo un sbiadito ricordo che hanno lasciato il
passo a rassegnazione e rabbia.
Insieme al frate e scrittore Gilbert il cavaliere trova finalmente l’ultimo
drago rimasto, ma dopo una gloriosa battaglia che ne sancisce l’uguale
forza, i due decidono di allearsi per reciproco vantaggio: il cavaliere in
ogni villaggio attaccato dal drago fingerà di ucciderlo intascando la
ricompensa, mentre Draco, (questo è il nome dato da Bowen la drago,
doppiato dal bravissimo Gigi Proietti nella versione italiana), creduto
morto sarà lasciato in pace dagli altri cavalieri che vogliono farsi un
nome con la sua morte.
I due vivono così alla meno peggio, ma la visita alla tomba di Re Artù e
l’incontro con la bellissima Kara, figlia del capo della passata rivolta,
danno la svolta alla storia.
Scoperto che Draco era il drago che aveva salvato l’attuale re, e
scoperto che Einon aveva tradito fin da piccolo la fiducia di Bowen,
calpestando l’Antico Codice e imparando solo ciò che gli poteva servire
per conquistare il trono, Bowen, ritrovando finalmente il suo antico
onore e la sete di giustizia, Kara Gilbert e Draco si alleano per
sconfiggere la tirannia del sovrano, consapevoli però che il destino di
Draco e di Einon sono indissolubilmente legati…
L'idea del film e' venuta a Patrick Read Johnson nel lontano 1990 ma il
progetto arriva sugli schermi d'oltre oceano solo nel 1996 visto che la
fase di pre-produzione e' stata lunga e travagliata.
La sceneggiatura e' stata scritta da Charles Edward Pogue ("La
Mosca") sempre nel 90 e doveva rappresentare proprio il debutto di
95
Johnson come regista ma come spesso avviene in questi casi (film in
costume ed ad alto budget) l'Universal non se l'è sentita di affidarsi ad
un esordiente e il progetto e' rimasto quindi bloccato per anni. Poi e'
arrivato Richard Donnel ("Arma Letale") e ha provato a fare il film
avendo in mente Harrison Ford nella parte di Bowen, ma niente da fare
visto che i costi erano elevati anche per lui. Il film sembrava destinato
all'archiviazione ma ecco la soluzione: arriva Raffaella De Laurentis
(figlia del più famoso produttore Dino De Laurentis) e con la sua
inventiva italiana e' riuscita a fare il miracolo. Invece che negli Stati Uniti
si poteva girare il film in Slovacchia dove l'affitto di un teatro costava
600 dollari invece di 6000. Inoltre si sarebbe potuto risparmiare
ulteriormente, utilizzando le maestranze locali per costruire i set e
riservare gran parte del budget per i complessi effetti speciali di postproduzione. Il film ha avuto quindi il semaforo verde e per la regia ci si
e' affidati a Rob Cohen che si era appena fatto notare realizzando
l'ottimo "Dragon: La Storia di Bruce Lee".
Il film venne girato dal Luglio al Dicembre del 1994 negli splendidi
esterni del paese dell'Europa centrale o nei Koliba Studios di Bratislava
(qui sono stati girati gli interni delle caverne, le stanze da letto e i cortili
del castello). Il lavoro sul set e' stato molto complesso e calcolato al
millimetro visto che decine di pertiche corredate da due palline da
tennis, gli occhi del drago, erano l'unico riferimento fisso per gli attori ed
indicavano il punto preciso dove guardare. Inoltre il terreno doveva
essere battuto sotto gli immaginari passi di Draco, l'acqua smossa
esattamente come al suo passaggio e condotti del gas, scavati nel
terreno, accesi al momento giusto per simulare le potenti fiammate.
Per finire, sulla testa degli attori volava un piccolo aereo dove una
speciale telecamera riprendeva la soggettiva del drago attraverso il
fumo e le fiamme. Unica consolazione era l'accompagnamento costante
della voce pre-registrata di Sean Connery che recitava le battute di
Draco nella sua maestosità.
Nei due anni successivi la ILM ha lavorato intensamente alla nascita di
Draco e alla sua creazione. Sotto la supervisione di Phil Tippet
(creatore dei dinosauri di Jurassic Park) si e' prima decisa la morfologia
del drago e le sue dimensioni in relazione alle inquadrature e
all'interazione con gli altri personaggi della storia. Dopo un lavoro
accurato di ben 5 mesi finalmente la scultura completa e' stata
sottoposta a scansione 3D e introdotta su stazioni SGI. 96 tra animatori
e direttori tecnici hanno realizzato le 181 riprese (corrispondenti a circa
30 minuti) dove un vero drago si può vedere alla luce del sole sullo
schermo.
Il problema più grande relativo alla post-produzione e' stato quello di
sincronizzare la voce di Connery con il movimento labiale di Draco,
visto che era una cosa mai provata prima: abbandonata l'idea del
Motion Capture (non sempre perfetto) e' stato utilizzato un programma
di sincronizzazione (lip-sinc) appositamente creato chiamato CARI (da
96
caricature). Questo software ha permesso di copiare, da numerosi film,
le varie espressioni facciali e gli atteggiamenti del doppiatore Sean
Connery e di "attaccarle" al muso di Draco permettendo cosi' di fargli
esprimere tutte le emozioni possibili (gioia, rabbia, tristezza, ecc.) e di
renderlo ancora più vivo agli occhi di tutti. Problematico e' stato anche il
lavoro di inserimento delle immagini digitali sulla pellicola (compositing).
Importanti fattori non dovevano essere trascurati, come la dimensione
fisica dell'inquadratura e degli attori, la dinamica della scena (cioè
aggiungere quei piccoli particolari che non si sono potuti aggiungere
durante le riprese) e i particolari movimenti che dovevano obbedire a
ferree leggi fisiche.
I modellisti sono partiti dalla digitalizzazione mediante Cyberware del
modellino di Tippet, in questo modo hanno ottenuto delle strutture di
riferimento per determinare le proporzioni.
Ciascuna parte del Drago è stata realizzata usando la minima quantità
di dati, poiché i modellisti sapevano che quando il modello sarebbe
stato messo insieme sarebbero stati aggiunti maggiori dettagli.
Per creare queste parti hanno fatto uso del software Alias ma, quando
hanno finito, il modello completo era troppo grande per essere gestito,
quindi i dati sono stati caricati in Softimage 3.0 della Microsoft.
Ancora prima che iniziasse la modellazione era chiaro che gli animatori
avrebbero avuto bisogno di strumenti specializzati per gestire la
sincronizzazione labiale di un modello così complesso.
Il progettista software Cary Philipps ha scritto ciò che è diventato un
software proprietario molto interessante, battezzato opportunamente
Cari, “caricatura”.
Con cari gli animatori sono riusciti a gestire l’intera caricatura e
muoverla velocemente anche con un buon livello di ombreggiatura
applicata.
Per creare l’animazione facciale di Draco, gli animatori utilizzando Cari
hanno realizzato una vasta libreria con diversi modelli del viso, così
facendo hanno potuto realizzare tutte le espressioni necessarie.
La sfida era di far sembrare in qualche modo che Draco parlasse come
Sean Connery.
Gli animatori dovevano essere in grado di cambiare e controllare nel
tempo piccoli movimenti.
Dovevano poter ascoltare le parole, immaginare le espressioni del
volto, apportare una modifica e vedere subito i risultati per controllare
che funzionasse.
Per creare la sincronizzazione Doug Smith, recitava le battute di Drago
ad uno specchio posto di fianco al monitor, quindi si spostava su un
particolare fotogramma della timeline, consultava un elenco di 20-30
forme, ne selezionava una che voleva modificare, poi decideva quale
percentuale di quella forma, usare in quel particolare momento. Per la
bocca ha creato una chiave ogni tre fotogrammi. In modo simile poteva
97
modificare tutte le altre parti del muso di Draco per crearne
l’espressione.
Per esempio, abbassando e alzando una palpebra si cambiava
l’espressione di Draco da addormentata a sveglia, da arrabbiata a
sorpresa; spostandosi sulla timeline Smith identificava l’espressione
che voleva modificare, consultava l’elenco di espressioni della libreria e
immetteva dati in percentuale sulle forme da cambiare. Bisogna
sottolineare il fatto che tutti questi cambiamenti sono da considerarsi
come modifiche da effettuare nel tempo, facendo in modo che ogni
movimento rispetti i tempi di copione. La maggior parte dell’animazione
del corpo è stata fatta con Softimage su workstation Silicon Graphic
utilizzando la cinematica inversa.
I modellisti digitali Paul Hunt, Dan Taylor e Bruce Buckley hanno
lavorato rispettivamente sulla testa e sul collo, le ali e le zampe
posteriori; Poul Giacoppo ha lavorato su tutto quello che c’è in mezzo. Il
modello ha 261.400 vertici di controllo e 5,68 MB.
Per fare un confronto il Tyrannosaurus Rex di Jurassic Park aveva
37.173 vertici di controllo e 1,03 MB di geometria.
Animare questo gigantesco modello e renderlo fotorealistico nel
contesto di scene riprese dal vivo era un’impresa colossale.
Draco appare insieme ad attori umani nelle stessa luce e con le stesse
ombre, in scene illuminate da falò e dalla luce della luna.
È alternativamente felice, triste, arrabbiato, imbarazzato e offeso.
Cammina, vola, sputa fuoco, nuota e si atteggia.
“È stato una specie d’insano e bizzarro esercizio di bravura”, afferma
James Straus, supervisore all’animazione.
“Abbiamo animato una creatura fotorealistica con il modo di fare di
Sean Connery, che cammina sull’erba, nuota sott’acqua, vola sullo
sfondo del sorgere del sole, si rotola nel fango e s’infila sotto una
cascata.
È come se avessimo fatto l’elenco di tutte le cose che sono difficili da
fare con la computergrafica, e le avessimo realizzate.
Seguendo i suggerimenti del regista Ron Cohen, è stato creato un
drago orgoglioso e regale. “Cohen voleva un personaggio reale, che si
accordasse alla voce di Connery”, racconta Straus.
Quando Draco vola, Cohen ha suggerito che facesse un grande sforzo
per rimanere in aria. “Pensavo che fosse pazzo”, dice Straus, “ma devo
ammettere che è stato molto meglio così, piuttosto che farlo librare
come un aquilone tenuto da un filo”. Oltre alle difficoltà affrontate dal
team per la modellazione e l'animazione di Draco, è stato necessario
creare sofisticati shader di RenderMan per inserire il personaggio nelle
scene riprese dal vivo. In una scena scura, creata da Macdonald, una
cascata di acqua cade sulle ali traslucide di Draco, che riempie
completamente l'inquadratura. L'acqua è interamente realizzata in
computergrafica. In un'altra sequenza, Draco atterra in un lago poco
profondo. “In questo caso, dovevamo mettere insieme l'acqua con lo
98
shader della pelle di Draco alla luce del giorno, e fare anche in modo
che Draco s'infangasse”, spiega Macdonald.
In un’altra sequenza Draco bivacca con Bowen (Dennis Quaid), e si
vede la distorsione del calore su Draco e una luce variabile causata dai
bagliori del falò. Di notte, si vede Draco che proietta un'ombra su
Bowen, che sta dormendo al chiaro di luna. Quando Draco vola basso
sull'erba, questa si muove; quando cammina in mezzo all'erba, questa
viene schiacciata sotto le zampe.
In una scena, l'illuminazione è data da una parte da un falò, dall'altra
dal chiaro di luna. Per creare l'impressione della pioggia battente sulle
ali di Draco, Euan Macdonald della ILM ha scritto uno shader di
displacement per l'acqua in RenderMan, uno dei tanti di questo tipo
usati nel film. La pelle di Draco è stata creata da Carolyn Rendu con il
software proprietario Viewpaint Quando Dragonheart è stato presentato
nelle sale cinematografiche, ha suscitato reazioni contrastanti: i critici
hanno bocciato la storia, ma hanno osannato gli effetti speciali.
Quando Draco è stato presentato nelle sale cinematografiche, ha
suscitato reazioni contrastanti, i critici hanno bocciato la storia ma
hanno osannato gli effetti speciali.
In ogni caso negli USA il film è rimasto in classifica tra i primi 10 per un
mese intero.
99
Regia:
Rob Cohen
Sceneggiatura:
Charles Edward Pogue
Fotografia:
David Eggby, A.C.S.
Musica:
Randy Edelman
Scenografia:
Benjamin Fernandez
Costumi:
Anna Shepherd
Montaggio:
Peter Amundson
Prodotto da:
Raffaella De Laurentis
(USA, 1996)
Durata:
100'
Distribuzione cinematografica:
U.I.P.
PERSONAGGI E INTERPRETI
Bowen: Dennis Quaid
Einon: David Thewlis
Gilbert: Pete Postlethwaite
Kara: Dina Meyer
Felton: Jason Isaacs
Brok: Brian Thompson
Einon da giovane: Lee Oakes
Hewe: Wolf Christian
Redbeard: Terry O'Neill
Re Freyne: Peter Hric
Felton's Minx: Eva Vejmelkova
Voce di Draco: Gigi Proietti
100
INDEPENDENCE DAY
Roland Emmerich,1996
Per capire come sia possibile realizzare un film così spettacolare come
Independence Day, è interessante riportare il modo in cui è nata l'idea
del suo soggetto. Subito dopo l'uscita del film Stargate, il regista Roland
Emmerich aveva stupito una giornalista affermando di non credere alla
possibilità che gli alieni avessero visitato la Terra. “Com'è possibile
allora realizzare un film come Stargate?”, aveva domandato la
giornalista. Emmerich rispose che la cosa che più lo interessava era di
dare vita a ipotesi suggestive. “Per esempio, immaginate che un giorno
la gente si svegli e veda fuori dalla finestra dei giganteschi dischi volanti
che incombono sulla principali città di tutto il mondo. Non sarebbe un
evento suggestivo?”. Subito dopo quell'intervista, Emmerich prese in
disparte lo sceneggiatore-produttore del film, Dean Devlin, e gli disse:
“ho l'idea per il prossimo film”. Dopo pochi giorni, Emmerich e Devlin si
rinchiusero in una stanza di hotel, dove si dedicarono alla stesura della
sceneggiatura e alla realizzazione dello storyboard di Independence
Day. Il fatto che nella stessa stanza fossero riuniti il regista, lo
sceneggiatore e il produttore del film, ha permesso di rendere ben
chiaro sin dall'inizio del progetto cosa far vedere, come realizzarlo e con
quanti soldi. Il risultato è un film che, con "soli" 70 milioni di dollari di
budget, comprende ben 512 sequenze di effetti speciali che durano
complessivamente la bellezza di 50 minuti.
Per la maggior parte delle scene madri, in effetti, la ricerca del dettaglio
e della complessità ha fatto optare per l'utilizzo di modellini fisici,
spesso di grandi dimensioni. È questo il caso delle gigantesche
astronavi o delle città che vengono rase al suolo dalle tempeste di
fuoco aliene. Ma ogni scena ha richiesto un grande lavoro di
compositing digitale: vi sono ben 340 sequenze di compositing, alcune
delle quali durano fino a 50 secondi.
Inoltre, alcuni fondali, soprattutto per le scene nello spazio, sono
completamente realizzati in CG. Per effettuare una tale mole di lavoro,
tra l'altro in brevissimo tempo (la produzione aveva come target di
uscita inderogabile negli USA il 4 di luglio, giorno in cui è ambientato
anche il film), il supervisore agli effetti digitali, Tricia Ashford, lo ha
affidato a ben sei case di post-produzione diverse, che hanno lavorato
parallelamente sulle varie sequenze.
È stata anche formata un'unità di CG interna alla produzione,
controllata da Tara Turner, Joseph Francs e Steven Puri.
La Pacific Ocean Post e la Digiscope sono le società di post-produzione
che hanno fatto la parte del leone, avendo elaborato una sessantina di
sequenze ciascuno e un numero complessivo di 45 mila elementi
fotografici e generati al computer. E il tutto a tempo di record.
101
Una delle scene che hanno richiesto un grande sforzo di elaborazione è
quella in cui le grandi astronavi fuoriescono dalle strane nubi luminose
che le nascondevano. In quel caso, le astronavi erano modellini fisici di
grandi dimensioni, mentre le nubi sono state realizzate mediante un
particolare impasto immerso in una vasca d'acqua. L'elaborazione
digitale ha dovuto rendere credibile il tutto.
Le inquietanti ombre che si distendono sulle città all'arrivo delle
astronavi, sono state realizzate elaborando digitalmente i colori di
fotografie aeree. Tuttavia, per la città di New York i molti grattacieli
creavano troppe variazioni di altezza e di ombre, il che ha imposto la
realizzazione di un modello 3D in wireframe che è stato sovrapposto
all'immagine fotografica. Un codice proprietario inserito in Alias ha
permesso d'inserire una sorgente di luce che simulasse il sole e un
modello dell'astronave da far spostare lentamente per proiettare
correttamente l'ombra. Anche il gigantesco meccanismo di "sparo"
dell'arma aliena è stato composto digitalmente sull'immagine
dell'astronave. Alla struttura dalla forma simile a enormi petali di fiori,
realizzata con un modellino fisico, sono state aggiunte le scariche e il
fascio di energia creati completamente al computer da Stefan Couture.
I cieli stellati che fanno da sfondo all'arrivo degli alieni sono stati creati
con un semplice sistema particellare, le immagini della Terra sono state
realizzate mappando su un modello tridimensionale le migliori foto degli
archivi NASA.
Per la sena finale del film, la sceneggiatura prevedeva che un pilota di
aerei per la disinfestazione agricola usasse il suo vecchio biplano per
gettarsi al centro del fascio dell'astronave e la facesse esplodere.
Terminato il film e sottopostolo al giudizio preliminare di alcuni
spettatori, questi non hanno gradito una soluzione così "poco
tecnologica". Quando già mancavano poche settimane all'uscita del
film, è stato allora deciso di sostituire digitalmente il biplano con un
caccia F-18. A quel punto, però, l'esplosione derivante dall'impatto non
era assolutamente proporzionata alle maggiori dimensioni dell'aereo, e
per di più il team che si occupava delle esplosioni aveva già finito da
tempo il suo lavoro e non era più disponibile. Per aggirare il problema, è
stata estratta la gigantesca esplosione nella scena realizzata per
l'Empire State Building, la si è rovesciata (nella sequenza originale
andava dall'alto verso il basso) e la si è composta digitalmente con la
sequenza dell'impatto dell'aereo.
Il risultato finale è praticamente perfetto. In alcune scene, la
computergrafica è diventata non solo la protagonista, ma si è
praticamente sostituita ad attori e sceneggiatori... È il caso delle due
scene di combattimento (quella iniziale e quella finale) tra caccia F-18
terrestri e le "piccole" astronavi aliene di attacco.
Nelle fasi più concitate, si vedono sullo schermo centinaia di velivoli che
si inseguono, si sparano e si distruggono a vicenda. Mentre nelle scene
più ravvicinate è stato possibile usare modellini fisici ed eventualmente
102
"replicarli" digitalmente per aumentarne il numero sullo sfondo,
muovere singolarmente un numero così elevato di oggetti era
impensabile. È stato quindi sfruttato uno speciale sistema particellare
sviluppato dalla VisionArt, chiamato Spanky, per gestire e "orchestrare"
il combattimento.
Ogni particella era costituita da un intero velivolo, terrestre o alieno,
realizzato in computergrafica con il programma Alias in modo
perfettamente fotorealistico (per le texture del caccia F-18 sono state
utilizzate fotografie dell'aereo reale). Ogni velivolo era "istruito" su quali
obiettivi doveva colpire, con quale percentuale di successo e cosa
doveva fare in caso fosse colpito. Nella maggior parte dei casi, dopo
essere stati colpiti i velivoli venivano sostituiti automaticamente con
modelli di esplosione. Alcuni parametri globali del sistema
permettevano di variare durante la simulazione il numero di velivoli
alieni rispetto a quelli terrestri, la percentuale di esplosioni e il livello di
"successo" di una parte rispetto all'altra.
103
Regia:
Roland Emmerich
Sceneggiatura:
Roland Emmerich, Dean Devlin
Fotografia:
Karl Walter Lindenlaub
Montaggio:
David Brenner
Scenografia:
Oliver Scholl, Patrick Tatopoulos, Jim Teegarden
Costumi:
Joseph Porro
Musica:
David Arnold
Effetti speciali:
Volker Engel, Doug Smith
Prodotto da:
Dean Devlin
(USA, 1996)
Durata:
145'
Distribuzione cinematografica:
20TH CENTURY FOX
Distribuzione home video:
FOX HOME VIDEO
PERSONAGGI E INTERPRETI
Il presidente: Bill Pullman
Capitano Steve Hiller: Will Smith
David: Jeff Goldblum
Constance: Margaret Colin
Marty: Harvey Fierstein
Marilyn: Mary Mc Donnell
Generale Grey: Robert Loggia
Russell: Randy Quaid
104
MARS ATTACKS!
Tim Burton,1996
Un bel giorno la Casa Bianca avvista dei dischi volanti provenienti da
Marte.
Subito il governo si divide tra falchi e colombe: c'è il solito generale
guerrafondaio (un irresistibile Rod Steiger) che vorrebbe affrontarli con
le armi, ma un presidente vanesio e superficiale (Jack Nicholson in
stato di grazia) abbindolato dagli scienziati pacifisti, decide di preparare
un'accoglienza trionfale (complice l'isterismo collettivo della
popolazione) ai nuovi amici venuti dallo spazio.
Pessima idea perché i marziani sono piuttosto agguerriti e iniziano a
mettere a ferro e fuoco il pianeta.
Sarebbe la fine dell'umanità se un paio di disadattati (un giovane un po'
ritardato e sua nonna) non scoprissero per caso che gli alieni possono
essere sconfitti a colpi di musica country...
Il film diventa un pretesto per mettere in scena un'opera a più livelli.
Film sarcastico sulla società americana, ma anche omaggio ai film di
serie B e al filone catastrofico, il tutto realizzato con una messa in
scena fiammeggiante e colorata a metà strada tra Almodovar e John
Waters.
Si ritrovano in "Mars Attacks!" i temi prediletti dal giovane regista
americano: l'affetto per i diversi e gli emarginati, il trionfo della
spontaneità, l'amore per il cinema.
L'idea di Mars Attacks!, come più volte ricordato nelle nostre news,
nasce dalle figurine della Topps uscite nel 1962 in America
rappresentanti raccapriccianti creature provenienti da Marte che, come
cavallette, invadevano la Terra seminando panico e sangue. Figurine,
peraltro, ritirate subito dopo perché ritenute troppo crudeli.
Tim Burton associa a questa idea dei marziani feroci, le atmosfere dei
film catastrofici degli anni '70 ambientate in un'America di fine millennio
che però, per fotografia, ricorda quella degli anni '50. Poi aggiunge un
cast d'attori notevole, tra cui spicca il grande Jack Nicholson, e una
montagna d'effetti speciali che fin dai titoli iniziali ci inchiodano alla
sedia.
Per la sceneggiatura il regista si affida all'inglese Jonathan Gems, già
autore di diverse commedie teatrali e, forte di questa esperienza, il
prodotto finito - riveduto anche da Scott Alexander e Larry Flynt diviene senza ombra di dubbio una geniale visione ricca di intelligenza
e umorismo irresistibile.
Finalmente tornano gli alieni crudeli dei vecchi film degli anni '50, che
rappresentavano per gli Americani la paura di un'invasione comunista,
ma questa volta tornano, come film di Serie A, a bastonare una società
che se lo merita.
105
I marziani di Burton sono cattivi da morire, con la morale sotto le suole
delle scarpe, e si prendono gioco della nostra umanità facendocela in
barba non appena gli si da un po' di fiducia.
Tra una scena e l'altra il messaggio di Burton sembra essere sempre
molto chiaro, per chi sa leggere tra le righe. Non siamo sicuri che la
Terra meriti davvero di sopravvivere in questo mondo fatto di retorica e
stupidità umana. Qui, come ho sentito dire da più parti, è il peggio a
salvare dal peggio.
E in quest'ottica il divertente film Mars Attacks! assurge mimeticamente
a pellicola mortalmente seria, dove la distruzione della cultura
consumistica americana, fatta di politici, televisione ed esercito merita
di soccombere per sempre.
Finalmente ci becchiamo i
marziani che ci meritiamo!
Per realizzare i buffi e micidiali alieni, Tim Burton pensò subito di
utilizzare la stop-motion, cioè quella tecnica nella quale i pupazzi o
modellini vengono animati mettendoli in posa manualmente e
costruendo un’immagine per volta.
I personaggi animati in stop-motion dovevano poi essere compositati
digitalmente con i modelli fisici delle astronavi e con sequenze dal vivo.
Effettuati i primi test, ci si accorse che l’animazione in stop-motion
presentava notevoli difficoltà, soprattutto per i grandi caschi in vetro
indossati dagli alieni.
Per ogni “scatto” dell’animazione si sarebbe dovuto ripulire
accuratamente il vetro dei caschi di ogni singolo alieno per evitare il
rilevamento di impronte e dato il grande numero di alieni presenti
contemporaneamente nella stessa scena il lavoro si presentava al
quanto snervante.
Si decise allora di affidare la realizzazione dei caschi alla ILM che
avrebbe dovuto crearli in CG e compositarli con le immagini in stopmotion e i modelli delle astronavi.
Il tipo di lavoro offerto alla ILM era tutt’altro che semplice, poiché il
lavoro di compositing e sincronizzazione tra le immagini digitali e gli
elementi presenti nella scena si presentava molto complesso a causa
dell’elevato numero di elementi presenti in un’unica scena.
Per aggirare questa difficoltà l’ILM decise di realizzare un’animazione
con tre marziani composti con immagini dal vivo e di presentarla quindi
al regista.
La visione del film piacque talmente che Tim Burton decise di affidare
alla ILM la realizzazione in computergrafica di tutte le creature, inoltre
decise di realizzare digitalmente anche tutti gli esterni delle astronavi,
affidandone il compito alla Worner Digital Studios (WDS).
Per realizzare i modelli e le animazioni degli alieni, la ILM ha dovuto
mettere insieme il più grande team di animatori dai tempi di Casper. Nei
momenti più intensi della produzione, si è arrivati a una settantina di
persone, suddivise tra una ventina di animatori, una trentina di direttori
tecnici (cioè chi si occupa del rendering e dell’illuminazione), vari
106
match-mover (chi si occupa di far corrispondere i movimenti della
telecamera in CG con quelli della macchina da presa), esperti di
rotoscopio e personale di supporto. Sono stati creati una novantina di
modelli diversi interamente in computergrafica, inclusi sette modelli di
alieni, le strane pistole a raggi usate dai marziani, alcuni elementi
all’interno dell’astronave, e un robot gigante che semina la distruzione
sulla Terra.
Per velocizzare la realizzazione dei modelli e delle animazioni degli
alieni, la ILM ha per prima cosa svolto un lavoro di armonizzazione di
tutti gli strumenti software proprietari e non utilizzati su stazioni Silicon
Graphics per precedenti produzioni, come il sistema di particelle
Dynamation usato per Twister, il software di animazione Caricature
creato per Dragonheart, il programma di modellazione/animazione
Softimage 3D utilizzato per Jurassic Park, e il pacchetto di rendering
RenderMan della Pixar. In questo modo, tutti gli operatori avevano a
disposizione una suite unificata di strumenti, permettendo un migliore
scambio d’informazioni e di dati tra i vari team.
La supervisione per la creazione dei modelli degli alieni è stata
assegnata ad Andy White. Per colorare i vari elementi del modello,
come il casco di vetro, il cervello e le tute degli alieni, è stato utilizzato il
sistema proprietario Viewpaint, che permette di disegnare le texture
direttamente sul modello tridimensionale. Jean Claude Langer ha
colorato le tute, mentre Carolyn Rendu si è occupata del cervello. Per
non appesantire troppo la geometria della testa, si è modellata una
forma piuttosto semplice e le circonvoluzioni del cervello sono state
aggiunte mediante una texture e una displacement map creata con
RenderMan.
La displacement map consisteva in una mappa in toni di grigio dei rilievi
del cervello, che è stata sfruttata da RenderMan per spostare i punti
lungo le normali alla superficie della testa in fase di rendering.
Le caratteristiche fisiche degli alieni, furono indicate da Tim Burton con
estrema precisione.
Il loro aspetto doveva essere brutto ma nello stesso tempo minaccioso,
i loro movimenti rapidi e leggeri come quelli di un uccellino, ma
dovevano anche integrarsi perfettamente con gli esseri umani.
L’esperienza di Tim Burton nel dirigere film d’animazione si è rivelata
molto utile agli operatori della ILM.
Tim Burton non aveva, a differenza di molti registi, la necessità di
vedere la sequenza ad alta risoluzione per riuscire ad apportare
eventuali modifiche, il regista riusciva a dare indicazioni precise anche
quando, sul monitor del computer, appariva solo un modellino
wireframe.
Anche la realizzazione del vetro dei caschi ha richiesto una particolare
attenzione.
Attraverso bump map e mappe di opacità si sono aggiunti graffi e ditate.
107
Nella sequenza della “marziana sexy”, un alieno camuffato da donna
provocante, penetra nella Casa Bianca e cerca di assassinare il
presidente.
La marziana è interpretata dall’attrice Lisa Marie, che indossa una
vistosa parrucca adatta a coprire il cervello alieno, ma nella parte finale
la parrucca viene sfilata mostrando una testa marziana sul corpo
umano.
In questa situazione l’ILM ha dovuto comporre e sincronizzare i
movimenti della testa realizzati in computergrafica con quelli del corpo
dell’attrice.
Per prima cosa è stata cancellata dalle sequenze dal vivo, la testa
dell’attrice che è stata sostituita con la testa aliena in wireframe.
Infine si è proceduto all’animazione e sincronizzazione delle immagini in
CG con quelle dal vivo, qui i match-mover hanno seguito la macchina
da presa che continuava a cambiare il punto di osservazione insieme a
un soggetto, l’attrice, sempre in movimento, un lavoro veramente
faticoso.
Un’altra sequenza problematica è stata quella nella quale il
personaggio chiamato Byron, interpretato dall’attore Jim Brown, fa
letteralmente a pugni con uno stuolo di marziani. In questo caso, il
problema era dato dalla stretta interazione del personaggio reale con
quelli
virtuali,
e
dall’alto
numero
di
marziani
presenti
contemporaneamente nella scena: da 50 a 70. Innanzitutto, è stata
ripresa la scena dal vivo, con l’attore Jim Brown che faceva a pugni
con... l’aria.
L’attore doveva far finta di picchiare decine di personaggi alti circa un
metro e mezzo, cadere sulle ginocchia e far "sentire" il peso di decine di
corpi che lo schiacciavano. Durante le riprese, era presenta un matchmover della ILM che misurava con precisione i movimenti della
macchina da presa, la distanza e la posizione dell’attore. Al computer, è
stata ricreata una versione in wireframe dell’attore, per evidenziare la
sua posizione rispetto ai marziani e per dare un’idea della direzione
dello sguardo. Per gestire il gran numero di alieni, Ellen Poon ha scritto
un software apposito, Pawns, che permette di posizionare sulla scena
una versione semplificata dei personaggi, privi di gambe e di braccia,
ma con una forma comunque simile ai personaggi definitivi. Gli alieni
sono stati poi suddivisi in gruppi; in base alla posizione dell’attore, si è
proceduto ad animare il combattimento di singoli gruppi, mentre gli altri
eseguivano dei semplici cicli di "incitamento". Il fatto di animare e
renderizzare singoli gruppi, ha però creato un’ulteriore difficoltà: le
ombre proiettate da un gruppo sull’altro non erano corrette. Ellen Poon
ha quindi ottimizzato una tecnica già utilizzata per il film La carica dei
101, creando una shadow map che comprendeva tutti i marziani.
L’unione della shadow map con il rendering dei vari gruppi, ha
permesso un compositing perfetto della sequenza di combattimento.
108
I sistemi di particelle generati con il programma Dynamation hanno
permesso la realizzazione di alcuni degli effetti più raccapriccianti del
film, come la vaporizzazione dei corpi a seguito dei raggi mortali sparati
dagli alieni, l’esplosione dei cervelli degli alieni all’interno dei caschi, e
l’impressionante sequenza iniziale con la mandria di buoi "incendiata"
dalle astronavi. Nel caso della vaporizzazione dei corpi, gli artisti della
ILM sono stati attenti a non rendere troppo violenta la scena, dietro
precise indicazioni di Tim Burton. Per dare un tocco di stranezza alla
sequenza, sono stati creati due tipi di raggi distruttivi, che differiscono
solo nel colore. Quando un malcapitato viene colpito dal raggio, viene
effettuato un morphing progressivo del corpo con lo scheletro
sottostante; in corrispondenza della linea di "separazione" tra corpo e
scheletro, vengono emesse delle particelle per dare un effetto di
vaporizzazione. Naturalmente, il colore finale dello scheletro è uguale a
quello del raggio che lo ha colpito...
Nella sequenza battezzata in modo un po’ macabro "barbecue", ben
100 buoi corrono verso lo spettatore e si allontanano poi dalla macchina
da presa con le schiene incendiate dagli alieni.
Il fuoco è stato aggiunto digitalmente grazie al programma Dynamation,
ma la cosa non è stata affatto facile, a causa del numero elevato di
soggetti in movimento. La ILM ha deciso di "appiccare il fuoco" a "soli"
50 buoi, ritenuti sufficienti per dare l’impressione che l’intera mandria
andasse a fuoco. Ad ognuno dei cinquanta animali è stata fatta
corrispondere una patch B-spline che emetteva particelle. Per dare
sufficientemente varietà e realismo alla scena, si è dovuto scrivere uno
shader dedicato chiamato "fire" e utilizzare il programma proprietario di
rendering delle particelle della ILM. Una volta renderizzate le particelle,
la ILM si è anche occupata di ritoccare l’illuminazione del fondale, per
simulare i bagliori causati dal fuoco su alberi, pali del telefono, trattori e
altri oggetti della scena. Per il compositing, Tami Carter ha dovuto
creare i mascherini per circa 400 zampe in movimento...
Il fondale è stato ritoccato in modo che simulasse i bagliori causati dal
fuoco, su alberi, pali del telefono, trattori ed altri oggetti della scena.
109
Regia:
Tim Burton
Soggetto e Sceneggiatura:
Jonathan Gems
Ispirato alle figurine "Mars Attacks!" della Topps
Fotografia:
Peter Suschitzky
Scenografia:
Wynn Thomas
Costumi:
Colleen Atwood
Montaggio:
Chris Lebenzon
Musica:
Danny Elfman
Effetti visivi e animazione marziani:
Industrial Light & Magic
Prodotto da:
Tim Burton, Larry Franco
(USA, 1996)
Durata:
103'
Distribuzione cinematografica:
WARNER BROS
Distribuzione home video:
WARNER HOME VIDEO
PERSONAGGI E INTERPRETI
Il presidente Dale/Art Land: Jack Nicholson
Marsha Dale: Glenn Close
Barbara Land: Annette Bening
Donald Kessler: Pierce Brosnan
Giocatore d'azzardo: Danny De Vito
Jerry Ross: Martin Short
Nathalie Lake: Sarah Jessica Parker
Jason Stone: Michael J. Fox
Il Generale Decker: Rod Steiger
Tom Jones: Tom Jones
Richie Norris: Lukas Haas
Taffy Dale: Natalie Portman
Byron Williams: Jim Brown
La ragazza marziana: Lisa Marie
Nonna Morris: Silvia Sidney
110
TWISTER
Jan De Bont, 1996
Attesissimo e graditissimo ritorno dell’adrenalinico regista di Speed, per
un film che con i suoi 240 milioni di dollari d’incasso rinnova alla grande
la fortuna del filone catastrofico, complice la coppia Micheal Crichton Steven Spielberg, già felicemente collaudata in Jurassic Park e nel
sequel Il Mondo perduto.
Protagonisti di Twister sono gli storm chasers, i “cacciatori di tempeste”,
giovani meteorologi che vivono per dare la caccia ai cicloni allo scopo di
studiarne le dinamiche.
Nel film agiscono due squadre rivali, inseguendo i tornadi per tutta
l’Oklahoma come un pallone su un campo di calcio, l’una simpatica e
un po’ spietata, l’altra ovviamente arrogante e sponsorizzata dalla testa
ai piedi.
A capo della nostra squadra del cuore abbiamo Halen Hunt, una
giovane donna che da bambina si vede portar via per sempre il padre,
proprio da un twister forza 5, il più temibile.
Le si aggrega da subito Bill Paxton, l’aspirante ex marito, nonché ex
collega, che in compagnia della futura moglie cercherà in vano per tutto
il film di farle firmare le carte per il divorzio, che alla fine il vento si
porterà via.
Soprannominata Dorithy Gole, la bambina di Il mago di Oz, ovvero il
primo film che ci ha fatto vedere una casa e una mucca librarsi in volo
sullo schermo; questa macchina permette una volta posizionata nella
giusta traiettoria del tornado, di studiarne la dinamica.
Sarà proprio nel portare a termine questa missione ai limiti della follia
che gli ex coniugi affronteranno i loro fantasmi e ritroveranno l’amore.
Twister rappresenta un’impresa cinematografica piuttosto cara, perché
è basato quasi esclusivamente sul tempo atmosferico, uno degli attori
protagonisti più volubile che possa esistere. Le condizioni atmosferiche
di Twister erano così estreme, che se si fossero realmente verificate
durante le riprese del film, la troupe sarebbe stata in così grave pericolo
da dovere fermare tutto e correre al riparo.
Steven Spielberg incaricò la ILM di realizzare un test digitale di un
tornado realistico.
Dennis Muren, maestro in effetti visuali all ILM e Habib Zargarpour,
supervisore alla computergrafica, presentarono alla Amblin nel gennaio
del ’95 il loro test di 20 secondi ed era così ben realizzato e
rappresentativo che si è dimostrato molto efficace e ha fatto un ottima
impressione.
Inizialmente il regista sperava di riuscire a riprendere dal vero qualche
tornado ma, le condizioni atmosferiche per quasi tutte le riprese furono
molto tranquille.
111
Di conseguenza tutti i tornado e i cieli presenti nel film sono realizzati
digitalmente con l’utilizzo di sistemi particellari.
I sistemi di particelle animano gli oggetti influenzati dall’onda d’urto del
tornado e attraverso parametri, quali gravità, vorticosità, magnetismo,
forza, accelerazione e durata della vita si creano interessanti movimenti
globali così come particolari e dettagliati rimbalzi di singoli oggetti.
Per animare perfettamente le traiettorie l’ILM ha dovuto perfezionare il
software Dynamition della Alias Wavefront implementandolo con effetti
quali campi di forza affinché la dinamica particellare riesca a imitare i
cambiamenti repentini caratteristici di un tornado.
Inoltre c’era bisogno di illuminare correttamente le particelle gestendo le
ombreggiature e rifrazioni in base alla trasparenza di ognuna di esse,
processo che ha richiesto tempi di rendering impensabili a causa delle
limitazioni di memoria del software Dynamition.
Per raggiungere questi obbiettivi, il progettista software Florian Kainz ha
scritto appositamente un render di particelle molto veloce che
permetteva anche l’uso di shader programmabili con i quali realizzare
diversi tipi di effetti, da piccoli turbinii di polvere, a tornado che
riempiono l’intera inquadratura, come il tornado F5 nel finale del film.
Il regista ha voluto che il film avesse uno stile simile ad un
documentario con scene filmate con macchine da presa portatili, con
l’operatore che correva a piedi o su un’automobile. Alcune scene
riprendevano un’area talmente grande da rendere praticamente
impossibile qualsiasi punto di riferimento utile ai match-move in fase di
post-produzione.
Per superare questa difficoltà in alcune scene sono stati posizionati
tanti match-move quanti erano gli elementi da seguire.
Analisi di una scena
Per questo particolare esempio farò riferimento ad una scena nella
parte iniziale del film, che mostra un tornado di classe F2 che si
avvicina e distrugge due silos, mentre il protagonista sta guidando in
primo piano.
Per prima cosa sono stati digitalizzati i fotogrammi della ripresa ed è
stata effettuata una Color Correction. Sono stati ricreati i movimenti
della telecamera con Softimage della Microsoft e sono stati composti gli
oggetti nella posizione corrente con la fotografia digitalizzata sullo
sfondo.
È stato quindi creato il percorso del tornado e la sua forma, modellando
superfici
B-spline in Softimage.
In seguito sono stati aggiunti gli altri elementi e animati con lo
strumento Lattice di Softimage; in questo modo sono state applicate
deformazioni alla struttura dell’oggetto come nel caso del tetto di uno
dei silos che si ammacca cadendo sulla strada.
112
Il tornado è stato renderizzato su vari livelli con shader di Render Man
piuttosto complessi dove ogni parametro controllava caratteristiche
quali la nitidezza dei contorni, la velocità di rotazione e la colorazione
lungo il vortice.
Poi con il software Dynamation si è creata la polvere intorno al punto di
contatto del tornado con qualsiasi superficie e la si è legata alla
traiettoria di quest’ultimo.
Una volta definito sommariamente il movimento delle particelle, il
direttore tecnico ha iniziato a definire alcuni parametri di rendering,
come colore, densità e il tasso di dispersione in allontanamento dalla
sorgente di particelle alla base del vortice.
Successivamente è stato animato il fienile modellato in Alias come una
struttura già frammentata, in modo da suddividerlo in piccoli pezzi e farli
vorticare nel tornado appena questo si avvicina ad esso.
Infine il cielo è stato significativamente oscurato e l’ombra proiettata dal
tornado e dalla nuvola di polvere è stata utilizzata per scurire la scena.
Altri elementi in primo piano come gli alberi e le foglie sono stati
ritoccati per rendere bene i contorni, così come il camioncino e
l’apparecchiatura collocata sul piano di carico posteriore del mezzo che
è stato fatto emergere rispetto agli elementi in CG dove c’era
sovrapposizione.
Il direttore tecnico responsabile per questa scena è stato Ben Snow, ma
un intero team di artisti in CG ha lavorato alle varie attività come la
modellazione, il match-moving, l’animazione, l’illuminazione, il ritocco e
il compositing.
È inutile dire che senza la CG molte scene non avrebbero mai
raggiunto il realismo necessario al fine di essere effettivamente
prodotto.
113
Regia:
Jan de Bont
Sceneggiatura:
Michael Crichton, Anne-Marie Martin
Fotografia:
Jack N. Green
Scenografia:
Joseph Nemec III
Montaggio:
Michael Khan
Supervisore agli effetti speciali:
John Frazier
Musica:
Mark Mancina
Produttori esecutivi:
Steven Spielberg, Walter Parkes,
Laurie Macdonald, Gerald R. Molen.
Prodotto da:
Kathleen Kennedy, Ian Bryce
(USA, 1996)
Distribuzione cinematografica:
UIP
Distribuzione home video:
CIC
PERSONAGGI E INTERPRETI
Jo: Helen Hunt
Bill: Bill Paxton
Dr. Jonas Miller: Cary Elwes
Melissa: Jami Gertz
Zia Meg: Lois Smith
114
RELIC
Peter Hyams, 1997
Al Museo di Storia Naturale di New York è la vigilia dell'inaugurazione di
una grande mostra a tema sulla superstizione, che tutti attendono come
l'evento culturale e sociale dell'anno.
Le polverose gallerie ed i tetri corridoi echeggiano delle voci dei tanti
studenti e turisti in visita: ma qualcos'altro si aggira per le ampie sale.
Vengono infatti ritrovati alcuni cadaveri selvaggiamente dilaniati,
squartati; e le autopsie indicano con certezza che la forza e la ferocia
del killer non possono appartenere ad una creatura della razza umana.
Nonostante il terrore cominci a serpeggiare fra lo staff ed il personale, i
responsabili dell'organizzazione decidono di non sospendere le cose:
ormai è troppo tardi, lo spettacolo deve andare in scena…
Come fare in modo che un costume da 70 chilogrammi, lungo 5 metri e
alto 1 metro e mezzo, si muova con la velocità e l’agilità di un felino?
Non si può. Si deve piuttosto chiamare uno studio di effetti speciali e
fargli creare un duplicato digitale. Ed è esattamente quello che hanno
fatto i produttori del film Relic, per far muovere in modo realistico la loro
creatura: il Kothoga.
In Relic, il Kothoga (una creatura che ha origine dalla mitologia
sudamericana e che è un misto di mammifero, rettile e insetto)
terrorizza e uccide alcune persone intrappolate in un museo di storia
naturale. Oltre al look della creatura, il regista Peter Hyams sapeva
anche come voleva che si muovesse: con rapidità e destrezza.
Stan Winston, responsabile del make-up e dei costumi, ha progettato e
creato il costume fisico per il Kothoga. Tuttavia, il peso e le dimensioni
del costume "reale" hanno reso difficile il suo movimento. Di
conseguenza, è stata ingaggiata la VIFX di Los Angeles, casa
produttrice di effetti digitali, per creare un Kothoga in CG per le scene in
cui si vede la creatura a corpo intero che cammina, corre e salta.
Per la VIFX, il progetto ha richiesto l’utilizzo di tecniche di animazione
3D dei personaggi più sofisticate di quanto non avessero mai realizzato
finora. John DesJardin (DJ), supervisore degli effetti digitali per questo
film, riporta che uno dei primi passi è stato quello di guardare i test con
il modello fisico realizzato da Stan Winston, per vedere come la
creatura si muoveva.
Hanno anche fatto in modo di ottenere gli stampi originali della creatura,
in modo che il modellista Scott Schneider potesse realizzare le parti per
la digitalizzazione.
La VIFX effettua la maggior parte delle digitalizzazioni in proprio, ma
per questo progetto ha affidato il compito a Sandeep Divekar della
3Name3D (Santa Monica, CA, USA). "Gli abbiamo portato gli stampi e
gli abbiamo detto: "Sandeep, è ora di lavorare con le NURBS, non le
115
aveva mai utilizzate, ma era una cosa che desiderava fare. Le persone
come lui sono alla ricerca di superfici di ordine più alto.
Quindi, è stato Sandeep a gestire la digitalizzazione della creatura".
Un altro passo iniziale è stato la scelta del software di modellazione e di
animazione 3D più adatto per il progetto.
Essendo una piccola società, la VIFX ha sempre utilizzato in passato
software commerciale, cercando di ottenere il meglio da quello che era
disponibile. "Abbiamo deciso di continuare con questa filosofia", dice
DJ.
Il test del software è iniziato nell’ottobre del ’95 ed è continuato per tutto
novembre. Alla fine, tuttavia, si è concluso che nessun pacchetto era
adeguato all’intero progetto. "Abbiamo deciso di prenderne alcuni e
metterli insieme, sfruttando i punti di forza di ciascuno", afferma.
"Quando parlo di punti di forza, mi riferisco a qualche anno fa. Ora le
cose sono molto diverse".
La VIFX era già un forte utilizzatore di Prisms, continua DJ, con un
certo numero di licenze del programma della Side Effects. E anche se
apprezzavano Prisms per le funzioni procedurali, stavano cercando
delle caratteristiche più potenti per l’animazione dei personaggi. Alla
fine, hanno deciso di acquistare due pacchetti: PowerAnimator della
Alias/Wavefront e Softimage 3D della Microsoft. "In quel momento, la
cinematica inversa di PowerAnimator era buona, ma la velocità di
aggiornamento era un po’ lenta rispetto a Softimage, che invece era
relativamente veloce. Ma ci piacevano gli strumenti di PowerAnimator
per assegnare deformazioni alle superfici", spiega DJ. "Quindi, abbiamo
sincronizzato i movimenti delle scene in Prisms, li abbiamo esportati in
Softimage e animato gli scheletri in questo programma. Poi, abbiamo
esportato i dati degli scheletri fotogramma per fotogramma in Alias.
Abbiamo scritto un programma che ci ha permesso d’importare i dati in
Alias ed effettuare le deformazioni dello skin (la pelle). Poi tornavamo in
Prisms per altre operazioni procedurali. La cosa interessante è che gli
animatori non dovevano mai aprire Alias per fare qualcosa. C’erano due
persone, James Bancroft ed Eric Jennings, che lavoravano in Alias tutto
il tempo, assegnando deformazioni dei muscoli per mesi e mesi".
Il fatto di usare due programmi ha richiesto anche la costruzione di due
scheletri, uno in Alias e uno in Softimage, perché i due programmi non
gestiscono la cinematica inversa nello stesso modo.
Lo scheletro veniva prima costruito in Alias ed esportato in Softimage, e
poi veniva ritoccato molte volte mentre si apportavano modifiche alla
creatura. "Per esempio, abbiamo dovuto allungare il torso della creatura
per farla correre nel modo giusto". Abbiamo deciso di creare le
espressioni facciali usando lo strumento Shape shifter di Alias. Con
questo strumento, si sa che nella posizione 0 la creatura non sta
sorridendo, e nella posizione 1 sta mostrando i denti".
La VIFX ha anche scritto uno script proprietario che ha agganciato agli
oggetti con dati rotazionali dello scheletro di Softimage, in modo da
116
poter animare allo stesso modo in Alias e in Softimage. "Se avessimo
passato i dati di rotazione dallo scheletro di Softimage a quello di Alias
senza questi oggetti, la cinematica inversa di Alias avrebbe effettuato i
calcoli in modo diverso". Durante l’impostazione della gerarchia della
cinematica inversa, un altro aspetto da considerare erano i vincoli, dove
includerli e dove non includerli. Secondo DJ, non sono molti i vincoli di
cui un animatore si deve preoccupare. "Ricordo le prime volte in cui
discutevamo come impostare la cinematica inversa, chiedendoci cose
come: se un animatore piega un braccio di 270 gradi, dovremmo
inserire dei vincoli su alcune articolazioni? E in certi casi, dovevamo
farlo; nessuno vuole che una bone di Softimage ruoti di 300 gradi",
afferma DJ. "Ma in realtà, nessun animatore si mette a piegare un
braccio di una creatura di 270 gradi, perché non sarebbe realistico!
Quindi, i veri vincoli vengono imposti dall’animatore".
DJ sottolinea che è importante anche visualizzare nella propria testa
come il personaggio si deve muovere. "Nonostante tutti gli strumenti
esistenti per aiutare gli animatori a gestire le creature, niente può
sostituire l’abilità dell’animatore. Deve saper visualizzare il movimento
nella sua testa.
Il software non può farlo al posto suo". DJ e i suoi collaboratori hanno
guardato molti video di leoni e tigri, per cercare di trasferire i movimenti
rapidi di questi grandi animali nel Kothoga. "Abbiamo persino guardato
Il Re leone per vedere come la Disney aveva impostato l’animazione".
Comunque, il perfezionamento dei movimenti del Kothoga ha richiesto
numerosi ritocchi. Per velocizzare il processo di animazione, la VIFX
non ha utilizzato la geometria completa del modello in Softimage.
"Volumetricamente, era la stessa creatura", racconta DJ, "ma il modello
semplificato ci ha permesso di effettuare molti test rapidi.
Li abbiamo chiamati test del Kothoga "Michelin", perché il modello
aveva un aspetto simile all’omino Michelin. Ma ci è stato veramente
utilissimo, per determinare rapidamente i path, i movimenti generali, il
peso generale della creatura. Credetemi, abbiamo effettuato molte,
molte iterazioni usando il Kothoga Michelin".
Una scena particolarmente complessa, ricorda DJ, era quella nella
quale Kothoga attraversa una serie di uffici sfondandone le pareti.
"Arriva davanti a un ingresso e non si preoccupa del fatto che è chiuso.
Si limita a sfondare i muri, bam, bam, bam, uno dopo l’altro".
La difficoltà di questa scena consisteva nel fare in modo che un
personaggio in CG "senza peso" sfondasse non solo una parete, ma
molte pareti consecutivamente. DJ e il suo collaboratore Greg McMurry,
il supervisore agli effetti visuali del film, hanno ideato una soluzione.
Hanno utilizzato un carrello in motion-control dipinto di arancione (per
facilitarne la sostituzione con la creatura in CG) per effettuare gli
"sfondamenti", e poi hanno composto il Kothoga. "Dato che il
movimento del carrello era controllato dal computer, avevamo un
canale associato alla sua velocità, in modo che gli animatori
117
conoscessero esattamente la velocità di traslazione della creatura",
spiega DJ. "La ripresa è stata effettuata seguendo la creatura di fianco,
mentre sfonda le pareti. In questo modo, è stato più facile creare il
mascherino, ma ha presentato altri tipi di problemi, come quello dei
detriti. Abbiamo usato il rotoscopio per alcuni di essi, ma la maggior
parte dei detriti sono stati realizzati al computer, come i pezzi di vetro e
quelli di legno più grossi".
Complessivamente, la VIFX ha lavorato per quasi un anno intero su
Relic (si è occupata di tutti gli effetti del film, compresa la rimozione dei
fili). All’animazione del Kothoga hanno contribuito 12 persone, e nel film
finale ci sono circa 10 minuti complessivi di animazione in CG.
118
Regia e fotografia:
Peter Hyams
Sceneggiatura:
Amy Jones e John Raffo,
sulla scorta dell'omonimo romanzo di Douglas Preston e Lincoln Child,
edito in Italia da Sonzogno
Scenografia:
Philip Harrison
Costumi:
Dan Lester
Montaggio:
Steven Kemper
Musica:
John Debney
La creatura è stata realizzata da:
Stan Winston
Prodotto da:
Gale Ann Hur, Sam Mercer
(Usa, 1997)
Durata:
110 '
Distribuzione cinematografica:
CECCHI GORI GROUP
Distribuzione home video:
CECCHI GORI HOME VIDEO
PERSONAGGI E INTERPRETI
Margo Green: Penelope Ann Miller
Vincent D'Agosta: Tom Sizemore
Ann Cuthbert: Linda Hunt
Albert Frock: James Whitmore
Hollingsworth: Clayton Rohner
Greg Lee: Chi Muoi Lo
119
SPACE JAM
Joe Pytra, 1997
Space Jam è il primo caso di un film ispirato da uno spot pubblicitario,
invertendo così il tradizionale processo creativo che vede la pubblicità
ispirarsi ad opere cinematografiche.
Non è un caso che il regista del film, Joe Pytka, sia anche un acclamato
ideatore e realizzatore di spot pubblicitari, fra cui quello delle scarpe
Nike che avevano come testimonial d’eccezione Michael Jordan.
L’idea proposta a Ivan Reitman, produttore del film, era quella di
realizzare un’opera che mescolasse le tecniche bidimensionali
d’animazione con personaggi in carne e ossa sulla scia di altri celebri
predecessori come Mary Poppins o Chi ha incastrato Roger Rabbit ?
Il film è inoltre un veicolo ideale per la consacrazione cinematografica
dei Looney TunesI (Bugs Bunny, Wil Coyote, gatto Silvestro, solo per
citarne alcuni), i celebri personaggi animati della Warner Bros.
La storia, che è ovviamente un mero pretesto per giustificare delle
situazioni cartonistiche, vede i Looney Tunes impegnati in una partita di
pallacanestro contro i Nerdlucks, dei petulanti alieni inviati sulla terra
per rapire e trasportare i loro avversari nel parco giochi di Moron
Mountain, come attrazioni.
Bugs Bunny ed i suoi compagni decidono di giocarsi la libertà ad una
ad una partita di pallacanestro e sfidano gli alieni sul campo da gioco.
Gli alieni hanno la facoltà di assorbire le energie, così si impossessano
del talento di alcuni giocatori della NBA trasformandosi in giganteschi
mostri di incredibile abilità, i Monstars.
I Looney Tunes rapiscono Micheal Jordan, il più grande giocatore di
basket vivente e lo convincono a giocare la partita nella loro squadra,
dando luogo ad una delle più esilaranti sfide sportive mai viste sul
grande schermo.
I buoni vincono sempre e alla fine i cinque alieni, redenti, entreranno
addirittura a far parte dei Looney Tunes.
Lo staff di Space Jam ha veramente sudato sette camicie per realizzare
il film.
Ed Jones, che ha lavorato alla ILM e ha fondato la Cinecite, è stato il
vero punto di riferimento per gli effetti di Space Jam. Jones ha vinto un
Oscar per l’ottimo lavoro svolto con Chi ha incastrato Roger Rabbit ?
Anche se Space Jam può essere confrontato con Roger Rabbit i due
filoni sono fondamentalmente diversi per stile e uso della tecnologia.
In molte scene di Roger Rabbit, si è fatto uso di macchine da presa
montate su cavalletto o di varianti delle attrezzature di motion-control,
sviluppate originariamente per Guerre Stellari.
Per Space Jam questo non è stato possibile a causa del tipo di riprese
effettuate dal regista Joe Pytka, il quale usa camere a mano che
trasportano l’operatore nel cuore dell’azione. Inoltre sarebbe stato
120
impossibile coreografare le movenze di gioco di Michael Jordan, con
precisione meccanica e i movimenti della macchina da presa avrebbero
dovuto essere rigidamente definiti.
Ed Jones doveva offrire a Pytka e a Jordan la libertà di fare quello che
volevano e doveva comporre l’animazione e le riprese dal vivo in modo
assolutamente perfetto.
“L’arte dello stile di ripresa di Joe Pytka e delle azioni di Michael Jordan
sono frutto della spontaneità”, afferma Jones. “La difficoltà è stata
mantenere quella vitalità una volta messe insieme le riprese dal vivo
con l’animazione.
Inseguire i movimenti
Jones rovescia l’intero processo di traking con un sistema proprietario
di motion traking.
Normalmente pensiamo a un set come a un sistema di riferimento con
punti fissi, con gli attori che si muovono all’interno di uno spazio
confinato.
Usando tecniche di compositing digitale, invece, gli attori in carne e
ossa possono diventare i punti fissi.
Il set e i personaggi animati vengono posizionati intorno agli attori.
Quando un personaggio animato passa davanti a un attore, si usa un
travelling matte (mascherino in movimento) per oscurare parti
dell’attore.
Jones ha costruito un set in greenscreen nello stage 22 della Warner
Bros e lo ha riempito con personaggi vestiti di verde. Ha poi posizionato
una serie di indicatori rossi su una griglia di 1 x 2 metri di lato, per
creare una matrice di riferimento, la griglia corrispondeva a quella
generata al computer del set virtuale.
Quando i movimenti della camera del set virtuale e di quella reale,
corrispondevano il mondo virtuale e quello reale erano sincronizzati.
Gli operatori in CG hanno usato software di rimozione di mascherini per
cancellare gli attori di supporto e il set, e i vari programmi di paint per
rimuovere le parti dell’attore oscurate dai personaggi digitali.
Poi hanno evidenziato delle aree di massima nelle immagini dove gli
animatori dovevano disegnare i personaggi 2D.
Una volta ottenuta una chiara versione della sequenza ripresa dal vivo,
gli animatori hanno potuto cominciare il loro lavoro.
Per realizzare le scena che il regista Joe Pytka aveva in mente, 18
Studi di animazione hanno collaborato in tutto il mondo.
Più di cento animatori tradizionali hanno completato i disegni,
sviluppando un nuovo linguaggio visivo più consono alle ambientazioni
3D.
Tutti i disegni sono stati digitalizzati con il sistema Animo della
Cambridge Animation.
121
Gli artisti hanno applicato la colorazione digitale a ogni singolo
fotogramma. Ogni personaggio animato ha richiesto un proprio set di
elementi, incluso contorni, colori di riempimento, riflessi, luci e motion
blur.
Una normale ripresa con azioni dal vivo, personaggi 2D, ambienti 3D,
può richiedere da trenta a quaranta livelli nel sistema di compositing
Cineon della Kodak.
Alcune scene, come quelle della palestra, sono arrivate a centinaia di
livelli.
Space Jam è l’inizio di una rivoluzione verso la cinematografia
completamente digitale.
122
Regia:
Joe Pytka
Sceneggiatura:
Leo Benvenuti e Steve Rudnick
Fotografia:
Michel Chapman, A.S.C.
Musica:
James Newton Howard
Scenografia:
Geoffrey Kirkland
Montaggio:
Sheldon Kahn, A.C.E.
Prodotto da:
Ivan Reitman
(USA, 1997)
Durata:
88'
Distribuzione cinematografica:
WARNER BROS
Distribuzione home video:
WARNER HOME VIDEO
PERSONAGGI E INTERPRETI
Michael Jordan: Nel ruolo di sè stesso
Stan Podolak: Wayne Knight
Juanita Jordan: Theresa Randle
Larry Bird: sè stesso
Bill Murray: sè stesso
Larry Johnson: sè stesso
DOPPIATORI NELLA VERSIONE ITALIANA
Bugs Bunny: Massimo Giuliani
Swackhammer: Giampiero Galeazzi
Lola Bunny: Simona Ventura
Bertie: Sandro Ciotti
Daffy Duck: Marco Mete
Silvestro: Roberto Pedicini
Porky Pig: Marco Bresciani
Titti: Ilaria Latini
123
STARSHIP TROOPERS
Paul Verhoeven, 1997
Il film si ispira al romanzo Fanteria dello spazio di Robert Heinlein, che
già suscitò al suo apparire vivaci polemiche per i suoi contenuti sociali
ed ideologici.
Le stesse accuse di militarismo hanno accompagnato l’uscita del film,
spostando sul piano ideologico quello che è soprattutto un’operazione
estetica.
Verhoeven affronta il soggetto da cinefilo non da politico.
Adattando un romanzo degli anni ’50, il regista si rifà con grande
eleganza al cinema di quell’epoca; non tanto a quello di fantascienza,
quanto a quello bellico.
I grandi film di guerra risentono inevitabilmente del clima ideologico che
li ha ispirati e si rivedono con un certo imbarazzo.
Avendo a disposizione come nemici dei ripugnanti insettoni, Verhoeven
si è permesso invece il lusso di far rivivere senza pudori le passioni di
un’epoca in cui si pensava che il nemico stesse da una parte sola e che
non ci fossero dubbi sulla legittimità di annientarlo… Nella terra del
futuro, unita in un’unica nazione anglofona, regna un’apparente
benessere basato su una rigida distinzione sociale fra cittadini, termine
col quale si indicano gli elementi di un organizzazione militare chiamata
Federazione, e semplici civili.
Terminato il liceo, John Rico (Casper Van Dien) decide di arruolarsi
nella fanteria mobile impegnata a lottare ai confini del Sistema Solare
contro una razza d’insetti alieni
Potentissimi che vogliono conquistare la Galassia.
In un futuro lontano governato dai militari si combatte una tragica
battaglia, dove giovani vite vengono sacrificate e Rico è insieme a molti
suoi compagni di scuola pronto a sacrificare la vita per essere un
cittadino della federazione degno di questo nome.
Non è un caso che un buon numero di attori di questo film abbia
partecipato in maniera più o meno attiva agli episodi di serial Soap
telefilm come Beverly Hills 90210.
Già, perché essendo belli e “geneticamente perfetti” erano gli ideali
antagonisti per questi scarafaggi volanti, che della terra vogliono solo
farsi un bel boccone.
Girato con i toni e i colori della pubblicità, con le incongruenze e le
tematiche tipiche del film stile “fine del liceo”, Starship Troopers ha però
molti appeals che non vanno trascurati.
In un background fantascientifico si vede una società fascista e militare,
mandare i suoi ragazzi migliori a morire sul campo di battaglia nei
diversi pianeti della galassia.
Il libro, uscito alla fine degli anni ’50 in piena guerra fredda è un inno al
militarismo americano più oltranzista; un regime che alleva guerrieri
124
giovani e belli, che ricorre a simboli, bandiere, uniformi e saluti che
evocano il Terzo Reich.
Incentrato su una specie di metafora sulla perdita dell’innocenza da
parte dei giovani soldati che, sebbene destinati a morire, quel po’ che
gli resta da vivere lo trascorrono nelle loro basi, dove sono alloggiati in
maniera promiscua con altrettante soldatesse.
Molti sono gli spunti interessanti presenti in questo film, dalle pubblicità
presenti sul canale militare, propagande a metà tra televisione e
internet; intitolate: Perché combattiamo? Alla regolazione civile dei
cittadini (…Se vuoi avere un figlio o fare politica devi essere stato un
soldato), dalla bellissima soldatessa con cui si fa regolarmente la
doccia come con un qualsiasi commilitone, fino alle città teoricamente
diverse e futuribili come Buenos Aires, che assomiglia più ad una
qualsiasi cittadina americana di un futuro nemmeno tanto lontano.
Starship Troopers mette in burla in un colpo solo, i propri contenuti
narrativi e l’ideologia che questi potrebbero (ma così non è), sottendere.
Da un lato si parodizza lo schema narrativo del libro, che è quello tipico
del romanzo di formazione in versione guerriera. In più c’è la parodia
del classico western, citato nei passaggi alla Monumental Valley del
pianeta nemico, nell’assedio al fortino e nella parafrasi della frase un
tempo riservata agli indiani: L’unica cimice buona è quella morta.
Perfino colore, formato, stile dell’inquadratura, morfologia ingenua delle
astronavi e delle armi da combattimento rimandano all’estetica della
science fiction anni ’50.
Forse una scelta troppo sofisticata da parte del regista di Robocop e di
Atto di forza, se apologo è, senza alcun dubbio si tratta di un apologo
sarcastico, dove la nota beffarda prevale anche sugli effetti speciali
realizzati dalla Tippet Studio (Berkeley, CA, USA).
Questo film riveste una grande importanza per la società di postproduzione californiana, in quanto per la sua realizzazione è stato
fondato il reparto di computergrafica.
La Tippet Studio è la società che ha collaborato con l’Industria Light &
Magic per la realizzazione di numerosi animatronics protagonisti di film
come Jurassic Park.
Per Starship Troopers la società ha progettato tutte le creature, che
sono insetti giganti, e ha creato tutte le 218 scene con gli alieni,
( altre società, come la Sony Pictures Imageworks, la ILM e la Boss
Film, hanno lavorato sugli effetti delle astronavi).
Ci sono insetti guerrieri alti tre metri, simili a scorpioni, che
rappresentano le truppe generiche terrestri. Delle “cavallette” volanti
che fungono da forze aeree, e grossi insetti corazzati simili a scarafaggi
che agiscono da elementi di sfondamento.
La catena di produzione della Tippet Studio include modellisti,
disegnatori, animatori, direttori della fotografia e del rendering, addetti al
rotoscopio e al compositing.
125
Il processo di design inizia nel reparto artistico, che è il territorio di
Hayes.
Qui i modellisti e i disegnatori creano i disegni, costruiscono i modelli
fisici, li digitalizzano per creare modelli 3D in CG e disegnano le texture
map.
Hanno programmato un digitalizzatore 3D e fanno uso di Softimage 3D
della Microsoft per l’animazione e la modellazione. Per il paint utilizzano
Amazon 3D Paint della Interactive Effect e Photoshop della Adobe.
La cosa inusuale è che tutti i modellisti e disegnatori provengono
dall’animazione tradizionale, nessuno della Tippet Studio aveva avuto
esperienze precedenti di computergrafica. “Abbiamo fatto uno sforzo
per trovare persone che avessero esperienze cinematografiche o di
produzione, e che avessero fatto scultura, pittura, creazione di modelli
fisici. Chi non aveva un’esperienza di quel tipo partiva svantaggiato
racconta Hayes.
Quindici animatori hanno lavorato interamente in Softimage, ma altri
quattro hanno usato un nuovo DID (ora chiamato "Bug Input Device")
per l’animazione in stop-motion e in tempo reale. "Originariamente, il
DID doveva essere usato solo per la stop-motion, ma mi sono reso
conto che se avessimo solo allentato un po’ le articolazioni e aggiunto
qualche molla per renderlo più flessibile, avremmo potuto fare
dell’animazione in tempo reale", spiega Stokes. Stokes ha lavorato su
una delle prime animazioni in CG in tempo reale, Mike the Talking
Head, con i pionieri della performance animation Michael Wahrman e
Brad DeGraf, e successivamente ha contribuito al controllo del burattino
dell’alieno per il film Specie mortale alla Boss Film. Lui e Tippett hanno
trovato comodo usare il DID sia per la previsualizzazione, sia per
l’animazione finale.
In una scena, per esempio, ci sono 700 insetti guerrieri che assaltano le
barricate. "Per quella scena abbiamo utilizzato una combinazione di
tecniche", dice Cantor. "Abbiamo creato da 20 a 30 cicli di camminata
molto lunghi e li abbiamo applicati ai 700 insetti". Regolando
leggermente le curve di movimento dei cicli di ogni insetto, gli animatori
si sono assicurati che non ci fossero due insetti che facessero la stessa
cosa nello stesso tempo. Usando il software Dynamation della
Alias/Wavefront, hanno impostato i percorsi di movimento sul terreno,
assegnato un ciclo per ogni percorso, e poi impostato un campo di
forza per gli oggetti. Quelle informazioni di movimento sono state poi
portate in Softimage, dov’è stato possibile apportare modifiche.
Gli insetti in primo piano nelle scene di combattimento sono stati tutti
animati in Softimage, aggiungendo un terzo metodo di animazione in
CG. "In una scena ci sono 90 insetti gestiti a mano da tre animatori, e
dietro di questi ce ne sono altri 600 o 700 sullo sfondo gestiti in modo
procedurale", riporta Cantor.
Questa mescolanza di tecniche di animazione sembra del tutto naturale
a Tippett. "Se avete a disposizione animatori in computergrafica di
126
talento, li lasciate lavorare con gli strumenti da loro conosciuti. Se avete
animatori in stop-motion, date loro gli strumenti con i quali hanno più
familiarità. Se avete dei bravi burattinai, affidate loro qualche
animazione in tempo reale. Vogliamo che ogni persona del nostro staff
lavori nell’ambiente che più gli è familiare".
127
Regia:
Paul Verhoeven
Sceneggiatura:
Ed Neumeier,
dal romanzo di Robert Heinlein
Fotografia:
Jost Vacano
Musica:
Basil Poledouris
Montaggio:
Mark Goldblatt
Effetti Speciali
John Richardson
Prodotto da:
Alan Marshall, Jon Davison
(USA, 1997)
Durata:
128'
Distribuzione cinematografica:
BUENA VISTA
Distribuzione home video:
BUENA VISTA HOME VIDEO
PERSONAGGI E INTERPRETI
Johnny Rico: Casper Van Dien
Carmen: Denise Richards
Dizzy Flores: Dina Meyer
128
TITANIC
James Cameron,1997
Il Titanic di James Cameron è un film epico di ampio respiro che
avvince coniugando sentimento e azione, sullo sfondo dell’infausto
viaggio inaugurale del R.M.S. Titanic, orgoglio e vanto della White Star
Line; un gioiello tecnologico che al tempo costituiva la più grande
macchina mobile mai costruita.
Considerato il più lussuoso piroscafo da crociera dell’epoca, la nave dei
sogni, come qualcuno l’aveva battezzata, condusse oltre 1500 persone
verso un’atroce destino nelle gelide acque del Nord Atlantico all’Alba
del 15 Aprile 1912.
La nave partì da Southampton, in Inghilterra, il 10 Aprile 1912. Era
lunga 269 metri, più lunga del più alto grattacielo di New York
dell’epoca.
Per la sua costruzione furono spesi 7,5 milioni di dollari. Il salone di
prima classe della nave era stato progettato ispirandosi alla reggia di
Varsailles, e un biglietto di prima classe per il viaggio d’inaugurazione
costava 3100 dollari, l’equivalente di 124 mila dollari di oggi (circa 225
milioni di lire).
A bordo cerano 2223 persone. Alle prime ore del mattino del 15 Aprile,
più di 1500 erano morte.
La creazione del film Titanic è costata più di 200 milioni di dollari (360
miliardi di lire a cui ne vanno aggiunti altri 180 spesi per la stampa di
copie e pubblicità), rendendo questo film uno dei più costosi della storia
del cinema.
Cameron e i suoi collaboratori non si sono certamente risparmiati nel
portare Titanic sullo schermo, immergendosi completamente nella
storia della nave e nelle credenze che la circondano.
Era loro fermo proposito realizzare un resoconto definitivo dello storico
evento e l’impresa è stata semplificata dalla partecipazione, sin dalle
prime fasi di sviluppo, di due esperti: lo scrittore Don Lynch e
l’illustratore Ken Marchall autori di: Titanic an illustrated history,
chiamati entrambi a collaborare in veste di consulenti.
Grazie ad anni di studi tra archivi e fotografie, Marchall era in grado di
visualizzare la grande nave anche nei più minuti dettagli.
In collaborazione con l’equipe di disegnatori della Digital Domain
Marschall e Lynch hanno messo insieme illustrazioni e fotografie che
riproducevano, arredamenti, motivi ornamentali, stucchi e tessuti
provenienti dalla loro collezione personali di reperti della Olympic, nave
gemella del Titanic.
Ed è toccato a Marchall effettuare il primo viaggio fino a Rosarito Beach
per visitare gli stabilimenti Fox Baja Studios e valutare il risultato della
collaborazione con i realizzatori.
129
Alla vista del set ultimato della nave, Marchall assicura di aver provato
un’immensa emozione: “È stato come tornare indietro nel tempo, la
nave ricostruita sul set era grande praticamente come quella vera, e
rivedere il molo della White Star Line come doveva apparire nell’aprile
del 1912 è stato non meno impressionante”.
I realizzatori di Titanic hanno impiegato cinque anni nel lavoro di
ricerca, studiando la nave e gli orribili dettagli dell’inabissamento
avvenuto dopo solo due ore e quaranta minuti dalla collisione con un
enorme iceberg.
Cameron aveva messo in chiaro che non avrebbe continuato la
produzione se non fosse riuscito a filmare personalmente il relitto del
Titanic.
La produzione ha quindi noleggiato il Keldysh, nave oceanica russa
impiegata nella ricerca scientifica che ospita a boro due dei cinque
batiscafi (Mir1 e Mir2) esistenti al mondo, in grado di portare l’uomo a
simili profondità.
A 350 miglia dalle coste del Newfoundland, regione del Canada
orientale, al cospetto di un’impressionante talismano del passato
adagiato sul fondo oceanico a 400 metri di profondità, J. Cameron ha
colto l’ispirazione per realizzare questo straordinario film.
“Nessuno era mai riuscito a portare la macchina da presa a quelle
profondità”, dice Cameron, “la pressione è tale da frantumare i normali
alloggiamenti, per quanto robusti”. “ Io però volevo avere la macchina in
acqua, all’esterno del sommergibile per poterla muovere con
naturalezza e poter utilizzare un grandangolare per cogliere
l’inquadratura sufficientemente ampia.
Perciò abbiamo dovuto realizzare uno specifico sistema di ripresa in
grado di resistere all’ambiente.
“Il mio primo approccio, ricorda Cameron, è stato quello del regista.
Quindi alla prima immersione, ero tutto scena prima, scena seconda,
scena terza…
È stato solo alla terza o quarta immersione che mi sono lasciato
coinvolgere dall’impatto emotivo: la meraviglia e il mistero di trovarsi a
quasi 4000 metri di profondità, sul fondo dell’Atlantico, al cospetto del
mesto relitto di quella grandiosa nave.”
Giunti al termine della “spedizione” di Cameron, è stato possibile dare
inizio alla lavorazione di Titanic, per consegnare allo schermo il passato
e il presente finalmente insieme.
La prima destinazione è stata Halifax, nella provincia canadese della
Nova Scotia, non lontano dal vigile spettro del leggendario relitto.
Brock Lovett (Bill Paxton) è il personaggio che insieme ai suoi
compagni di spedizione è alla ricerca del Heart of the Ocean, gioiello
d’incalcolabile valore che si cela nelle viscere della sventurata nave da
crociera.
Invece del favoloso gioiello Lovett porta in superficie un disegno che
rivela la storia di due cuori. Con l’arrivo sul set di una vecchia signora
130
che risponde al nome di Rose e sostiene di essere la donna ritratta, ed
è una superstite del Titanic, di cui si ignorava l’esistenza. Grazie a
Rose, Lovett e la sua squadra scoprono ben più di una mappa del
tesoro.
Senza volerlo i ricercatori hanno agitato le acque del passato
dell’anziana donna, riportando a galla i ricordi di una grande storia
d’amore e d’eroismo vissuta a bordo della disgraziata nave.
Le scene subacquee girate con enormi sforzi l’anno prima scorrono qui
a documentare l’attività di “cacciatore di tesori” che Brock Lovett svolge
nella finzione cinematografica.
Quando Rose Calvert, 101 anni, inizia a raccontare la sua straordinaria
storia, le immagini della carena devastata della nave, scorrono sui
monitor, Rose ci offre la sua immagine, vivida e intensa, di un
bellissimo giorno di quell’aprile del 1912.
Gradualmente il Titanic emerge dalle rovine per riprendere sullo
schermo l’antico regale splendore, di quel giorno in cui attraccato ai
moli di Southampton, attendeva i passeggeri ignari del destino che li
aspettava.
Il set dove la nave era stata ricostruita suscitava pari meraviglia. Con il
progredire dei lavori ad Halifax si dava l’avvio ad una tra le più
complesse imprese nella storia della moderna produzione
cinematografica a Rosarito Beach, nello stato messicano della Baja
California.
Grazie al lavoro di un’imponente equipe di artisti, artigiani e tecnici è
stato possibile ricostruire una copia del Titanic a grandezza pressoché
naturale su un set all’aperto lungo 235 metri ed un bacino di quasi tre
ettari, contenente quasi 65 milioni di litri di acqua di mare, ove
inabissare la nave.
Lavorando sempre nel rispetto delle più rigide norme di sicurezza, le
ultime ore del Titanic, sono state impresse su pellicola nei due enormi
bacini artificiali.
L’elegante salone da pranzo della prima classe e la grande scala a tre
piani, entrambi a grandezza naturale, o quasi, sono stati costruiti su una
piattaforma idraulica piazzata sul fondo della vasca, profonda nove
metri, costruita all’interno del teatro 2.
La struttura era stata concepita per poter essere inclinata ed allagata
con quasi 20 milioni di litri d’acqua di mare.
Lo scenografo Peter Lamont, tre volte candidato all’Oscar,
( Aliens: Scontro finale, Agente 007: La spia che mi amava e Il violinista
sul tetto), era riuscito a procurarsi le copie dei progetti originali del
cantiere Harland & Wolff, insieme al taccuino degli appunti di Victor
Garber, architetto responsabile del progetto e della costruzione del
Titanic.
Grazie a un vasto lavoro di ricerca e all’aiuto dei consulenti Dan Linch e
Ken Marschall, la squadra capitanata da Lamont è riuscita a creare
fedelmente l’opulenza del celebre salone da pranzo di prima classe, la
131
reception, il fumoir di prima classe, il ponte di passaggio, il Palm Court
Cafe, la palestra e diverse cabine extralusso (tra cui la suite stile
Impero che ospitava Cal e Rose), facendo riferimento alle foto
dell’Olympic, nave gemella del Titanic, e a pochi documenti esistenti
sugli interni della sfortunata nave.
Per ricreare l’illusione del Titanic in navigazione sia il set della nave che
i bacini erano stati strategicamente costruiti lungo la costa, che offriva
una visuale ininterrotta dell’oceano con un orizzonte infinito a far da
sfondo.
Date le imponenti dimensioni, Cameron ha fatto grande uso delle gru
Akela, tecnologicamente all’avanguardia. Con un altezza massima
raggiungibile di oltre 24 metri, sono tra le gru motorizzate più grandi del
mondo.
Per l’affondamento del Titanic, Cameron ha fatto costruire una gru a
torretta capace di raggiungere oltre 60 metri di altezza, allestendo il
binario lungo la fiancata navale, dice Cameron: “potevamo spostarci
sino alla cima dei fumaioli e raggiungere un punto qualsiasi del
piroscafo in pochissimo tempo”.
Proprio questo in realtà causò non pochi problemi agli animatori in CG
della Digital Domain, i quali dovendo costruire digitalmente le persone a
bordo del Titanic, si trovavano a passare da riprese talmente lontane da
non poter capire se c’erano persone a bordo ed altre estremamente
ravvicinate.
Il giroscopio sul quale era montata la macchina da presa garantiva al
regista, e al direttore della fotografia Russel Carpenter, grande
flessibilità nel girare materiali per gli effetti speciali è totali del piroscafo,
per non parlare della possibilità di “stringere” sugli attori amplificando la
drammaticità dell’azione.
Divenne subito chiaro che il solo modo per mettere migliaia di persone
a bordo di una nave che sarebbe stata un modello o un set, far
navigare quella nave in un oceano e simulare una scena ripresa
dall’elicottero, sarebbe stato quello di creare acqua 3D e persone in CG
realistiche.
Per l’acqua la Digital Domain ha iniziato a lavorare con il software
RenderWorld della Areté, già utilizzato dalla Cinesite per il film di
Waterworld,il quale utilizza algoritmi per la creazione procedurale di
acqua 3D.
Per la persone la Digital Domain è partita dagli strumenti e
dall’esperienza guadagnata catturando i movimenti di Micheal Jackson,
per animare uno scheletro in un video-clip, e i movimenti di Andre
Agassi per animare un doppione digitale in uno spot televisivo.
Tuttavia per l’oceano è stato necessario personalizzare il software
RenderWorld al fine di ottenere un’acqua ancora più realistica.
Per il team dell’oceano, diretto da Richard Kidd, il compito era di creare
parametri per l’ora del giorno, la velocità del vento, la posizione del
sole, e i riflessi per far corrispondere il mare in CG alle riprese dal vivo,
132
o per creare un oceano interamente in CG; ritagliare una zona nel mare
3D procedurale per inserire la nave; e creare la traccia lasciata dalla
nave. Per rendere possibile tutto ciò, Jim Rothrock ha sviluppato in
Prisms, un’interfaccia per il software RenderWorldI.
La difficoltà maggiore è stata quella di far “parlare” tutti gli elementi tra
loro, dice Crow.
Abbiamo mantenuto una documentazione on-line di ogni ripresa ed
elemento in modo da sapere se erano stati approvati.
Oltre alle riprese dal vivo, una scena poteva includere acqua digitale,
estensioni della nave, centinaia di persone digitali ed altri elementi 3D.
Lasoff e Crow hanno suddiviso il lavoro in computergrafica 3D in cinque
categorie, con Lasoff che ha gestito vari team che lavoravano sulle
persone digitali, e Crow che ha gestito gli altri quattro team:
integrazione digitale, il team per l’oceano, il team per la nave e quello
per gli effetti accessori.
Tutti i gruppi di computergrafica erano supportati da progettisti software
del gruppo di ricerca e sviluppo che hanno creato software
personalizzati per il compositing, per l’editing dei dati di motion capture,
per il traking della macchina da presa, e per il posizionamento delle
persone digitali.
Il team di costruzione per la nave 3D, capeggiato da Richard Payne ha
principalmente aggiunto estensioni alla nave per completare il set di
Rosarito, e inserito le immagini dei modelli della nave nella zona vuota
ricavata nel mare in computergrafica.
Per realizzare il modello esterno della nave, in scala 1:20, è stato usato
il software LightWave, funzionante su Workstation Alpha della Digital.
Il gruppo diretto da Payne e Fred Tepper è stato battezzato “Unità NT”,
per il fatto che usa macchine con sistema operativo NT. Titanic è il
primo film in cui l’Unità NT è stata usata dalla Digital Domain.
La realizzazione del modello e della texture per la nave ha richiesto 6
mesi di lavoro.
Finora c’era la percezione che LightWave andasse bene per i
videogiochi e per le produzioni televisive, ma che per i film di alta
qualità bisognasse usare Softimage e Alias su Silicon Graphic. L’Unità
NT ha voluto dimostrare che anche con Windows NT si poteva arrivare
al dettaglio richiesto dal film.
Il team per gli effetti accessori ha lavorato su tutti gli altri elementi in CG
ad eccezione delle persone. Hanno realizzato gabbiani, delfini,
bandiere, stelle nel cielo, pezzi di detriti che cadono dalla nave quando
si spezza, gli spruzzi dell’acqua contro lo scafo, funi, pezzi di ghiaccio
sul ponte, fumo, parti delle finestre che si rompono e probabilmente
molte altre cose.
Il team diretto da Kelly Port, ha usato principalmente Prisms, con
Softimage per gli uccelli e Dynamation per il fumo. Naturalmente
l’aspetto che forse colpisce di più è il cast di migliaia di persone digitali
utilizzate per le scene del film.
133
È la prima volta che in un film sono stati inseriti un numero così alto di
uomini in digitale con questo livello di realismo.
Il lavoro è stato suddiviso fra un team capeggiato da Keiji Yamaguchi,
per l’animazione delle sequenze sul ponte in luce diurna, e due team
per altrettante sequenze notturne dell’affondamento, diretti da Andy
Jones e Mark Brown.
Poi è stato messo insieme un team separato per l’integrazione dei
personaggi, capeggiati da Umesh Shukla.
Il supervisore per i personaggi digitali è stato Daniel Loeb, il supervisore
per l’animazione complessiva Daniel Robichaud.
La sessione del motion capture da utilizzare sugli attori è stata affidata
alla House of Moves (Venice,Ca,USA), che è stata in grado di gestire
più di 120 marker usando il sistema di cattura ottico Vicon della
Adaptive Optics.
La frequenza di campionamento così elevata ha dato una buona base
per l’animazione delle persone digitali, i dati sono stati perfezionati con
l’aggiunta di animazioni in keyframe.
L’animatore Daniel Loeb spiega: “abbiamo allineato sullo schermo lo
scheletro di motion capture con un modello in Softimage, cercando le
pose estreme dei movimenti e usando fondamentalmente i marker di
mani, piedi e torace, e poi abbiamo messo il modello in cinematica
inversa nelle stesse posizioni.
Il risultato finale è un’animazione in keyframe con normali curve di
movimento, che possono essere facilmente modificate ed estese come
qualsiasi animazione di questo tipo.
Bustanoby ha chiamato questo processo “rotocap” (rotocattura). Da
ciascuna delle scenette gli animatori hanno potuto trarre numerose
variazioni, invertendo le persone, ruotandole, alterandone la velocità,
cambiandone i costumi, e poi “verniciando il ponte” come dice
Bustanoby, con un massimo di ottocento persone digitali.
Per aggiungere realismo visivo ai movimenti, sono state digitalizzate in
3D le teste degli attori, e sono state scattate fotografie dei loro volti, le
fotografie sono state usate per le texture map, e ogni persona è stata
renderizzata separatamente con le relative ombre.
Uno degli aspetti che ha permesso questo livello di libertà è stata la
“pipeline d’integrazione delle persone”, una collezione di strumenti e
processi che hanno reso possibile coreografare scene con centinaia di
attori digitali.
Per questo Darly Strauss e Marcus Mitchell hanno creato molti
programmi proprietari per ridurre la complessità dei modelli e dei
movimenti e sostituirli con versioni più grezze, simili a cubi.
I modelli semplificati potevano essere facilmente spostati intorno a un
modello 3D in wireframe del Titanic.
Quando la scena veniva approvata i modelli di riferimento venivano
sostituiti dai modelli completi, per effettuare il rendering con RenderMan
o MentalRay.
134
Per comporre insieme tutte le scene la Digital Domain usa il proprio
software Nuke, in sistema di compositing scan-line basato su script, che
può essere ottimizzato in termini di velocità e può funzionare su
macchine con soli 125 KB di memoria.
Grazie agli sforzi combinati del team di produzione diretto da Cameron,
dei consulenti Don Linch e Ken Marchall e del meraviglioso contributo
della Digital Domain, il Titanic è stato riportato in vita, a catturare
l’immaginazione del mondo per la seconda volta nel corso di questo
secolo.
135
Sceneggiatura e Regia:
James Cameron
Fotografia:
Russell Carpenter
Scenografia:
Peter Lamont
Costumi:
Deborah L. Scott
Montaggio:
Conrad Buff, James Cameron, Richard Harris
Musica:
James Horner
Prodotto da:
James Cameron, Jon Landau
per Fox e Paramount
(USA, 1997)
Durata:
194'
Distribuzione cinematografica:
20TH CENTURY FOX
Distribuzione home video:
FOX VIDEO
PERSONAGGI E INTERPRETI
Jack Dawson: Leonardo DiCaprio
Rose DeWitt Bukater: Kate Winslet
Cal Hockley: Billy Zane
Molly Brown: Kathy Bates
Brock Lovett: Bill Paxton
Rose Dawson Calvert: Gloria Stuart
Ruth DeWitt Bukater: Frances Fisher
136
ALIEN RESURRECTION
Jean-Pierre Jeunet, 1997
Sono passati duecento anni dalla conclusione di Alien3. Sull'astronave
Auriga, alcuni scienziati militari sono riusciti a clonare Ripley dalle
poche cellule ritrovate nella fornace di Fiorina 161. Gli scienziati
riescono a clonare anche la regina aliena, che si trovava nel corpo di
Ripley, che inizia a deporre uova.
Per generare nuovi alieni, gli scienziati usano cavie umane, rapite da un
gruppo di mercenari tra l'equipaggio ibernato di una astronave di
passaggio.
La nuova Ripley comincia a ricordare la sua vita precedente (un effetto
dovuto al mischiarsi del suo Dna con quello alieno). In più, il suo
sangue è corrosivo come quello degli alieni, ai quali sembra collegata
da una specie di empatia.
Due alieni uccidono un loro compagno. Il sangue che esce dal corpo
corrode il pavimento della cella e gli alieni riescono a fuggire e a
liberare gli altri. Con la nave in preda agli alieni, i militari fuggono sui
moduli di salvataggio. Alcuni di loro vengono raggiunti, catturati o uccisi.
Il computer mette automaticamente l'Auriga in rotta verso la Terra.
Ripley si mette a capo dei mercenari e insieme tentano di raggiungere
la Betty, la loro astronave ancorata all'Auriga. Nuotando attraverso una
sezione allagata, il gruppo viene raggiunto e decimato.
Una delle serie più note di film di fantascienza/horror è Alien.
Dalla prima apparizione sul grande schermo nel 1979, quando uscì
fuori inaspettatamente da un torace, questa creatura ha catturato
l’attenzione e terrorizzato il pubblico.
Con una tradizione di questo tipo alle spalle, per gli artisti della Blue
Sky/VIFX (Los Angeles, USA) è stato emozionante creare la prima
versione in CG dell’alieno per Alien 4: la clonazione.
L’alieno in CG appare solo in 17 scene, per un totale di pochi minuti,
ma sono state scene molto difficili, nelle quali l’uso di un attore con una
tuta o di animatronics non era fattibile, come in una scena subacquea
nella quale due alieni inseguono nuotando un gruppo di sopravvissuti
(be’, per lo meno erano vivi fino a quel momento della storia).
Per costruire il modello dell’alieno, la Blue Sky/VIFX è partita dalle
sculture realizzate dalla Amalgamated Dynamics, la società che ha
creato le tute aliene e gli animatronics, e le ha digitalizzate. Poi gli artisti
hanno usato le nuvole di dati risultanti come riferimento 3D, spiega
Mitch Kopelman, supervisore agli effetti digitali, e hanno costruito
l’alieno NURBS per NURBS.
Gli artisti hanno usato PowerAnimator della Alias/Wavefront per creare
il modello, al quale sono state poi aggiunte le texture usando Adobe
Photoshop e Amazon Paint della Interactive Effects.
L’alieno risultante era decisamente perfetto, fa notare Kopelman, e
sembrava praticamente identico alle tute, o almeno, è stato così fino a
137
quando le tute non sono state indossate. Dopodiché, l’alieno in CG ha
dato l’impressione di essere... fatto in CG. "Quando siamo andati sul set
durante le riprese e abbiamo visto gli uomini che indossavano le tute, ci
siamo accorti che dopo averle indossate per un paio di mesi, le tute si
consumavano, graffiavano, sporcavano; insomma, non erano più
perfette. Quindi, abbiamo dovuto ritoccare il nostro modello un paio di
volte e "sporcarlo", in modo che assomigliasse di più all’alieno finale
che si vede nel film".
L’animazione è stata realizzata in Softimage della Microsoft, e tutto è
stato renderizzato con il renderer proprietario della Blue Sky, cgiStudio.
Per realizzare il movimento, gli animatori hanno studiato creature come
le iguane di mare e gli squali per le proprietà anfibie dell’alieno, e tigri e
leoni per i movimenti di caccia. Kopelman spiega che il suo ruolo
principale è stato quello di gestire gli aspetti dell’illuminazione e
dell’integrazione. Le scene subacquee erano particolarmente
difficoltose, quindi il team ha studiato sequenze subacquee di
esploratori come Jacques Cousteau per avere un’idea di come
apparisse una scena sott’acqua. "Abbiamo notato quattro cose", riporta
Kopelman. "La prima, è che c’erano bolle d’aria. È questo elemento che
fa capire al pubblico che la scena si svolge sott’acqua. C’era una certa
nebbiosità, che faceva sfumare le cose nello sfondo. C’erano riflessi
particolari, simili alle increspature sul fondo di una piscina. E c’erano
ombre volumetriche. Quando siamo riusciti a realizzare tutto questo,
abbiamo realmente ottenuto l’aspetto che cercavamo".
Lo staff di ricerca e sviluppo alla Blue Sky/VIFX ha creato le luci
volumetriche, racconta Kopelman, e ora sono un’opzione
d’illuminazione nel renderer cgiStudio. "La nebbia che sfuma sullo
sfondo è fondamentalmente una grande formula di compositing, che
abbiamo ottenuto usando lo z-buffer e altre tecniche. Le bolle sono
state create con Dynamation, ma renderizzate con il nostro renderer.
Se guardate attentamente, noterete che l’alieno spinge via le bolle,
quindi c’è anche interazione tra l’alieno e le bolle. I riflessi facevano già
parte del nostro renderer".
Lavorando così a stretto contatto con l’alieno, gli artisti della Blue Sky/
VIFX hanno finito per conoscere la creatura molto bene. A parte la sua
bocca minacciosa con due file di denti e il sangue corrosivo, c’è sempre
stato qualcosa di sinistro riguardo all’alieno che è difficile da definire,
fino a quando Kopelman non l’ha scoperto. "La cosa più raccapricciante
è che non ha occhi. Quando si guardano le animazioni della Disney o
altri personaggi, sono gli occhi che trasmettono tutte le emozioni.
Invece, in Alien non si vede mai il mostro sbattere gli occhi. Non si vede
nessuna pupilla".
138
Regia:
Jean-Pierre Jeunet
Sceneggiatura:
Joss Whedon
Fotografia:
Darius Khondji
Scenografia:
Nigel Phelps
Costumi:
Bob Ringwood
Montaggio:
Hervè Schneid
Effetti alieni:
Alec Gillis
Musica:
John Frizzell
Prodotto da:
Gordon Carroll, David Giler, Walter Hill
(USA, 1997)
Durata:
108'
Distribuzione cinematografica:
20TH CENTURY FOX
Distribuzione home video:
FOX VIDEO
PERSONAGGI E INTERPRETI
Ripley: Sigourney Weaver
Call: Winona Ryder
Vriess: Dominique Pinon
Johner: Ron Perlman
Christie: Gary Dourdan
Elgyn: Michael Wincott
Hillard: Kim Flowers
Generale Perez: Dan Hedaya
Dr. Wren: J. E. Freeman
Gediman: Brad Dourif
139
AN AMERICAN WEREWOLF IN PARIS
Anthony Waller, 1997
I Santa Barbara Studios (SBS; Santa Barbara, CA, USA) hanno scelto
un film decisamente non banale per il loro primo lavoro di animazione di
una creatura in CG per il grande schermo. In An American Wereworlf in
Paris, c’è per prima cosa il lupo mannaro in CG, una creatura molto
pelosa che ha costretto i programmatori degli SBS a sviluppare una
tecnologia proprietaria per la gestione dei peli, al fine di raggiungere un
risultato realistico. Ci sono anche vari tipi di lupi mannari (femmina,
maschio, chiaro, scuro) e in quasi tutte le scene in cui compaiono sono
state utilizzate versioni in CG. Poi c’erano alcune scene particolarmente
ambiziose, una al rallentatore nel quale un lupo mannaro salta fuori da
una fontana e scuote via l’acqua dalla pelliccia, e un’altra nella quale
due lupi mannari combattono. Mettete tutto insieme, e otterrete una
quantità gigantesca di lavoro complesso per un piccolo studio che si
cimenta per la prima volta nell’animazione dei personaggi per il grande
schermo.
Per iniziare il lavoro, gli SBS hanno costruito una scultura del lupo
mannaro e l’hanno digitalizzata ai Viewpoint Datalabs (Orem, UT,
USA), che ha fornito agli SBS il modello nel formato Alias/Wavefront.
Gli SBS hanno ritoccato il modello usando PowerAnimator e hanno
aggiunto dettagli con StudioPaint della Alias/Wavefront, Adobe
Photoshop e il renderer proprietario per la pelliccia. L’animazione è
stata realizzata usando Softimage 3D ed è diretta da James Straus, che
è entrato agli SBS dopo aver lavorato alla Industrial Light & Magic.
Con un portfolio alle spalle come Dragonheart e Jurassic Park, Straus
non era certo alle prime armi con l’animazione complessa dei
personaggi. Nonostante ciò, Straus afferma che le scene nelle quali
combattono due lupi mannari in CG sono state le più difficili che abbia
mai realizzato. "È già abbastanza difficile fare in modo che una creatura
appaia totalmente realistica, ma quando si stanno mordendo e
graffiando e si devono gestire due creature sintetiche, la situazione
cambia completamente. Devono reagire al loro ambiente e tra loro,
come se fossero oggetti fisici reali. È una coreografia complicatissima".
Per facilitare questo processo di animazione, Straus ha costruito quello
che definisce il suo modello di animazione ideale. "È un modello così
semplice, che è completamente animabile in tempo reale con
l’interfaccia del programma. Quindi, ho potuto importare il modello in
Softimage e animarlo in modo interattivo al 100 per cento. Ma il trucco è
che quel semplice modello controlla tutta la complessità del modello
finale, per creare un senso di movimento completamente realistico e
attivo".
Finora, Straus non era mai riuscito ad adottare questo metodo, cioè
quello di creare un modello che fosse sufficientemente semplice per
140
poterlo animare in tempo reale, ma che controllasse anche tutti i
controlli di animazione nascosti. "Per realizzare il modello complesso,
abbiamo utilizzato una super struttura interconnessa. Abbiamo isolato i
controlli fino a ridurli a circa cinque oggetti, e quegli oggetti erano legati
in modo così complesso a tutto il resto del corpo, che se ne muoveva
uno, venivano attivati tutti i gruppi di muscoli".
Straus ha anche integrato una modalità totalmente manuale per
consentire di controllare ogni aspetto del lupo mannaro, e assicurarsi di
poter far fare al modello esattamente ciò che voleva. "Se avevo bisogno
di forzare un’altra posa o risolvere alcuni problemi visuali per il regista,
volevo essere in grado di accedere direttamente al modello complesso
e poter controllare ogni cosa, e farlo rapidamente".
Anche se è stato necessario molto lavoro per creare questi modelli di
animazione, lo sforzo è stato ripagato in molti modi. Dice Straus:
"Abbiamo passato più tempo a gestire la recitazione e le reazioni
emotive del personaggio, e meno tempo a preoccuparci del rendering.
Quindi i risultati sono stati migliori".
141
Regia:
Anthony Waller
Soggetto e sceneggiatura:
Tim Burns, Tom Stern, Anthony Waller
Fotografia:
Egon Werdin
Scenografia:
Matthias Kammermeier
Costumi:
Maria Schicker
Montaggio:
Peter R. Adam
Musiche:
Wilbert Hirsch
Prodotto da:
Richard Claus
(USA, Lussemburgo, Francia, Gran Bretagna, 1997)
Durata:
102'
Distribuzione cinematografica:
ITALIAN INTERNATIONAL FILM
Distribuzione home video:
COLUMBIA TRISTAR HOMEVIDEO
PERSONAGGI E INTERPRETI
Sérafine: Julie Delpy
Andy: Tom Everett Scott
Brad: Vince Vieluf
Chris: Phil Buckman
Claude: Pierre Cosso
Amy: Julie Bowen
142
MIGHTY JOE YOUNG
Ron Underwood, 1998
Joe, un gorilla alto più di quattro metri è il protagonista del film Il grande
Joe. Questo lungometraggio della Walt Disney Pictures/ Buena Vista
Studios, ha una sceneggiatura basata sul film originale del 1949. Nella
nuova versione, il gorilla che aveva allietato l’infanzia di Jill Young, che
ora ha 21 anni, è decisamente cresciuto ed è minacciato dai
bracconieri. Per salvarlo, Jill lo porta dall’Africa a Los Angeles, proprio
com’era successo nel 1949.
Qui, i due raggiungono fama e fortuna, fino a quando un incidente non
scatena la furia di Joe facendolo aggirare rabbioso per Hollywood.
Nel 1949, gli effetti speciali furono creati da Willis O’Brien, famoso per
aver lavorato a King Kong, e dal maestro dell’animazione in stop-motion
Ray Harryhausen. Circa cinquant’anni più tardi, Joe è stato ricreato con
alcune delle tecniche più recenti di computergrafica ed effetti visuali,
con animatronic allo stato dell’arte e... con un uomo che indossa una
tuta da gorilla.
Per creare l’illusione del gigantesco gorilla, la Dream Quest Image (Simi
Valley,CA,USA),ha filmato l’attore John Alexander, con la tuta da
gorilla, in studio davanti a uno sfondo in bluescreen, e poi lo ha
composto digitalmente con scenografie in miniatura.
Nelle riprese dal vivo, i filmmaker hanno usato la prospettiva forzata per
far sembrare più grande il personaggio. Dato che Alexander corre alla
velocità di circa 13 chilometri all’ora, mentre Joe corre a 35 chilometri
all’ora, Alexander è stato filmato a 32 fotogrammi per secondo e poi
composto nelle scene di sfondo alla velocità cinematografica standard
di 24 fotogrammi per secondo.
Per le riprese in primo piano del gorilla che interagisce con le persone,
sono stati usati animatronic di dimensioni reali. Il Joe digitale è stato
usato solo per le scene fisicamente impossibili da realizzare o troppo
pericolose per l’attore.
“È ironico che dati tutti i progressi che abbiamo raggiunto nella
computer-grafica e nella creazione di creature, il nostro compito sia
stato quello d’imitare perfettamente un uomo che indossa una tuta da
gorilla”, commenta Chris Bailey, supervisore dell’animazione alla Dream
Quest che ha lavorato per il regista de Il grande Joe, Ron Underwood,
come supervisore dell’animazione del gorilla.
Oltre alla Dream Quest, anche la Industrial Light & Magic ha lavorato a
versioni in CG di Joe. La Dream Quest ha gestito 120 scene in
bluescreen e 28 scene di animazione dei personaggi; la ILM ha
contribuito a 16 scene di animazione dei personaggi. Entrambi gli studi
concordano sul fatto che il problema principale è stato la creazione di
peli digitali fotorealistici per Joe, ma è risultato anche
sorprendentemente difficile creare un modello basato su una tuta
riempita di foam, invece che su una creatura controllata dai muscoli, e
143
animare un personaggio che non era né uomo, né scimmia. “Sarebbe
stato più facile per noi se Joe fosse stato completamente in CG”, dice
Daniel Jeannette, supervisore dell’animazione per l’unità della ILM.
“Penso che abbiamo raggiunto un livello per cui sarebbe stato possibile
farlo interamente in CG, ma l’impresa sarebbe stata gigantesca e, a
causa del problema della pelliccia, probabilmente anche dai costi
proibitivi.
I Joe digitali creati dalle due società appaiono nella stessa sequenza
solo una volta, e in quella sequenza, che vede il gorilla su una
autostrada di Los Angeles, la scena gestita dalla Dream Quest riguarda
Joe visto da un elicottero, mentre la sequenza gestita dalla ILM
riprende Joe più da vicino, quasi al livello della strada.
Tra le sequenze creata dalla Dream Quest c’è ne sono tre che il team
degli effetti è orgoglioso di evidenziare, quella in cui il grande Joe
distrugge una Mercedes, quella in cui il gorilla attraversa il labirinto di
specchi all’interno del Luna Park, e quella che mostra il salvataggio del
bambino sulla ruota panoramica in fiamme.
La ILM ha lavorato sulle sequenze di caccia in pieno giorno alle Hawaii,
sulla scena di festa all’inaugurazione del centro zoologico dove Joe
cerca di uccidere il bracconiere, e sulle sequenze dell’inseguimento in
autostrada.
I peli digitali della Dream Quest
La Dream Quest ha iniziato ha sviluppare il suo software, che adesso si
chiama Jeti, nel 1996, usando Power Animator della Alias, ora il
software funziona con Maya.
Attraverso un comando si posizionano i punti iniziali sulle superfici, poi
attraverso i CV, (vertici di controllo), delle spline vengono orientate e
tirate verso la direzione di crescita del pelo.
Per intendersi, in questa fase il modello assomiglia a un puntaspilli.
Sono stati usati circa 300 peli guida per controllare attributi come la
direzione iniziale dei peli, l’arricciamento e il numero di segmenti, con
un numero maggiore di peli usati per la faccia e un numero minore per
la schiena.
La cosa più importante per la creazione di una pelliccia dall’aspetto
fotorealistico, secondo De Leuw, sono le shadow map 3D che
contribuiscono a creare un aspetto realistico di self-shadowing, (autoombreggiatura). Senza self-shadowing i peli danno l’impressione di
avere un bagliore interno, con questo accorgimento sembrano reali.
Un altro controllo importante avviene attraverso la texture map
disegnate con Alias Studio 3D, le quali controllano parametri come
lunghezza, densità, ammassamento e illuminazione.
Per animare i peli il team ha ideato un “wrapper script” (script di
avvolgimento) da utilizzare con Maya. Grazie a questo software i peli
hanno una loro dinamica in base al movimento della pelle.
144
I peli digitali della ILM
Il primo utilizzo del renderer di peli proprietario della ILM è stato per il
“gattino” del film I Flintstones. Da allora, il sistema si è evoluto in modo
da offrire ai direttori tecnici un linguaggio di scripting per scrivere
“shader” di peli e per aggiungere animazione procedurale. I peli
vengono aggiunti verso la fine della pipeline grafica, appena prima del
rendering, dopo che il modello è stato animato e dopo che lo skin è
stato connesso e sistemato in corrispondenza delle giunzioni. Nella
fase di rendering vengono fusi automaticamente i rendering dei peli con
quelli di Render Man. Per creare, animare, illuminare e renderizzare i
peli di un animale, un direttore tecnico crea una gerarchia di
caratteristiche, iniziando con quella più semplice: il collegamento di un
CV allo skin. Secondo quanto ci spiega il supervisore associato degli
effetti visuali Carl Frederick, a questo livello fondamentale un direttore
tecnico scrive uno shader di peli per specificare l’orientazione di base
del CV, determinando dove va il secondo CV.
Lo shader specifica anche il numero di CV per pelo, la lunghezza, lo
spessore (raggio), la densità e l’arco.
Una volta definita la personalità di base dei peli, il direttore tecnico
specifica altre caratteristiche, come colore, arricciamento, viscosità...,
creando una gerarchia di parametri. Presi insieme, questi parametri
globali formano un volume di peli con caratteristiche uniformi. Usando
queste caratteristiche come valore medio, un direttore tecnico crea una
gamma di valori per ogni parametro e associa questi valori alle
sfumature di grigio usate dai disegnatori di mappe per modificare la
qualità dei peli in zone specifiche di qualsiasi dimensione. Queste
texture map possono influenzare qualsiasi cosa parametrizzabile,
anche l’animazione procedurale.
Per controllare i peli di Joe, Rebecca Petrulli Heskes, responsabile per
Viewpainter, ha usato 21 texture map, che hanno richiesto sei mesi di
tempo per il disegno.“ La testa è stata l’elemento più difficile”, riporta.
“Quando sono arrivata al mento, stavo lavorando in una gamma di circa
cinque gradi tra tonalità di grigio”.
Una volta assegnate tutte le proprietà, il sistema genera in modo
procedurale peli campione. “Poi fa un’interpolazione tra i peli campione
per creare i peli intermedi”, illustra Frederick. Per Joe, 3 mila peli
campione hanno controllato il milione di peli finale. Christian Rouet,
tecnico senior alla ILM, spiega che per far muovere i peli, un direttore
tecnico può animare esplicitamente i peli campione a un certo
keyframe.
Inoltre, i peli possono essere animati in modo procedurale.
“Eravamo pronti a limitarci a muovere lo skin per simulare il movimento
dei peli”, dice Jim Mitchell, supervisore degli effetti visuali alla ILM, “ma
145
non è la stessa cosa che far piegare e dimenare i peli per conto
proprio”.
Usando CARI (il software proprietario della ILM), Mitchell ha potuto
muovere interattivamente peli campione, modificare parametri e
vederne l’impatto, “non in tempo reale, ma nel giro di pochi minuti”,
riporta. “La possibilità di visualizzare queste cose prima di passare al
rendering finale è stato un grande traguardo”.
Tecniche come queste ci porteranno sempre più vicini al tempo in cui i
personaggi pelosi in CG saranno altrettanto comuni di quelli con pelli da
lucertola, e nei film gli animali digitali potranno sostituire quelli reali. Per
quanto riguarda Il grande Joe, “se il personaggio sembra un uomo in
una tuta”, dice Giacoppo, “allora abbiamo fatto un buon lavoro”.
146
Regia:
Ron Underwood
Sceneggiatura:
Mark Rosenthal, Lawrence Konner
Fotografia:
Don Peterman, Oliver Wood
Scenografia:
Michael Corenblith
Costumi:
Molly Maginnis
Musica:
James Horner
Montaggio:
Paul Hirsch
Prodotto da:
ted Hartley, Tom Jacobson
(USA, 1999)
Durata:
114'
Distribuzione cinematografica:
BUENA VISTA
PERSONAGGI E INTERPRETI
Jill Young: Charlize Theron
Gregg O'Hara: Bill Paxton
Strasser: Rade Sherbedgia
Garth: Peter Firth
Harry Ruben: David Paymer
Cecily Banks: Regina King
Kweli: Robert Wisdom
Dr. Baker: Lawrence Pressman
Vern: Geoffrey Blake
Jack: Christian Clemenson
Joe Young: John Alexander
147
ARMAGEDDON
Michael Bay, 1998
Negli ultimi cinquant’anni, il genere umano ha imparato molte cose sullo
spazio, ma ne rimangono almeno altrettante da esplorare. È forse
questa una delle ragioni per cui Hollywood è così affascinata dallo
spazio: i soggetti ispirati a questa materia, infatti, sono altrettanto infiniti.
Lo spazio è un soggetto molto noto agli artisti della CG. Forse, uno dei
motivi è che le astronavi sembrano prestarsi alle linee pulite spesso
associate alla computergrafica. O, forse, è la vastità dell’Universo,
limitata solo dall’immaginazione, che invoglia gli artisti a esplorare lo
spazio nei loro lavori. Qualunque sia la ragione, i produttori
cinematografici hanno trovato un’affinità di spirito con gli artisti 3D.
Sembra che qualsiasi trama d’ispirazione spaziale (basata su fatti reali
o inventati) Hollywood riesca a ideare, gli artisti 3D siano in grado di
portarla sullo schermo.
Nel film Armageddon una meteora della grandezza del Texas sta per
abbattersi sulla Terra. Secondo la NASA l'unico modo per fermarla è
piazzare una bomba atomica al suo interno, a circa un chilometro di
profondità, e quindi farla esplodere. Non c'è tempo per formare degli
astronauti, bisogna mandare su una squadra di trivellatori provetti
guidati dal miglior specialista del mondo: Harry Stamper (Bruce Willis),
che in quattordici giorni deve tentare di salvare il pianeta e tornare sulla
Terra sano e salvo.
Michael Bay è uno dei migliori registi di Hollywood. Dopo il superlativo
The Rock con Nicolas Cage e Sean Connery, torna a girare un film
fantascientifico d'azione che deve la sua grande forza alla commistione
di generi cinematografici.
Anche gli artisti in CG della Dream Quest Images, avevano la loro
missione per il film: creare un asteroide, degli shuttle e altri effetti
spaziali così convincenti, da rendere credibile la trama per il pubblico.
La parte di questa sfida che si è rivelata più difficile è stata la creazione
dell’asteroide. Per iniziare, la Dream Quest ha realizzato un modello
fisico di 60 cm, secondo quanto riferisce Richard Hoover, supervisore
degli effetti visuali per Armageddon. Il modello fisico è stato digitalizzato
e trasformato in un “gigantesco” modello NURBS.
Per arricchire la modellazione, gli artisti hanno usato PowerAnimator
della Alias/Wavefront. Ma, per creare e renderizzare le particelle e i gas
emessi dall’asteroide, la Dream Quest ha scritto del software
proprietario (lo sviluppatore principale è stato Jim Callahan). “Con il
nostro software, è possibile volare attraverso le particelle senza che si
sgranino”, afferma Hoover. “Il software gestisce anche il riconoscimento
degli oggetti. Inoltre, abbiamo inserito diversi controlli di animazione
sulle particelle e realizzato cose spettacolari con la turbolenza e le forze
148
che muovono il gas. È stato un processo di apprendimento progressivo.
Ogni settimana eravamo in grado di fare di più”.
Un altro effetto apparentemente semplice, ma in realtà molto difficile, è
stato la gestione dei campi stellari. In effetti, riporta Hoover, la Dream
Quest ha finito per sviluppare un proprio renderizzatore di stelle, scritto
da Sean Jenkins. Spiega Hoover: “Tipicamente, quando si renderizzano
le stelle e si deve applicare il motion blur, le due cose non funzionano
bene insieme.
Quando vengono sfocate, le stelle diventano deboli, e quando
l’immagine si ferma, tornano nuovamente a brillare. Sean, quindi, ha
sviluppato questo programma che allevia le differenze tra movimento e
immagine ferma, ottenendo un’esposizione uniforme”. Inoltre, tutte le
stelle sono accurate. “Se un astronomo guardasse il cielo nel dettaglio,
si accorgerebbe che le stelle sono posizionate correttamente”.
Nel film, gli shuttle sono un misto di modelli fisici e in computergrafica,
perché spesso era più facile effettuare il motion tracking dello shuttle in
CG, fa notare Hoover. La Dream Quest si è molto impegnata per
assicurarsi che i due modelli avessero un aspetto identico.
“Abbiamo realizzato una scena con due shuttle, nella quale uno era un
modello fisico e l’altro era in CG. Li abbiamo messi sullo schermo e
confrontati per capire che cosa dovevamo fare per rendere il modello in
CG esattamente identico a quello fisico”. Un passo importante è stato
quello di scegliere un approccio diverso al texture mapping, con una
tecnica ideata dall’artista Mark Segal. Spiega Hoover: “Invece di
fotografare il modello su pellicola tradizionale e digitalizzare quelle
fotografie per creare le texture, abbiamo usato la macchina da presa e
ripreso fotogrammi dello shuttle girandoci intorno per 360 gradi in
orizzontale e verticale, digitalizzando poi le immagini come faremmo
con quelle del film. Dopodiché, abbiamo affiancato e applicato le
immagini al modello”. I risultati? “Abbiamo mostrato il modello fisico e
quello in CG a persone che non sapevano quale fosse quello generato
al computer, e nessuno ha saputo distinguerlo”.
149
Regia:
Michael Bay
Usa,1998
PERSONAGGI E INTERPRETI
Bruce Willis.... Harry S. Stamper
Billy Bob Thornton.... Dan Truman
Ben Affleck.... A.J. Frost
Liv Tyler.... Grace Stamper
Will Patton.... Charles "Chick" Chapple
Steve Buscemi.... Rockhound
William Fichtner.... Colonel William Sharp
Owen Wilson.... Oscar Choi
Michael Clarke Duncan.... Jayotis 'Bear' Kurleenbear
Peter Stormare.... Lev Andropov
Ken Hudson Campbell.... Max Lennert
Jessica Steen.... Co-Pilot Jennifer Watts
Keith David (I).... General Kimsey
Chris Ellis (I).... Walter Clark
Jason Isaacs.... Ronald Quincy
150
DEEP IMPACT
Mimi Leder, 1998
Il quattordicenne Leo Beiderman ama guardare le stelle, ma
preferirebbe e di gran lunga essere guardato dalla dolce Jenny Lerner è
una giovane e rampante giornalista, assetata di carriera. Ciò che li
accomuna è una cometa di discrete dimensioni che ha deciso di entrare
in rotta di collisione con la terra. Leo l'ha vista per caso una sera con il
suo telescopio. Jenny al contrario si è trovata fra le mani ambigue
informazioni sul Presidente degli Stati Uniti e, convinta di avere a che
fare con uno scottante sexy gate, si è lanciata nella sua ricerca con
spirito battagliero. Ma la misteriosa ELLIE su cui si vocifera non è
l'occasionale amante del Presidente, ma la famosa cometa di cui sopra.
Spetta a quest'ultimo l'ingrato compito di annunciare al mondo
l'imminente catastrofe, nonché il criterio selettivo con cui la nazione ha
deciso di "scegliere" le persone cui assicurare la sopravvivenza.
Impresa ben più ardua quella affidata all'emblematico "Messia", inviato
nello spazio con a bordo un gruppo di eroi incaricati di raggiungere la
superficie della cometa e di frantumarla. Con una scansione temporale
inquietante e drammatica l'ora dell'impatto comincia ad avvicinarsi: i
prescelti vengono portati in una città sotterranea dove vivranno per due
anni, mentre gli altri si preparano a consumare i propri attimi
interrogandosi sul significato dell'esistenza.
Due gigantesche comete sono su una traiettoria d’impatto con la Terra.
Come farà il Governo degli Stati Uniti e la popolazione mondiale ad
affrontare una minaccia di questo tipo? Questa è la domanda posta dal
film Deep Impact. Ma alla Industrial Light & Magic, gli artisti in CG
dovevano affrontare un problema diverso, posto dai produttori del film:
come fare a rendere una cometa in CG realistica e nello stesso tempo
minacciosa?
“Ci è stato detto subito che la cometa è di fatto un personaggio”,
racconta Bill George, cosupervisore degli effetti visuali per il film
insieme a Scott Ferrar. “È il “cattivo” della situazione, quindi doveva
essere minacciosa e terrorizzante, ma nello stesso tempo i produttori
volevano che il suo aspetto fosse realistico. Abbiamo fatto molte
ricerche. Fondamentalmente, una cometa è una grande palla dai
contorni indefiniti. Abbiamo quindi iniziato a seguire quella strada, ma,
dopo un po’, ci siamo accorti che non sembrava per niente minacciosa:
sembrava soffice. Allora, abbiamo deciso di rendere la roccia più
visibile e di togliere alcuni dei layer”.
Anche se potrebbe sembrare che le particelle siano la scelta naturale
per un fenomeno come quello di una cometa, la ILM ha scelto invece
un sistema a patch (anche se sono state utilizzate le particelle per
aggiungere alcuni dettagli). “Abbiamo iniziato a usare le particelle, ma
poi abbiamo scoperto che bastava anche una piccola variazione per
151
cambiare completamente l’aspetto complessivo”, dice George. “Con il
sistema a patch abbiamo potuto lavorare molto più velocemente”. Di
conseguenza, la cometa è in effetti un modello in wireframe con strati di
mappe di trasparenza e di altro tipo. La ILM ha usato i frattali per
impartire movimento, spiega Ben Snow, supervisore della
computergrafica. “Se avete una texture map, potete cambiare il modo in
cui guardate quella mappa usando una tecnica di variazione frattale.
Se state indicizzando una texture, potete usare un frattale per
modificare il punto che state campionando nella texture. E se state
animando con i frattali, come abbiamo fatto per questo film, le variazioni
sono ancora più accentuate”.
La ILM ha usato estensivamente le particelle per una scena, fa notare
George, quando gli astronauti atterrano sulla cometa per cercare di
farla esplodere.
La superficie della cometa aveva bisogno di qualche elemento che le
desse un senso di energia e di atmosfera. Dopo vari tentativi, i
produttori hanno deciso di usare neve simulata. Ma, come si è scoperto
presto, la generazione di neve simulata può sembrare ingannevolmente
semplice, così come succede per i campi stellari. “Scott e io
pensavamo: “Giriamo le scene e poi aggiungiamo la neve in seguito”. Il
problema è che quando si impostano tutti i parametri procedurali, come
velocità, movimento e casualità, i fiocchi di neve danno l’impressione di
essere vivi, come se fossero una specie di api.
È stato veramente difficile ricreare la sensazione che quei fiocchi
fossero spinti casualmente dal vento”.
Questo procedimento per tentativi ha comunque dato i suoi frutti, e la
ILM ha ottenuto il look che cercava sia per la cometa, sia per la neve.
Complessivamente, gli artisti della ILM hanno creato 129 scene della
cometa per Deep Impact. Parlando di questo lavoro, George
commenta: “Tutte le scene hanno presentato difficoltà”.
152
Regia:
Mimi Leder
Sceneggiatura:
Bruce Joel Rubin e John Wells
Fotografia:
Dietrich Lohmann
Costumi:
Ruth Myers
Effetti Speciali:
Michael Lantieri
Prodotto da:
Richard D. Zanuck e David Brown
Produttore esecutivo:
Steven Spielberg
(USA, 1998)
Durata:
120'
Distribuzione cinematografica:
UIP
Distribuzione home video:
CIC VIDEO
PERSONAGGI E INTERPRETI
Spurgeon Keeney: Robert Duvall
Tea Leoni: Jenny Lerner
Elijah Wood: Leo Beiderman
Vanessa Redgrave: Robin Lerner
Morgan Freeman: Tom Beck
Leelee Sobieski: Sarah Hotchner
153
LOST IN SPACE
Stephen Hopkins, 1998
A Lost in Space, versione cinematografica della popolare serie
televisiva di fantascienza degli anni ’60, hanno lavorato vari studi di
effetti speciali. Ma la Magic Camera Co. (MCC; Shepperton, Inghilterra)
ha creato una delle scene più complesse del film: la sequenza spaziale
di apertura di 3 minuti e mezzo nella quale il maggiore Don West (Matt
Le Blanc) e la sua squadra combattono nei Bubble Fighter in CG contro
i terroristi, anch’essi su astronavi in CG chiamate Sedition Raiders. La
missione è quella di proteggere l’Anello di lancio, una struttura in fase di
costruzione per trasportare astronavi. Anche l’Anello è generato al
computer.
La MCC ha creato tutti i modelli delle astronavi partendo dal lavoro
concettuale fornito dal reparto di produzione di Lost in Space. Per
modellare l’Anello di lancio, gli artisti della MCC hanno usato LightWave
della NewTek. I Bubble Fighter e i Sedition Raider sono stati modellati e
animati con 3D Studio MAX della Kinetix. Tuttavia, l’inserimento degli
attori nelle loro astronavi in CG e la corrispondenza dell’animazione 3D
con le immagini dal vivo si sono dimostrati compiti non facili.
Per prima cosa, gli attori sono stati filmati su un set in greenscreen
usando una speciale struttura telecomandata che simulava la cabina di
pilotaggio, spiega Angie Wills, responsabile degli effetti digitali alla
MCC. Gli artisti hanno poi costruito il resto del Bubble Fighter intorno
alla cabina usando 3D Studio MAX.
Per far corrispondere l’animazione 3D e le sequenze dal vivo, la MCC
ha sviluppato un particolare plug-in, che consente agli artisti di prendere
i dati dalla struttura in motion-control e importarli in MAX, come spiega
Alan Marques, supervisore degli effetti digitali.
“La struttura in motion-control comprende un software proprietario che
fornisce la posizione nello spazio della telecamera virtuale. Invece di
costruire una replica dell’intera struttura al computer per cercare di
ottenere quel dato, il software può comunicare la posizione della
telecamera in metri rispetto a un punto di riferimento. Fornisce le
coordinate xyz della posizione della telecamera nello spazio, e anche le
coordinate xyz dell’oggetto puntato dalla telecamera”. MAX supporta
una telecamera basata su target, ma, sfortunatamente, non può
caricare dati ASCII grezzi, come quelli forniti dal software: “Si tratta,
letteralmente, di un flusso di dati per la posizione della camera per ogni
fotogramma”, dice Marques. Quindi, per portare quei dati in MAX, la
MCC ha scritto un plug-in.
La sequenza è stata ripresa con un obiettivo anamorfico, che schiaccia
orizzontalmente l’immagine. “Se caricate quelle immagini su un
computer, il sistema non avrà idea della curvatura dell’obiettivo e non si
riuscirà ad allineare nulla”, spiega Marques. “Per aggirare questo
154
problema, fondamentalmente abbiamo creato una griglia in bianco e
nero e l’abbiamo ripresa con ogni obiettivo utilizzato nella scena.
Abbiamo posizionato la griglia a una certa distanza dall’obiettivo, in
modo da poter vedere come le linee venivano distorte dalla curvatura
della lente. Poi, abbiamo usato Elastic Reality e realizzato una mesh di
warping basata sulla distorsione della griglia. Questa mesh
compensava la curvatura delle linee, ottenendo alla fine linee dritte”. La
MCC ha dovuto elaborare tutte le 40 riprese dei piloti con quel
processo, prima che gli artisti potessero iniziare a lavorarci sopra. E,
finito il lavoro, gli artisti hanno dovuto rovesciare il processo per inserire
di nuovo la distorsione.
In effetti, le sole scene che includono in parte azione dal vivo sono
quelle in cui si vedono i piloti.
155
Regia:
Stephen Hopkins
Sceneggiatura:
Akiva Goldsman dalla serie TV di Irving Allen
Fotografia:
Peter Levy, A.C.S.
Creature Animatroniche:
Jim Henson's Creature 's Shop:
Scenografia:
Norman Garwood
Musica:
Bruce Broughton
Montaggio:
Ray Lovejoy
Prodotto da:
Mark W. Koch, Stephen Hopkins, Akiva Goldsman, Carla Fry
(USA, 1998)
Durata:
130'
Distribuzione cinematografica:
MEDUSA
PERSONAGGI E INTERPRETI
John Robinson: William Hurt
Dr. Smith/Spider Smith: Gary Oldman
Don West: Matt Le Blanc
Maureen Robinson: Mimi Rogers
Judy Robinson: Heather Graham
Penny Robinson: Lacey Chabert
Will Robinson: Jack Johnson
Older Will Robinson: Jared Harris
Jeb Walker: Lennie James
Business Man: Edward Fox
General: Mark Goddard
The Principal: June Lockhart
Lab Technician: Adam Sims
156
PLEASANTVILLE
Gary Ross,1998
Nel mondo senza tempo della televisione, una situation comedy in
bianco e nero degli anni ’50 può essere facilmente metabolizzata dallo
spettatore quanto uno spumeggiante video musicale trasmesso da
MTV. Quindi, è facile che un ragazzo difficile degli anni ’90 fantastichi di
vivere la vita perfetta di qualche commedia americana dei tempi d’oro,
dove il sole splende sempre e tutte le cose vanno per il verso giusto.
Questa è la situazione descritta in Pleasantville, un film del genere
commedia/avventura scritto, diretto e prodotto da Gary Ross, lo
sceneggiatore che si è guadagnato una nomination all’Oscar per Big e
Dave.
Il debutto registico di Ross ha visto come attori Jeff Daniels, Joan Allen,
William Macy, Tobey Maguire, Reese Witherspoon, Don Knotts e J. T.
Walsh.
Nel racconto fantastico del film, David e Jennifer, interpretati da
Maguire e Witherspoon, sono due gemelli che vivono con la madre
divorziata in una tipica famiglia degli anni ’90.
David si appassiona alle repliche di una sitcom classica, Pleasantville, e
la usa per fuggire dal mondo reale che condivide con una sorella
assolutamente modernista, alla moda e non sempre gentile. La vita dei
due gemelli subisce una svolta drammatica quando vengono risucchiati
dal televisore nella sitcom e si ritrovano a far parte del cast come
membri della famiglia televisiva, i Parkers.
Con il nuovo nome di “Bud”, David è eccitato di vivere nel suo paradiso
in bianco e nero. Jennifer, invece, che ora viene chiamata “Mary Sue”,
non si diverte.
Quando lei dà libero sfogo alla sua personalità colorita, a Pleasantville
cominciano ad accadere strane cose.
Presto, la città e i suoi abitanti subiscono una trasformazione: prima
una rosa diventa rossa; poi compare un filo d’erba verde, una lingua
rosa e degli occhi marroni.
Alcune persone hanno la pelle color carne invece che grigia, una cosa
che sciocca e fa irritare gli altri.
Distribuito dalla New Line Cinema, questo film da 40 milioni di dollari
(64 miliardi di lire) ha debuttato al Toronto Film Festival del settembre
dell’anno scorso ed è uscito negli Stati Uniti in ottobre.
Ingegnosamente concepito e ottimamente realizzato, Pleasantville è
una parabola provocatoria, complessa e sorprendentemente
antinostalgica avvolta nelle vesti ingannevoli di una commedia
commerciale di alta levatura. Lo straordinario lavoro è stato realizzato
da un team di produzione di grandi calibri, che includono l’operatore alla
macchina da presa John Lindley, il production designer Jeannine
Oppewall, il supervisore degli effetti visuali Chris Watts e,
157
probabilmente nel ruolo più importante, il designer degli effetti di colore
Michael Southard.
L’impressionante giustapposizione di colore e bianco e nero nelle scene
chiave è stupefacente. Ma è la persuasività complessiva delle magie ad
alta tecnologia di questo film che eleva veramente la favola di Ross al
di sopra del livello della mera operazione commerciale.
Un lavoro nascosto
Complessivamente, il film comprende 1600 scene di effetti visuali,
probabilmente molte di più di qualsiasi altro film ripreso dal vivo. Chris
Watts, supervisore degli effetti visuali, dichiara: “L’intero film, da 10
minuti dopo l’inizio fino a 5-10 minuti prima della fine, è completamente
elaborato in modo digitale. Tutti i 163.800 fotogrammi”. Sono stati
necessari 15 mesi di lavoro di 25 persone (animatori, color designer,
operatori al film recorder, montatori, sviluppatori software e tecnici
hardware) per creare gli 82 minuti di giustapposizioni “persuasive”,
usando strumenti digitali per mescolare alla perfezione le immagini in
bianco e nero con il colore.
“L’elemento trainante di questo film è il colore”, spiega Watts. “Le
persone appaiono a colori nei punti di svolta della storia, per esempio
quando leggono un libro o fanno sesso”. In effetti, il colore era così
importante in questo film che Ross e Watts hanno deciso fin dall’inizio
di formare uno studio di effetti interno invece che appaltare il lavoro
esternamente. “Non si può tenere distante uno strumento che si deve
usare così intensamente”, sostiene Ross, “e una volta fatti i conti, si è
rivelata una soluzione più economica, dato che si tratta di un lavoro
così specializzato”.
Dopo aver iniziato con un software per colorizzare le pellicole, Watts e il
suo team hanno finito per scrivere programmi proprietari di animazione
e correzione del colore per fare il grosso del lavoro. Con quel software
funzionante su workstation O2 della Silicon Graphics configurate con
256 MB di RAM, hanno potuto lavorare alla risoluzione di 2048 x 1556
usando una profondità di colore di 10 bit e ottenere un feedback in
tempo reale a risoluzione 1K. “Probabilmente, avremmo potuto ottenere
lo stesso risultato con qualche pacchetto di painting di fascia alta, ma,
considerando che avremmo dovuto comprare 10 licenze, è risultato più
economico scriverci il software da soli. Inoltre, non avevamo bisogno di
tutte le funzionalità di quei pacchetti”. Watts ha anche scritto un
programma da lui battezzato Panorama per tenere traccia delle singole
scene usando un time code codificato all’interno di ogni fotogramma.
Per facilitare la visualizzazione delle immagini in bianco e nero e a
colori, ed effettuare la conversione di colore, hanno integrato Shake,
software di compositing della Nothing Real (Venice, CA, USA) con il
loro software proprietario; e per alcune operazioni di painting, hanno
usato Matador della Avid
158
Il team degli effetti visuali ha iniziato per prima cosa digitalizzando le
sequenze a colori riprese dal vivo e poi ritoccando digitalmente il colore
delle immagini usando un Kodak Spirit Datacine per bilanciare e
regolare colore e densità. Una volta terminata questa operazione,
hanno potuto convertire selettivamente la pellicola a colori in bianco e
nero. Southard spiega il processo: “Estraevo almeno un’immagine fissa
da ciascuna scena, talvolta più di una. Con queste, costruivo keyframe
per gli animatori”. Poi, iniziava a convertire in bianco e nero regioni
delle sequenze a colori. La ricetta usata per il “bianco e nero” è 59% di
verde, 30% di rosso e 11% di blu. “È lo stesso risultato che otterreste
mostrando un film a colori su un televisore in bianco e nero”.
Per trasformare il colore in bianco e nero, hanno usato il software
proprietario che Southard descrive come “una specie di super Paintbox
con il quale si può fare animazione”. Southard ha disegnato forme
intorno alle aree che voleva rimanessero a colori (un ovale intorno a
una mela, per esempio) e le ha usate per impostare i keyframe. Il
software si occupava di convertire i fotogrammi intermedi in bianco e
nero, mantenendo all’interno della forma il colore originale o un colore
creato appositamente.
Tutto questo era abbastanza semplice nel caso di una mela. Altre
scene si sono dimostrate molto più difficili: una sequenza in bianco e
nero con petali di fiore color rosa-salmone che cadono a terra, per
esempio, ha richiesto fino a 70 poligoni, tutti in movimento durante la
scena. “Non è come creare maschere tradizionali”, spiega Southard.
“Abbiamo preso la scansione originale e animato il colore sopra di essa,
sia nel caso di colori esistenti, sia nel caso di colori creati ex-novo”.
159
Problemi d’integrazione
Fare in modo che il colore apparisse “giusto” è diventata un’arte in se
stessa.
Per prima cosa, i colori originali erano troppo saturi quando apparivano
nello stesso fotogramma con le parti in bianco e nero. “L’intenzione
originale era di disegnare una linea intorno alle aree che sarebbero
state a colori e lasciarle visibili sullo schermo. Non ha funzionato molto
bene. Davano l’impressione di essere luci al neon”. “Spesso, abbiamo
desaturato il colore fino al 70%, ma la quantità di saturazione cambia
con la storia, con l’atmosfera.
Quando le persone sono incerte, possono anche avere solo l’8% di
saturazione e riflessi in bianco e nero”. E, talvolta, i colori originali non
erano giusti per una scena, quindi li hanno cambiati. Un’altra difficoltà è
stata l’integrazione del colore con il bianco e nero in modo che la scena
“funzionasse”. “Se una persona in bianco e nero sta tenendo una mela
rossa, tutto va bene quando la mano è lontana”, dice Watts, “ma
quando la mano è vicina alla mela, sembra morta, come la mano di
Frankenstein. Di conseguenza, abbiamo inserito un riflesso della mela
sulla mano per aumentare il realismo”. In modo simile, se una persona
a colori passa davanti a un’auto in bianco e nero, il riflesso sul metallo
sarà a colori. Inoltre, Southard ha scoperto che, indipendentemente da
quello che succede in un fotogramma, l’occhio segue il colore. In una
scena all’interno di un bar, per esempio, un personaggio a colori si
porta sullo sfondo mentre i personaggi in bianco e nero in primo piano
continuano la trama.
Per dirigere gli occhi del pubblico sui personaggi principali, sono stati
aggiunti colori alle torte e ai dolci sul bancone in primo piano. In effetti,
Ross ha sempre considerato il colore come un altro personaggio. “Non
è solo un aspetto stilistico. Significa qualcosa. Per esempio, esprime
quello che succede ai personaggi nella storia”.
“Quando iniziano a provare sentimenti, nascondono il loro colore
quando sono imbarazzati e lo rivelano quando sono orgogliosi. Una mia
grande preoccupazione era che le persone in bianco e nero potessero
sembrare morte. Ma il pubblico ha imparato a conoscere i personaggi,
quindi aspetta che si colorino”.
In una scena che Ross ha visto in presenza del pubblico, la Lover’s
Lane (la strada degli innamorati) diventa a un certo punto a colori,
mentre i personaggi nella scena rimangono ancora in bianco e nero. Il
pubblico ha reagito gridando: “Coloratevi. Coloratevi!”.
Con Pleasantville, Watts ritiene che il team degli effetti visuali abbia
raggiunto nuovi traguardi in molti aspetti.
In cima alla lista, cita il numero record di fotogrammi trattati in modo
digitale per un film ripreso dal vivo. Al secondo posto, ritiene che questo
film abbia fatto un passo in avanti verso la masterizzazione digitale dei
film. Terzo, osserva che in questo film tutto quello che tradizionalmente
160
viene fatto otticamente, come dissolvenze e tendine, è stato realizzato
digitalmente, dato che il film era già in formato digitale. E, infine, la
creazione di un film in bianco e nero partendo da una pellicola a colori è
qualcosa di unico. “Nessuno ha mai tentato di farlo su questa scala”,
afferma Watts. Ross potrebbe aggiungere a questo elenco di primati
l’uso del colore come personaggio. “Sono fortunato”, dice Ross. “Agli
spettatori accade un fenomeno viscerale. Si abituano al bianco e nero,
e, non appena si dimenticano di vedere immagini in bianco e nero,
appare il colore e si accorgono di quello che manca. È divertente
giocare con questa reazione del pubblico nel corso del film”.
161
Sceneggiatura e Regia:
Gary Ross
Fotografia:
John Lindley
Scenografia:
Jeannine Claudia Oppewall
Costumi:
Judianna Makovsky
Musica:
Randy Newman
Montaggio:
William Goldenberg
Prodotto da:
Robert John Degus, Jon Kilik, Edward Lynn (III), Gary Ross, Steven
Soderbergh
(USA, 1998)
Durata:
110'
Distribuzione cinematografica:
MEDUSA
PERSONAGGI E INTERPRETI
David/Bud Parker: Tobey Maguire
Mr. Johnson: Jeff Daniels
Betty Parker: Joan Allen
George Parker: William H. Macy
Big Bob: J.T. Walsh
TV Repairman: Don Knotts
Margaret: Marley Shelton
162
GUSTI E TENDENZE NELLA CG
In questa sessione ho selezionato quattro film: (Wild Wild West, Fight
Club, Lake Placid e Inspector Gadget),che rappresentano alcune delle
attuali tendenze negli effetti visuali.
In Wild Wild West, la star in CG è una macchina, un modello a superfici
rigide, come i droidi di Star Wars Episodio I, ma con uno stile alla Giulio
Verne, invece che moderno o spaziale. In Wild Wild West e in Inspector
Gadget, vediamo esseri umani digitali usati come stuntman e attori in
carne e ossa dotati di protesi digitali, una cosa che si era già vista in La
Mummia.
Fight Club ci spedisce all’interno di un cervello umano, in un fly-through
che è il più possibile fotorealistico e scientificamente accurato. La cosa
interessante è che gli artisti della Digital Domain hanno usato le stesse
procedure basate su regole, chiamate
L-system, per far crescere gli alberi in Al di là dei sogni (che ha vinto
l’Oscar 1999 per gli effetti visuali) e per far crescere le strutture
all’interno del cervello per Fight Club.
Più gli effetti sono naturali, più è probabile che gli artisti usino algoritmi
per aiutarli a generare una complessità visuale o cinetica. Capelli, peli,
piume, fumo, vapore, polvere e sabbia vengono tipicamente creati in
modo procedurale, spesso con l’aiuto di sistemi di particelle. Gli shader
procedurali scritti in RenderMan della Pixar vengono usati spesso per
creare e animare, oltre che per ombreggiare la geometria.
In Lake Placid, gli shader di displacement modificano la geometria; in
Wild Wild West e in Fight Club, gli shader vengono usati per creare
movimenti.
Questi film dimostrano quanto siano diventati abili gli artisti nel creare
computergrafica fotorealistica e nell’integrare la grafica 3D con l’azione
dal vivo. Anche un pinguino fotorealistico in Fight Club, l’orso, la mucca
e il coccodrillo in Lake Placid e una vespa in Wild Wild West illustrano
questo punto. Ma c’è un altro tipo di abilità che alcuni stanno
sviluppando, quella di creare computergrafica non fotorealistica. Ne è
un ottimo esempio il film Al di là dei sogni, dove si è creata l’illusione
che Robin Williams cammini all’interno di un dipinto a olio, e più
recentemente nel film d’animazione Tarzan, nel quale personaggi
animati in 2D si muovono attraverso una giungla creata con fondali 3D
dipinti.
163
WILD WILD WEST
Barry Sonnenfeld USA, 1999
Diretto da Barry Sonnenfeld, noto per il film Men in Black, Wild Wild
West della Warner Bros vede protagonisti Will Smith nei panni di James
West e Kevin Kline in quelli di Artemus Gordon, due agenti governativi
che devono salvare il presidente Grant dal malvagio (e senza gambe)
Dr. Arliss Loveless (Kenneth Branagh).
Nonostante le critiche piuttosto tiepide, il film ha riscosso un discreto
successo negli Stati Uniti. Basato su una serie televisiva degli anni ’60,
il film imita l’uso di strani gadget caratteristici della serie offrendone
alcuni nuovi, creati in gran parte dalla ILM sotto la direzione del
supervisore Eric Brevic. Il gadget più grande di tutti è la “tarantola”, una
macchina alta 25 metri controllata dal Dr. Loveless da una cabina di
pilotaggio aperta nella sua “testa”. Fatta di ruote, cavi, contrappesi e
travi d’acciaio, la tarantola è come una Torre Eiffel a otto gambe che
cammina, fa notare Simon Cheung, supervisore dei modelli digitali, che
ha creato il gigantesco modello usando Maya della Alias/Wavefront.
Dato che ogni gamba è diversa, Cheung non ha potuto semplicemente
replicare un modello per otto volte; tuttavia, per rendere l’operazione di
modellazione leggermente più facile, ha potuto per lo meno sfruttare gli
shader di displacement per alcune delle viti. “Volevamo risparmiare il
più possibile sulla modellazione, quindi abbiamo cercato di creare
alcuni elementi, come le viti e la ruggine, in modo procedurale”, spiega
Craig Hammack, direttore tecnico capo per la ricerca e sviluppo.
“È stato difficile, dato che parte del modello è poligonale, quindi
abbiamo finito per usare Viewpaint”. Viewpaint è il programma di
painting 3D della ILM, che ha permesso la creazione di mappe per
ruggine, graffi, sporco, olio, bump e altro ancora, secondo quanto
dichiara Steve Braggs, supervisore della computergrafica.
“La grande difficoltà era il bisogno di un alto dettaglio. È il più grande
modello a superfici rigide che abbiamo mai realizzato, sei volte più
grande del T-Rex di Jurassic Park.
E in termini di painting, ha un numero di texture map superiore di 20
volte”.
Quando la tarantola cammina, ci sono ruote che girano, cavi che si
tendono e si rilassano, olio che scivola lungo le gambe, pistoni giganti
che si muovono in ogni giuntura, e vapore che fuoriesce da 64 piccole
aperture nelle giunture. Con 150 parti mobili in ogni gamba, questa
tarantola è sicuramente una macchina intricata, e ha rappresentato una
sfida interessante per Dan Taylor, supervisore dell’animazione. “Barry
Sonnenfeld voleva dare la sensazione di meccanismi difettosi; una
macchina che era potente, pesante, ma nello stesso tempo traballante”.
“Nel caso di un dinosauro, è possibile rappresentare il movimento dei
muscoli mediante rigonfiamenti. Con questa macchina non è possibile”.
164
Taylor ha studiato come si muovono le tarantole, ma ha scoperto che
non danno una sensazione di peso, di passi pesanti. Quindi, per la
macchina ha deciso di trasferire il movimento dalla gamba al corpo e,
dopo un po’ di esperimenti, ha allontanato il peso dalla gamba più
vicina alla macchina da presa.
L’animazione delle varie parti in movimento delle gambe, invece, è
stata spesso gestita in modo procedurale.
Espressioni scritte in Softimage 3D della Avid hanno fatto girare le
ruote, la dinamica di Maya ha fatto muovere i cavi, gli shader di
RenderMan hanno fatto scorrere l’olio e hanno mosso le mappe di
bump, uno script MEL (Maya) ha fatto uscire automaticamente il vapore
dalle aperture in base alle angolazioni delle giunture, e le particelle di
Maya hanno creato il fumo che fuoriesce dai fumaioli e, qualche volta,
si mischia con fumo reale.
“È stato complicato”, dice Alex Jager, direttore artistico degli effetti
visuali. “Il fumo reale ha una tensione superficiale tra ogni particella, e
simulare fumo che si avviluppa e si accavalla è difficile”. Per creare
l’effetto, hanno usato ombreggiature, texture e riflessi complessi
all’interno del fumo.
Oltre alla tarantola, la ILM ha creato diversi altri effetti in CG, incluse le
gambe meccaniche di Loveless, che assomigliano a quelle della
tarantola, una sedia a rotelle in CG che doveva essere uguale a quella
vera usata nel film, una vespa che punge una tarantola durante la
scena di un bivacco, e una “vespa” meccanica, una specie di monociclo
alato dotato di razzi che viene cavalcato dagli attori Smith e Kline.
Dopo aver creato quest’ultima scena usando interamente il bluescreen,
la troupe ha deciso di utilizzare in parte repliche digitali degli attori. “Gli
attori in blue-screen sembravano piccoli manichini”, racconta Taylor.
“Ma utilizzando la vespa e i personaggi in CG, abbiamo potuto
esagerare il movimento e rendere efficace la scena”. Per Will Smith,
hanno usato una scansione fatta per il film Men in Black; Kevin Kline è
stato modellato da Geoff Campbell e sono state poi mappate le
fotografie dell’attore sul modello. Complessivamente, la ILM ha lavorato
su 400 scene per Wild Wild West, 100 delle quali in 3D.
165
Regia:
Barry Sonnenfeld
Sceneggiatura:
S.S.Wilson, Brent Maddock, Jeffrey Price, Peter S. Seaman
Fotografia:
Michael Ballhaus, Stefan Czapsky
Scenografia:
Bo Welch
Costumi:
Deborah Lynn Scott
Musica:
Elmer Bernstein
Montaggio:
Jim Miller
Prodotto da:
Jon Peters, Barry Sonnenfeld
(USA, 1999)
Durata:
107'
Distribuzione cinematografica:
Warner Bros
PERSONAGGI E INTERPRETI
James West: Will Smith
Artemus Gordon: Kevin Kline
Dott. Loveless: Kenneth Branagh
Rita: Salma Hayek
166
FIGHT CLUB
David Fincher USA, 1999
Il thriller drammatico Fight Club del regista David Fincher, prodotto dalla
20th Century Fox con protagonisti Brad Pitt, Edward Norton ed Helena
Bonham Carter, mostra che cosa succede quando uno yuppie ha
troppo tempo libero e testosterone. Gli effetti vengono usati per aiutare
gli spettatori a capire che cosa sta succedendo nel cervello dei
protagonisti.
Per la sequenza d’apertura, è stato chiesto alla Digital Domain di
seguire un pensiero dalla sua origine all’interno del cervello umano fino
alla sua emersione attraverso un follicolo del cuoio capelluto sulla testa
sudata di Ed Norton. Il compito è stato affidato appropriatamente a
Kevin Mack, supervisore degli effetti visuali, che, nel suo tempo libero,
aveva già cercato di far crescere strutture neurologiche artificiali.
Per creare quella scena di 95 secondi enormemente dettagliata, il team
degli effetti è partito da disegni realizzati da un illustratore medico che
ha diviso la scena, e quindi il viaggio attraverso il cervello, in “stanze”.
In ogni “stanza”, gli artisti hanno tentato di creare immagini
anatomicamente corrette.
La maggior parte della geometria è stata creata in modo procedurale
usando Houdini della Side Effects Software; il rendering è stato
effettuato con RenderMan. La prima stanza è nelle profondità
dell’amigdala, una struttura nel proencefalo e parte del sistema limbico
che aiuta a regolare le emozioni e la memoria. La scena si apre con
neurotrasmettitori chimici che vengono rilasciati dai neuroni (cellule
nervose che trasmettono informazioni).
Per creare i neurotrasmettitori, l’artista digitale Dan Lemmon ha usato il
sistema di particelle di Houdini. Il risultato assomiglia a una nuvola
d’inchiostro che viene rilasciata da un poro. A quel punto, la telecamera
carrella indietro in una delle “stanze” più interessanti della sequenza:
una complessa rete di neuroni marroncini, assoni (estensioni lunghe e
fibrose dei neuroni che inviano le informazioni) e dendriti (estensioni dei
neuroni più corte e simili ad alberi che ricevono informazioni).
Lungo gli assoni scorrono bagliori bluastri, che rappresentano i
potenziali di azione, la carica elettrica creata quando un neurone viene
attivato e la sua membrana cambia da negativa a positiva.
Tutto questo è stato modellato, animato e renderizzato in modo
fotorealistico usando come riferimenti le ricerche di articoli scientifici e
le immagini ottenute con microscopi a scansione elettronica.
Per creare i potenziali di azione, l’artista digitale David Prescott ha
usato Houdini per animare in modo procedurale l’oggetto lungo un
percorso generato da un assone, poi lo ha renderizzato separatamente.
Per creare assoni e dendriti, Prescott ha usato procedure L-system
implementate in Houdini. Gli L-system, inventati dal botanico Aristed
167
Lindenmayer nel 1968, offrono descrizioni simili a regole dello sviluppo
delle piante, cioè di una forma 3D. Applicando quella descrizione a se
stessa, è possibile creare forme frattali e ricorsive; aumentando il livello
di ricorsività, la forma può diventare più complessa.
Per creare gli oggetti finali, Prescott ha usato metaball, isosuperfici e
algoritmi di suddivisione, poi, dato che la geometria risultante era densa
di poligoni, ha fatto crescere solo nove set (tre risoluzioni) di ciascun
oggetto. Le risoluzioni inferiori sono state usate per gli oggetti non molto
vicini alla telecamera. “Abbiamo usato una profondità di campo reale,
non una simulata con il motion blur”, spiega. Usando un sistema
intelligente per creare istanze annidate, è riuscito a moltiplicare
efficacemente il numero di set che appaiono nella scena finale durante
il rendering.
Per animare gli assoni e i dendriti che ondeggiano nella “materia grigia”
del cervello, Lemmon ha scritto uno shader di displacement usando
RenderMan. Da questa “stanza”, la telecamera ci fa passare attraverso
altra materia cerebrale, attraverso un poro, nell’osso corticale, nella
pelle, attraverso qualche cellula di grasso, nel follicolo di un capello e
finalmente all’esterno. Alla fine della scena, si guarda in effetti una
microfotografia del volto di Ed Norton con la parte della fronte vicina
all’attaccatura dei capelli imperlata di sudore.
Le texture map disegnate da Martha Snow Mack hanno determinato
dove far crescere i capelli in modo procedurale.
Uno degli aspetti più difficili della scena è stato il tentativo di far volare
la telecamera attraverso la complessa rete di geometria, ma una volta
individuato il percorso, gli artisti digitali hanno bloccato la scena e
iniziato il rendering.
I tempi di rendering medi sono stati di circa cinque o sei ore per
fotogramma
per
elemento;
ogni
fotogramma
normalmente
comprendeva tre o quattro elementi. “La difficoltà era legata al fatto che
il cervello è una struttura caotica, quindi ogni elemento di geometria era
davanti e dietro altri elementi”, dice Prescott. Ma il risultato sul grande
schermo è di grande impatto.
168
Regia:
David Fincher
Sceneggiatura:
Jim Uhls, dal romanzo omonimo di Chuck Palahniuk
Fotografia:
Jeff Cronenwth
Scenografia:
Alex McDowell
Costumi:
Michael Kaplan
Musica:
The Dust Brothers
Montaggio:
James Haygood
Prodotto da:
Art Linson, Cean Chaffin, Ross Grayson Bell
(USA, 1999)
Durata:
135'
Distribuzione cinematografica:
Medusa
PERSONAGGI E INTERPRETI
Tyler Durden: Brad Pitt
Il narratore: Edward Norton
Marla Singer: Helena Bonham-Carter
Robert Paulsen: Meat Loaf
169
LAKE PLACID
Steve Miner USA, 1999
In questo film della 20th Century Fox di genere commedia/horror, è un
coccodrillo che ruba la scena... e anche una mucca, un orso e un
elicottero. Tutti questi sono, almeno per parte delle scene, oggetti 3D
creati e animati dagli artisti della Digital Domain.
Diretto da Steve Miner, il film vede protagonisti Bill Pullman e Bridget
Fonda, che combattono un coccodrillo mangiatore d’uomini che vive in
un lago remoto del Maine, e Betty White, alla quale il coccodrillo
sembra invece piacere.
Per creare gli effetti, gli artisti digitali, diretti dal supervisore Andre’
Bustanoby, hanno usato un’ampia gamma di pacchetti software
commerciali e proprietari.
Le particelle di Houdini hanno creato gli spruzzi nel lago mentre il
coccodrillo emerge. Il software Paraform 1.0 della Paraform (Santa
Clara, California, USA) ha aiutato a trasformare dati scansiti in un
modello NURBS da poter usare in Maya e Softimage 3D.
Le particelle di Maya sono state usate per muovere la sabbia sotto le
zampe del coccodrillo. Il sistema dinamico di Maya ha aiutato gli
animatori a muovere la pelle sul ventre del coccodrillo.
La fluidodinamica nel software RealWave della Next Limit Research
(Madrid, Spagna) ha aiutato a creare la superficie del lago. E FurDesigner della Nordisk Film (Copenaghen, Danimarca) ha aiutato a
creare la pelliccia dell’orso. Il modello dell’elicottero è stato fornito dalla
Viewpoint Digital (Orem, UT, USA); le creature dalla Zygote (Provo, UT,
USA).
In molte scene, il coccodrillo è un “pupazzo” di Stan Winston.
L’orso è una combinazione di ripresa dal vivo e CG in alcune scene,
completamente in CG in altre. La mucca che viene mangiata dal
coccodrillo è un modello in CG.
Bustanoby ha preso molto sul serio il compito di far corrispondere il
modello in CG del coccodrillo a quello fisico di Stan Winston.
“Volevo essere sicuro di non dover reinventare nulla e che sfruttassimo
il più possibile le capacità artistiche e scultorie del team di Winston”,
spiega. Per farlo, il team di Bustanoby ha scansito le maquette di
Winston per creare il modello, e invece di disegnare a mano le texture,
ha messo i dettagli scolpiti della maquette nelle mappe di displacement.
Questo non solo ha reso più facile far corrispondere il modello in CG
con quello di Winston, ma ha fatto anche risparmiare tempo. “Penso
che se avessimo disegnato tutto a mano fin dall’inizio, avremmo
facilmente raddoppiato il tempo di creazione del coccodrillo”, afferma
Bustanoby.
170
Il coccodrillo in CG è stato usato nelle scene dove si muove
velocemente, in particolare quando l’animale balza fuori dall’acqua per
attaccare e quando sta inseguendo le persone sulla terraferma.
Le scene nell’acqua sono state particolarmente difficili a causa
dell’interazione tra il modello in CG e l’acqua. Il livello dell’acqua
cambiava con il movimento del coccodrillo, costringendo a realizzare
l’acqua in CG (con tecniche simili a quelle di Titanic); è stato necessario
animare spruzzi e gestire riflessi. Ma anche se Bustanoby preferisce
parlare del lavoro fatto dal suo team per modellare, applicare texture,
colorare, animare e renderizzare i personaggi digitali e gli elementi,
come l’acqua, uno degli aspetti più interessanti del suo lavoro per
questo film è stato il modo in cui ha aiutato il direttore della fotografia a
previsualizzare le scene e ha continuato a lavorare con la troupe
durante la produzione.
“Avevamo sul set una O2 della SGI con Softimage 3D”, e in Softimage,
Bustanoby ha creato un set virtuale della scena della spiaggia con
versioni digitali dei supporti delle macchine da presa, versioni in bassa
risoluzione di veicoli, persone e del coccodrillo, con diversi cicli di
animazione per quest’ultimo. Portando questa previsualizzazione del
set nella location dove sono state girate le scene dal vivo, ha potuto
mostrare al direttore della fotografia quale sarebbe stato l’aspetto della
scena scegliendo un particolare obiettivo o macchina da presa, e il
direttore poteva apportare modifiche di conseguenza.
171
Sceneggiatura e Regia:
Steve Miner
Fotografia:
Daryn Okada
Scenografia:
Willie Heslup
Costumi:
Jori Woodman
Musica:
John Ottman
Montaggio:
Marshall Harvey
Prodotto da:
David E. Kelley
(USA, 1999)
Durata:
92’
Distribuzione cinematografica:
BIM
PERSONAGGI E INTERPRETI
Jack Wells: Bill Pullman
Kelly Scott: Bridget Fonda
Hector Cyr: Oliver Platt
Sceriffo Hank Keough: Brendan Gleeson
Dolores Bickermann: Betty White
Kevin Campell: Adam Arkin
172
INSPECTOR GADGET
David Kellogg,1999
“Questo film riguarda soprattutto l’integrazione, più che ogni altra cosa”.
Diretto da David Kellogg, il film di genere commedia/fantasy della Walt
Disney Pictures basato sulla serie televisiva di cartoni animati
L’ispettore Gadget vede come protagonista Matthew Broderick nei
panni di un agente speciale incline ai disastri che è “potenziato” da vari
aggeggi, grazie a un esperto di medicina/robotica.
Molti dei gadget in CG creati dalla Dream Quest sono stati modellati in
base a modelli fisici realizzati da Stan Winston; alcuni sono stati creati
direttamente in computergrafica; e la maggior parte si è dovuta
ripiegare per stare in spazi assurdamente piccoli.
Un elicottero, per esempio, esce dalla testa dell’ispettore Gadget.
“Nel film si cerca sempre di mostrare al pubblico un nuovo gadget”, dice
Hoover, “e i gadget avevano tutti un qualche tipo di animazione per
ripiegarsi in piccoli spazi, per poi uscire e ingrandirsi in modo
telescopico. Quindi l’animazione è elaborata e divertente da guardare”.
Che tipo di gadget? Bizzarri dispenser, bolle digitali, spray, rampini di
ferro, orologi, un lanciafiamme, coltelli, una sega a nastro, un
piede/razzo, una penna Bic che si trasforma in pistola...
Quando l’ispettore Gadget vuole arrivare in fretta da qualche parte, può
guidare la sua gadgetmobile dotata di jet o utilizzare gambe cromate
alte 4 metri, entrambe create dalla Dream Quest.
John Murrah, supervisore della grafica 3D, racconta che le gambe sono
state particolarmente difficili da realizzare, perché gli animatori
dovevano far corrispondere i movimenti a quelli dell’attore filmato in un
set in greenscreen mentre correva su trampoli alti un metro collegati a
corde elastiche. Hanno usato dati di tracking per far combaciare alla
perfezione il movimento; per animare i suoi pantaloni, hanno usato
Maya Cloth.
“La parte difficile è stata la creazione delle pieghe”, spiega Rob Dressel,
supervisore dell’animazione. “Lavorare con una veste ampia è tutta
un’altra cosa; i pantaloni, invece, formano molte pieghe, e realizzarle
nel modo giusto è difficile”.
Un’altra scena difficile è stata quella nella quale Gadget si trasforma in
un airbag: corpo rotondo, gambe e braccia gonfie, piccole scarpe
attaccate sotto, testa che sporge sopra.
Per animare l’ispettore “gonfiato”, Dressel ha usato strumenti “lattice”
per farlo rimbalzare come una palla e farlo sfrecciare nell’aria quando
viene colpito. Per mettere il volto di Broderick sulla testa, il team ha
creato elementi tipo macadam (tipo di massicciata stradale in pietrisco)
tratti dalle riprese in grenscreen (gli elementi assomigliano a mappe
create a partire da un globo). Poi, hanno ritoccato gli elementi, li hanno
avvolti sulla testa 3D e hanno mosso il filmato nello spazio
173
tridimensionale mentre l’ispettore “gonfiato” rimbalza. “È come la Casa
Stregata di Disneyland”, commenta Dressel.
“Quando la si guarda di fronte, fa molta impressione, ma se la si guarda
di lato, l’effetto comincia a svanire”.
174
Regia:
David Kellog
Usa,1999
PERSONAGGI E INTERPRETI
Matthew Broderick.... John Brown (Inspector Gadget)/Robo Gadget
Rupert Everett.... Sanford Scolex (Dr. Claw)
Joely Fisher.... Brenda/RoboBrenda
Michelle Trachtenberg.... Penny
Andy Dick.... Kramer
Cheri Oteri.... Mayor Wilson
Michael G. Hagerty.... Sikes
Dabney Coleman.... Chief Quimby
D.L. Hughley.... Gadgetmobile
Rene Auberjonois.... Artemus Bradford
Frances Bay.... Thelma
Mr. T.... Himself
Richard Kiel.... Famous Guy with Metal Teeth (Jaws)
Richard Lee-Sung.... Famous Villian with Deadly Hat (Odd Job)
Bobby Bell (I).... Famous Identifier of Sea Planes (Tattoo)
175
THE MUMMY
Stephen Sommers, 1999
Egitto, 1709 a.C. Il gran sacerdote Imothep s'innamora della moglie del
Faraone e con il suo aiuto ne uccide il marito. Scoperti dalle guardie
imperiali i due sono destinati ad una tragica fine. L'imperatrice si uccide
mentre il sacerdote viene mummificato vivo e diventa vittima di una
maledizione. Chiunque lo riporterà in vita tramite il Libro dei morti è
destinato a perire e sarà responsabile di avere scatenato le dieci piaghe
dell'Egitto sulla terra.
Tremila anni dopo l'avventuriero Rick O' Connell, arruolatosi nella
legione straniera, durante un conflitto con i beduini scopre casualmente
la città sacra dove riposano (non ancora in pace) i resti di Imothep. Rick
confida il suo segreto all'archeologa Evelyn Carnarvon e a suo fratello
Jonathan. L'insolito terzetto decide così di avventurarsi nel deserto alla
ricerca della mitica città di cui si favoleggiano i tesori nascosti. Al
gruppo si uniscono degli esploratori americani, anch'essi alla ricerca di
facili guadagni.
Non sanno davvero a quali orrori andranno incontro risvegliando
Imothep dal suo sonno temporaneo...
Basato sul classico del 1932 con Boris Karloff, questa aggiornata
versione segue una bella egittologa e suo fratello nella ricerca del
tesoro della città perduta di Hamunaptra. Insieme a loro c'è un
avventuroso legionario, che li guida nelle profondità del deserto
egiziano. Una volta trovata la città, accidentalmente svegliano la
mummia di Imhotep dal suo sonno di 3000 anni, leggendo a voce alta il
Libro dei Morti e scatenando così la sua vendetta.
Gli esterni del film sono stati girati l'estate del 1998 nel deserto del
Marocco presso Erfoud, dove la temperatura spesso raggiungeva 54°
dai -13° del mattino.
"Squisita. Ossessionante" è come Fraser, il legionario, ha descritto la
sua esperienza nel deserto. "La sabbia sarebbe diventata una tempesta
alla fine del giorno.
La sabbia non era mai veramente sabbia. Era più simile ad un talco.
Non vi era modo di sfuggirle. L'ho continuata a trovare nel mio
spazzolino, quando sono tornato a Los Angeles mesi dopo".
Il regista, Stephen Sommers, non ha avuto problemi a lavorare nel
deserto.
"Il motivo per cui il film è diventato così grande è perché siamo andati
nel Sahara e fatto le riprese nel deserto e bisognava accettare tutti i
problemi che ne conseguivano.
I ragni e gli scarafaggi, gli scorpioni e il caldo, e le tempeste di sabbia
sono tipiche del territorio. Ho girato un film in India, quindi il Marocco in
confronto era una favola".
176
La Universal ha speso 80 milioni di dollari nella produzione del film ed
una buona parte di questi sono stati usati per i fantastici effetti speciali
forniti dai maghi della Industrial Light & Magic di Lucas.
Il personaggio della mummia in particolare non è sempre un attore
reale. "È feroce, formidabile, può cambiare forma.
Recitare insieme a qualcuno che non c'è può essere un problema,
soprattutto se lo devi baciare, come la Weisz, l’egittologa, ha dovuto
fare con la mummia.
Non c'era niente davanti a me. Ero sola e baciavo l'aria. Dovevo
soltanto immaginarlo".
Ha il potere di far scendere sulla terra le dieci piaghe, ma con la
premessa di base di un uomo che è rimasto vivo per 3000 anni in cerca
del suo amore perduto" ha commentato Fraser.
Creare questo tipo di personaggio non è stata una facile impresa per
John Benton, il supervisore degli effetti visivi, e il suo gruppo.
Ovviamente anche interpretarlo non è stato semplice come Arnold
Vosloo, (Imhotep), ha messo in evidenza.
"Tecnicamente era incredibilmente impegnativo, ma c'è un momento in
cui tu devi andare oltre tutto questo e mettere in evidenza la cosa più
importante" egli ha affermato. "Per me era interpretare l'uomo invece
che l'orrore".
"Ringrazio che me l'abbiano permesso. Interpretare semplicemente il
cattivo e gridare e comportarsi da pazzo sarebbe stato noioso".
Ma interpretare un antico egiziano innamorato non è l'unico problema
che Vosloo ha dovuto affrontare. Ha dovuto anche creare il linguaggio
che usa nel film. "Ho lavorato con un egittologo dell'UCLA per creare
questo linguaggio. Ovviamente non ci sono conoscenze sicure su di
esso. Pensiamo di sapere che suono abbia, ma non abbiamo delle
prove certe. Ho dovuto imparare tutto questo a voce. Lo scopo era che,
qualunque cosa ne fosse venuta fuori, questa fosse convincente. Non è
come in qualsiasi altro film, dove puoi semplicemente improvvisare".
Probabilmente la scena più difficile da girare per Vosloo è stata quella
in cui è stato fasciato completamente. "Mi avevano fasciato fino alle
spalle, quando sfortunatamente dovettero cambiare le luci. Così sono
dovuto rimanere per ben due ore fasciato".
Poi mi hanno messo nella bara, hanno sparso degli scarafaggi su di me
e l'hanno chiusa.
La cosa più strana è stata quando mi hanno fasciato la faccia, perché
non potevo parlare, né sentire, né vedere.
Ma la parte peggiore è stata rimanere sdraiato nel sarcofago, bendato e
coperto da scarafaggi che mi strisciavano addosso. Non è qualcosa che
voglia ripetere al più presto. Hanno usato 200 scarafaggi di gomma, ma
30 erano veri. Non era un grande divertimento!"
Dovevo uccidere quattro persone per ottenere i quattro contenitori con
gli organi vitali di Anck-Su-Namun. Ogni volta che ne uccidevo una mi
rigeneravo. La mummia uno e due sono state create interamente dalla
177
ILM, mentre la tre e la quattro erano interpretate da me. Per la terza
però recitavo indossando alcune protesi. Per entrambe portavo dei
pezzi di plastica sul corpo. Erano molto soffici, flessibili - una rotonda,
una quadrata, una allungata ecc... e rappresentavano dei buchi nel mio
corpo. Su di essi sono stati disegnati denti marci, muscoli e carne
decomposta".
Gli effetti speciali sono stati determinanti: grazie a loro abbiamo potuto
ricreare l'Egitto di 3000 anni fa, il Cairo degli anni '20 e l'effetto magico
della Mummia.
L'attrazione di Hollywood per la Mummia nasce all'inizio degli anni '30. Il
primo film de "La Mummia" è stato prodotto all'inizio del 1932 e per noi
è stato importante riportare "La Mummia" nuovamente negli studios
della Universal.
Gli effetti di questo film comprendono una mistica tempesta di sabbia,
uno sciame di locuste, insetti che entrano ed escono delle persone, e
una scena di combattimento con alcune terrificanti creature
mummificate dell’oltretomba, tutti creati dalla ILM.
Parte del lavoro più innovativo, però, si è concentrato sulla mummia e
sui suoi “colleghi”. Il solo studio dell’immagine definitiva della mummia
ha richiesto circa tre mesi. “Il regista voleva una mummia che non
desse l’impressione di essere una persona avvolta nelle bende”,
racconta John Berton della ILM, supervisore degli effetti visuali. In
effetti, quando viene aperta la sua tomba, Imhotep non sembra
neanche umano, anche se quando il cadavere rivoltante e quasi
scheletrico si alza dal suo sarcofago, si sa che una volta lo era. “Steve
Sommers voleva una mummia disseccata attraverso la quale si potesse
guardare, ma che comunque respirasse e si muovesse”, riporta Berton.
“Non è un animatronic. È grande, terrificante, veloce, cattiva, orribile, ed
è molto forte”.
E questo è solo il primo stadio. L’obiettivo di Imhotep nel film è di
combattere tutti i tentativi per impedirgli di rigenerarsi in questo mondo.
Quindi, con il progredire del film, il corpo di Imhotep si trasforma
lentamente fino a quando, alla fine, comincia ad assomigliare a un
essere umano, in particolare all’attore Vosloo. Ma quando Imhotep è
nel suo stato di mummia, è completamente in CG.
Progettata e portata alla “vita” dalla ILM, la mummia ha creato molti
problemi al team degli effetti visuali, sia per il suo aspetto, sia per il
modo in cui si muove.
Nello stadio più mummificato, sembra uno scheletro con pezzi di pelle
attaccati alle ossa e qualche parte molle all’interno dello scheletro.
Nella Fase due della rigenerazione di Imhotep, gli organi interni
diventano più definiti, più “umidi e complessi”, come dice John
Anderson, progettista principale della CG; pezzi di carne e di pelle
penzolano dalle ossa, e spuntano tendini e nervi.
Nelle fasi finali, le parti mummificate diventano protesi digitali poste
sull’attore reale.
178
Per creare il corpo della mummia, il team degli effetti ha usato una
combinazione di modellazione e displacement map. Per realizzare il
movimento del cadavere parzialmente decomposto, hanno messo
insieme tre tecniche di animazione: motion capture, keyframe e
animazione procedurale.
Muovere la mummia
Dato che la mummia si sarebbe evoluta nell’attore con il progredire del
film, è stato deciso fin da subito di catturare i movimenti di Vosloo e di
applicarli alla mummia digitale. Il reparto di motion capture della ILM,
supervisionato da Jeff Light, ha catturato i movimenti di Vosloo riflessi
da 50 marker sferici con un sistema di motion capture ottico Vicon della
Oxford Metrics (Oxford, UK,USA).
Poi, hanno usato il software del sistema Vicon e il software proprietario
Mojo per ripulire i dati catturati, in modo che potessero essere usati
dagli animatori. “Il motion capture è ottimo per offrire agli animatori la
temporizzazione di base di un attore e per catturare l’essenza dei suoi
movimenti, ma gli animatori devono poter cambiare i dati per
aggiungere le sfumature”, afferma Light. “Ci vogliono i migliori animatori
per manipolare i dati di motion capture senza perdere la loro essenza”.
“Per Imhotep, siamo partiti con il motion capture dello stesso Arnold e
abbiamo usato questi dati per alcune azioni fisiche riprese a distanza”,
racconta Daniel Jeannette, supervisore dell’animazione. “Per i primi
piani, abbiamo usato pose estratte dal motion capture, poi abbiamo
aggiunto keyframe all’animazione”.
Nei computer della ILM, oltre ai dati del motion capture sono state
riversate tutte le altre immagini di Vosloo. Sono state poi effettuate delle
riprese specifiche con l’attore per studiare la sua andatura e altri
particolari del suo modo di muoversi, per poi riportare il tutto nello
spazio tridimensionale.
Un uso particolarmente efficace del motion capture, secondo Jeannette,
è stato per una scena di combattimento nella quale una ventina di
mummie digitali animate con tecniche di motion capture e keyframe e
qualche stunt-man in carne e ossa in costume da mummia battagliano
con l’eroe del film.
Le mummie digitali sono facilmente individuabili: sono quelle i cui colli si
polverizzano quando gli viene tagliata via la testa. “È stato interessante
fondere il motion capture con l’animazione in keyframe e azione dal
vivo”, commenta Jenn Emberly, capo animatore, che ridendo aggiunge:
“Rimarrete sorpresi da ciò che può fare un corpo”.
L’arte della decomposizione
179
Il compito di creare il vero aspetto visivo della mummia in vari stadi di
decomposizione è spettato all’illustratrice Catherine Craig, che ha
studiato immagini di cadaveri fino ad avere letteralmente gli incubi.
Ogni modello della mummia aveva 3 mila superfici organizzate in
cinque livelli principali: pelle, ossa, carne/muscoli/tendini, bende, e
pezzi di carne penzolanti.
Per ogni livello, Craig ha disegnato sei mappe usando Viewpaint, il
sistema di paint 3D della ILM. Tre mappe controllavano colore, opacità
e specularità; le altre tre controllavano il displacement della superficie.
Le tre displacement map le hanno permesso di modificare la geometria
in ognuno dei livelli.
Con una displacement map, era possibile scavare o costruire texture
più basse o più alte di circa 6 millimetri disegnando aree con il nero (più
basso), il bianco (più alto) o il grigio (invariato). Una seconda mappa
estendeva l’altezza e la profondità a 12 millimetri. La terza consentiva di
tagliare fori nella geometria per rivelare un livello sottostante. “Quando
si disegna una texture, sembra falsa”, dice Craig. “Si nota che le
sporgenze non cambiano sui bordi. È preferibile usare una
displacement map, anche se richiede più tempo per il rendering”.
Michael Bauer, supervisore della CG, spiega i motivi di questa
lunghezza del rendering. “Normalmente, un displacement così spinto
crea immagini rumorose che compaiono e scompaiono, a seconda
dell’angolazione della telecamera.
Quando si usa uno shader per muovere i CV, si generano piccole
imprecisioni, quindi abbiamo dovuto lavorare con campionamenti dei
pixel a risoluzione più alta per evitare artefatti. Inoltre, anche
l’animazione procedurale faceva muovere i CV”. E se queste difficoltà di
rendering non fossero abbastanza, in una scena Imhotep passa dalla
Fase uno alla Fase due, il che significa che lo shader di Render-Man
doveva fare l’interpolazione tra i due set di mappe mentre la pelle
cambiava.
I modelli sono stati realizzati con PowerAnimator della Alias/Wavefront
e il software ISculpt della ILM.
La creazione dei modelli per La mummia ha portato la ILM più vicino
che mai alla creazione di un essere umano realistico. In film ricchi di
effetti visuali come questo, gran parte del lavoro viene realizzato in fase
di post-produzione. Oltre alla mummia, infatti, molte altre scene di
azione hanno visto pesanti interventi da parte della ILM per aggiungere
oggetti, effetti e comparse digitali. Di conseguenza, molte scene sono
risultate decisamente impegnative per gli attori, soprattutto tenendo
conto che in un film dell’orrore, ci si aspetta che i protagonisti abbiano...
paura.
Fraser, l’attore che impersona il protagonista “buono” del film, racconta:
“Per via di tutti gli effetti visivi, ci è capitato spesso di agire o reagire
davanti al nulla. In situazioni simili, credo che l’unica risorsa a
disposizione dell’interprete sia la fantasia”. Quando una determinata
180
scena esigeva che gli attori dimostrassero paura o terrore, i tecnici
mostravano loro una fotografia di Arnold Vosloo nei panni della
mummia per provocare la loro reazione. Rachel Weisz, la protagonista
femminile, aggiunge: “Per farvi capire quali sforzi d’immaginazione sono
stati necessari, posso raccontarvi di quella volta che Stephen, il regista,
mi ha guardato e mi ha detto: “D’accordo, adesso di fronte a te c’è un
enorme carro che si schianta al suolo e diecimila soldati armati si
precipitano contro di te”. Ovviamente, davanti a me non c’era nulla,
quindi ho dovuto ricreare l’emozione giusta, paura o altro,
semplicemente guardando uno spazio vuoto”. Quella di recitare col
nulla, dal momento che il digitale viene aggiunto in post-produzione, è
la stessa esperienza che hanno dovuto affrontare anche gli attori di Star
Wars:Episode I the phantom menace.
181
Sceneggiatura e Regia:
Stephen Sommers
Soggetto:
Lloyd Fonvielle
Fotografia:
Adrian Biddle
Scenografia:
Allan Cameron
Costumi:
John Bloomfield
Musica:
Jerry Goldsmith
Montaggio:
Bob Duesay
Effetti visivi:
John Berton
Effetti speciali:
Chris Corbould
Trucco:
Nick Dudman
Prodotto da:
James Jack, Sean Daniel
(USA, 1999)
Durata:
121'
Distribuzione cinematografica:
UIP
PERSONAGGI E INTERPRETI
Imothep: Arnold Vosloo
Rick O'Connell: Brendan Fraser
Evelyn Carnarvon: Rachel Weisz
Jonathan: John Hannah
Beni: Kevin J. O'Connor
The Egyptologist: Jonathan Hyde
Ardet Bey: Oded Fehr
182
MATRIX
The Wachowski Brothers, 1999
Siamo nel 1999, forse. Thomas Anderson, impiegato di giorno in una
ditta di informatica e hacker di notte con lo pseudonimo di Neo, sente
che qualcosa non va nella sua vita e in quella che si svolge attorno a
lui, ma soprattutto sogna qualcosa di più, sogna di "svegliarsi". Il
misterioso Morpheus, su cui sulla rete se ne dicono tante, è l'uomo che
potrebbe rispondere alle esigenze e alle domande di Neo. Anche
Morpheus ha bisogno di Neo. Che infatti viene prelevato da casa e
portato a cospetto dell'uomo ritenuto più pericoloso dalle autorità. Neo
potrebbe essere l'uomo predetto dall'oracolo a liberare la razza umana.
Cos'è dunque The Matrix?
The Matrix è il computer che si è preso la briga di generare il mondo
(non siamo nel 1999 ma in realtà nel 2070). Nel 2001, quando una
ribelle intelligenza artificiale ha preso il potere, essa si è occupata di
illudere gli umani di vivere sempre nel 1999 (ecco spiegato il disagio di
Neo). Ora gli umani vivono dominati dalle macchine e le loro energie
corporee vengono saccheggiate per alimentare le batterie di
quest'ultime. Disposto a conoscere la verità svelatagli da Morpheus e
da quelli della sua banda (nella quale si segnala una certa Trinity, che
ruba la scena a tutti nella sorprendente sequenza iniziale, dove si
incomincia a vedere il futuristico kung-fu con cui i nostri combattono i
difensori della Matrix), Neo si sottopone a massacranti allenamenti in
cui viene proiettato in una realtà virtuale dove può muoversi
velocemente e menare colpi di un'efficacia e di un'eleganza sbalorditivi.
E con i suoi nuovi compagni si appresta a combattere la perfida Madre
di tutte le macchine, non prima di avere sconfitto l'agente Smith,
parodico clone di un agente FBI, anch'esso virtuale e che appare
orribilmente indistruttibile. In tutta questa sarabanda di avvenimenti c'è
tempo anche per una riflessione mistica, Matrix è forse Dio?
Il film nasce da un idea dei fratelli Wachowski, ex fumettisti e
sceneggiatori, che molti anni fa dettero vita a Matrix, questa bozza di
sceneggiatura fu vista da Joel Silver, il produttore di film come Arma
letale e Die Hard, che intuì immediatamente la validità della pellicola.
Prima di presentare questa idea Silver voleva constatare la validità dei
due fratelli dietro la macchina da presa; banco di prova fu il film Bound
che ebbe un ottimo successo e che spinse Silver a presentare ai vertici
della Warner Bros questo progetto.
Per riuscire a convincere la Warner Bros a investire una cifra pari a 60
milioni di dollari ingaggiarono il disegnatore Geof Darrow per presentare
nel miglior modo il progetto.
Il progetto piacque talmente che la Warner Bros aumentò
immediatamente il badget avendone fiutato il successo.
183
La parte più interessante del film sono gli effetti speciali studiati
appositamente per esso. Le immagini al rallenty di alcune scene
d’azione contribuiscono alla creazione del particolarissimo stile di
Matrix, inoltre alcuni passaggi della sceneggiatura hanno richiesto
l’utilizzo di speciali tecniche di ripresa.
Queste sequenze richiedevano un movimento della camera da presa
vicino ai 12000 fotogrammi al secondo, che i fratelli Wachowski hanno
definito “Bullet Time” (riprese alla velocità delle pallottole).
Questo processo Flow-Motion consente al regista una flessibilità quasi
illimitata nel controllo della velocità e dei movimenti degli elementi
inquadrati.
Per fare un esempio si può far vedere un lottatore che salta per dare un
calcio al rivale accelerando l’immagine all’apice del salto, vedere l’uomo
librarsi in aria, estendere le gambe con uno scatto velocissimo e poi
ricadere al suolo con una naturalezza e grazia infinita.
I fratelli Wachowski si sono recati nella sala della Manex Visual Effect
(Alameda,CA,USA), per discutere delle loro idee riguardo al film con il
direttore degli effetti visivi John Gaeta. I Wachowski sono appassionati
di fumetti e conoscono bene lo stile giapponese d’animazione chiamato
Anime, che hanno ricreato per l’occasione con attori veri e propri.
Questo tipo di animazione si basa sulla “fisica della decimazione”,
ovvero scompone l’azione nelle sue diverse componenti e fa sì che ogni
elemento venga meticolosamente controllato per trarre la massima
drammaticità dal movimento dinamico.
I registi e il team guidato da Gaeta hanno dapprima stabilito i movimenti
e la posizione degli attori per una determinata scena e l'hanno poi
filmata usando macchine da presa tradizionali.
Hanno poi scannerizzato le immagini ottenute in un computer e usando
un sistema laser, sono riusciti a “mappare” i movimenti della cinepresa
necessari ad inquadrare la scena al meglio.
A questo punto una serie di cineprese fisse sono state poste lungo il
percorso precedentemente individuato e ogni macchina ha scattato una
singola foto.
Le immagini così ottenute sono poi state inserite in un computer che ha
creato una striscia di immagini fisse simili a quelle dell’animazione.
Il computer ha poi generato dei disegni intermedi per far muovere un
personaggio da una posa all’altra e la serie di immagini ottenute può
quindi scorrere davanti agli spettatori alla velocità desiderata dal regista
senza perdere in chiarezza.
Il punto chiave della scena “Bullet Time” era quello di far rallentare
l’azione al punto che, teoricamente, sarebbe stato possibile vedere il
percorso di un proiettile, questa tecnica è stata utilizzata per quattro
scene chiave di Matrix.
In una si vede l’attore Keanu Reeves che schiva una serie di pallottole, i
cui percorsi vengono rappresentati come file di dischi 3D d’argento.
184
La scena sembra ripresa da un punto d’osservazione che compie un
cerchio completo intorno all’attore, una cosa impossibile da fare con
una normale macchina da presa. Invece, il supervisore tecnico Kim
Libreri e il suo team hanno posizionato 122 fotocamere 35 mm caricate
con pellicola cinematografica in un set in greenscreen dove Reeves,
attaccato a dei fili, piegava la schiena con agilità per schivare le
pallottole.
Il progetto della scena ha richiesto molto lavoro. Usando il software
Softimage della Avid funzionante su workstation SGI, il team ha
impostato la scena usando un manichino animato, ha progettato un
percorso della macchina da presa, e con l’aiuto di un plug-in
proprietario, ha calcolato il posizionamento di ogni fotocamera nello
spazio fisico. Una volta sul set, il team ha posizionato un cubo con al
centro un puntatore laser che ha regolato in altezza, distanza,
angolazione e inclinazione per individuare la posizione di ogni
fotocamera.
Per facilitare la successiva ripulitura digitale della scena, hanno coperto
tutte le attrezzature con greenscreen a parte gli obiettivi delle
fotocamere.
Le fotocamere, che potevano essere attivate con un ritardo minimo tra
l’una e l’altra di un millesimo di secondo, venivano controllate da un
computer Intergraph con il software Filmbox della Kaydara; il software è
stato modificato con l’aiuto della stessa Kaydara (Montreal, Canada)
appositamente per questo progetto.
Per produrre il movimento tra i fotogrammi fissi, la Menax ha
collaborato con la Snell & Wilcox (Petersfield, England), per creare una
nuova tecnologia d’interpolazione del movimento. Tuttavia questo ha
risolto metà del problema, si doveva ancora mettere uno sfondo intorno
all’attore.
Per questo, si sono rivolti a George Borshukov della Manex che,
quando era studente alla UC Berkeley, ha contribuito allo sviluppo di
una particolare tecnologia di modellazione dell’immagine.
Il software che Borshukov ha creato per la Manex, chiamato Virtual
Cinematography, consente di trasformare un set o una location ripresi
dal vivo in una scenografia virtuale fotorealistica per generare qualsiasi
movimento della macchina da presa.
Come prima cosa si scatta una fotografia al set cinematografico, poi
attraverso le foto si genera una geometria tridimensionale e sempre
partendo dalla foto si applica una texture map all’ambiente 3D.
Il set virtuale risultante può essere re-illuminato e usato per il
compositing come una scena dal vivo.
Per la scena in cui Reeves schiva le pallottole in cima ad un grattacielo,
è stato usato Virtual Cinematography per creare tutti gli edifici nelle
riprese a 360 gradi, facendoli corrispondere con precisione a quelli della
location reale.
185
Per aumentare il realismo delle riprese delle finestre visibili nella scena,
è stato utilizzato uno shader procedurale di Softimage: MentalRay, per
applicare Bump map alle intelaiature delle finestre, in modo da riflettere
in modo accurato l’ambiente.
Le scene “Bullet time” avvengono nella realtà virtuale che in questo film,
imita il più possibile il mondo di oggi.
La vera realtà di Matrix, invece, è un mondo sintetico creato in gran
parte dalla Menax con strumenti in CG.
Rodney Iwashina ha collaborato con il modellista Grant Neisner e il
supervisore del colore e dell’illuminazione Rudy Poot. “Tutto è scuro e
consunto”, dice Iwashina, perché “le macchine non si preoccupano del
loro aspetto”. Tra le macchine biomeccaniche di Matrix c’è il DocBot, un
robot con appendici meccaniche multiple usate per dispensare
medicine e cure mediche agli esseri umani racchiusi nei baccelli, e le
Sentinelle, che sono macchine simili a calamari con 15 tentacoli.
La cosa che più turba di questo mondo, però, sono i campi di feti.
“Questo film include le immagini più scioccanti che abbia mai visto
creare con la CG”, afferma Gaeta. In una lunga sequenza, per esempio,
un feto umano è sospeso in un guscio simile alla placenta, dove il suo
teschio malleabile sta già crescendo intorno a un tubo che fornisce le
scene in RV. Il guscio, che penzola da uno stelo, viene raccolto da una
macchina simile a una trebbiatrice e piantato in uno degli sterminati
campi di esseri umani. La sequenza è stata creata interamente in CG.
Per creare il realismo “carnale” di un feto che galleggia in un baccello,
Rudy Poot ha usato un sistema che ha sviluppato nel corso degli anni e
che, unico nel suo genere, permette di sovrapporre shader di
Renderman in un solo oggetto.
Il sistema è, in effetti, uno shader globale, un codice di grandi
dimensioni con centinaia di parametri. All’interno di questo shader,
Global Surfacing Rendering (GSR), si possono attivare modelli
d’illuminazione proprietari ed effetti d’atmosfera volumetrici scritti con
l’aiuto di Steve Demers, e varie centinaia di funzioni di rumore per
aggiungere elementi come le goccioline.
Quindi, anche se il baccello in sé è una semplice forma ovoidale, grazie
al programma di rendering sembra essere un volume con tessuti
realistici e muco all’interno. “I baccelli hanno quattro layer. Si vede il
tessuto carnoso del bambino rifratto all’interno, uno strato di sporco,
uno strato di muco e, sopra tutti gli altri, una membrana chiara”,
descrive Poot. “Tutti questi elementi sono istanze di uno shader che
agisce su un solo oggetto. Con l’editor che abbiamo costruito intorno a
RenderMan, possiamo creare centinaia d’istanze di shader che
comunicano tra loro e creano l’ambiente. La luce è trasmessa nel modo
corretto e il muco ha effetti di volume”.
Usando GSR, il team può creare l’80-90% del look di un film usando i
parametri dello shader, senza dover scrivere shader personalizzati, una
186
cosa che, secondo Poot, rende le previsualizzazioni più veloci e più
vicine al look finale.
Matrix ritrae un tetro futuro nel quale gli esseri umani, i cui cervelli sono
bloccati nella realtà virtuale, esistono per generare bioelettricità per le
macchine.
Ironicamente, per realizzare questo film, i team degli effetti della Manex
hanno usato le macchine per creare nuovi strumenti che rendono più
facile previsualizzare e creare realtà virtuali e per renderizzare immagini
che si avvicinano più che mai alla raffigurazione del veri tessuti umani.
187
Sceneggiatura e Regia:
The Wachowski Brothers
Fotografia:
Bill Pope
Scenografia:
Owen Paterson
Costumi:
Kym Barrett
Musica:
Don Davis
Montaggio:
Zach Staenberg
Prodotto da:
Joel Silver
(USA, 1999)
Durata:
136'
Distribuzione cinematografica:
Warner Bros
PERSONAGGI E INTERPRETI
Neo: Keanu Reeves
Morpheus: Laurence Fishburne
Trinity: Carrie-Anne Moss
Agente Smith: Hugo Weaving
Oracle: Gloria Foster
Cypher: Joe Pantoliano
Tank: Markus Chong
Apoc: Julian Arahanga
Mouse: Matt Doran
Switch: Belinda McGlory
Dozer: Anthony Ray Parker
Agente Brown: Gordon
Ragazzo cucchiaio: Roman Witt
188
STAR TREK: INSURRECTION
Jonathan Frakes, 1999
La Paramount Pictures presenta Star Trek: insurrection, un film di
Jonathan Frakes prodotto da Rick Berman. Scritto da Michael Piller su
soggetto di Rick Berman e dello stesso Piller, Star Trek: insurrection è
ispirato alla serie televisiva create da Gene Roddenberry.
Alla realizzazione del film hanno contribuito Martin Horstein (produttore
esecutivo), Peter Lauritson (coproduttore) e Patrick Stewart (produttore
associato). La Paramount Pictures e una società del gruppo Viacom
Inc.
Star Trek: insurrection, che è uscito nei cinema italiani l’11 giugno, ha
cercato di sfidare la tradizione che vuole le puntate “dispari” della serie
meno riuscite, armandosi questa volta di spettacolari effetti speciali in
computergrafica. La tradizione non è però stata smentita e negli Stati
Uniti, dov’è uscito a metà dicembre, ha incassato in totale 70 milioni di
dollari (126 miliardi di lire).
In Star Trek: insurrection, il capitano Picard e il suo equipaggio
dell’astronave Enterprise visitano il pianeta dei Ba’ku, dove la
Federazione e i suoi alleati Son’a stanno conducendo un’indagine di
natura culturale. Picard, tuttavia, scopre il progetto della vecchia razza
Son’a, capeggiata da Ru’afo, di rapire i Ba’ku, una razza giovane e
pacifica, e di esiliarli dal loro mondo perché il pianeta da loro abitato è
immerso in una radiazione che inverte i processi d’invecchiamento.
Il capitano Jean-Luc Picard (Patrick Stewart) è molto preoccupato. A
quanto gli è stato riferito, il tenente comandante Data, in preda ad un
attacco di follia, ha preso in ostaggio il team scientifico che effettuava
un'ispezione sul popolo dei Ba'ku per conto della Federazione. Se non
si trova un modo di riportarlo alla normalità, l'androide Data dovrà
essere distrutto.
Ma la vicenda presenta molti lati oscuri. Anche il gruppo d’ispettori della
Federazione sembra animato da scopi reconditi che mal si accordano
con i principi di giustizia planetaria.
Il comandante Picard si trova catapultato improvvisamente nel bel
mezzo di un dilemma morale. Dovrà scegliere tra la disobbedienza ad
un ordine diretto dei suoi superiori e la fedeltà al primo articolo della
costituzione intergalattica.
Ne consegue la classica battaglia tra bene e male, che spesso si svolge
a bordo delle varie astronavi che sono state realizzate con strumenti di
computergrafica.
“Per la prima volta nei film di Star Trek, abbiamo usato immagini
generate al computer invece di modellini fisici in motion control per
creare le astronavi che si muovono nello spazio”, racconta Herman
Zimmerman, production designer della Paramount per il film. “Tre anni
189
fa, quando abbiamo realizzato First Contact, probabilmente non lo
avremmo neanche preso in considerazione”.
Ora, invece, sono disponibili strumenti commerciali per creare modelli
digitali che reggono anche le riprese ravvicinate. “Nel corso degli anni,
gli artisti di computergrafica si sono evoluti e sono diventati più abili nel
creare e animare modelli digitali.
Le macchine sono più veloci e il software è migliore. Quindi, oggi è
possibile fare di più. Si può zoomare su una certa sezione di
un’astronave in CG e vedere molti dettagli.
Il suo aspetto non è più falso come sarebbe successo cinque anni fa”,
afferma Jason Turner, scultore digitale senior e capo progetto alla
Viewpoint Data Labs (Orem, Utah, USA), che è stata incaricata di
contribuire alla costruzione dei modelli digitali dell’Enterprise e della
relativa navetta.
Oltre a quelle astronavi, Star Trek: insurrection include versioni in CG
delle navette e droni dei Son’a, un laboratorio scientifico, un collettore
spaziale e una nave olografica, che sono stati realizzati dalla Blue
Sky/VIF (Los Angeles, USA) e dai Santa Barbara Studios (Santa
Barbara, California, USA).
Scene spaziali
In particolare, la Viewpoint è stata incaricata dai Santa Barbara Studios,
la società di produzione responsabile per più di 100 scene di effetti
nello spazio, di realizzare modelli NURBS estremamente dettagliati
dell’astronave Enterprise e della relativa navetta.
Il lavoro è stato svolto principalmente con Maya della Alias/Wavefront.
I modellisti hanno anche usato PowerAnimator e Advanced Visualizer
della Alias/Wavefront, oltre a software della Softimage e della Nichimen
Graphics (Tokyo, Giappone), tutti funzionanti su varie workstation della
Silicon Graphics.
Il risultato è la prima flotta di astronavi interamente in CG nella lunga
storia di questa classica serie di fantascienza, che tradizionalmente ha
usato una mistura di modelli in CG e modelli fisici. “Per la prima volta, la
Paramount ha potuto mettere in pensione i suoi modellini, sostituendoli
con una nuova flotta di veicoli spaziali in CG destinati anche a missioni
future”, dichiara Bruce Jones, produttore esecutivo e vice presidente di
produzione dei Santa Barbara Studios.
Per l’Enterprise, la Viewpoint ha digitalizzato un modellino in scala da
tre metri dell’astronave (realizzato dalla ILM per l’episodio precedente
della serie) con il digitalizzatore 3D della FARO Technologies (Lake
Mary, FL, USA) e poi ha usato degli schemi dettagliati di
quell’astronave e della navetta per costruire i modelli in CG.
Prima della modellazione, però, il team della Viewpoint ha dovuto
riparare digitalmente irregolarità della superficie del modello fisico, che
si era deteriorato con l’uso.
190
“Il trucco è stato quello di creare un modello NURBS 3D dell’Enterprise
che potesse essere visualizzato tutto in una volta, ma che nello stesso
tempo permettesse di zoomare direttamente sulla baia di attracco e
vedere tutti i dettagli”, dice Walter Noot, vicepresidente della produzione
alla Viewpoint.
La decisione di costruire un modello NURBS invece di un modello
poligonale è stata predeterminata dai Santa Barbara Studios, che
stavano usando Maya.
“All’inizio della lavorazione, Maya era ancora in versione beta, ma dato
che usa la geometria NURBS, permette di avvicinarsi al modello a
piacimento senza vedere sfaccettature, un grande vantaggio per la
modellazione di queste astronavi”, spiega Noot. Secondo Turner della
Viewpoint, i Santa Barbara Studios volevano la flessibilità di fare una
carrellata continua dell’astronave a distanza, per poi avvicinarsi molto
alla sua superficie. Un modello NURBS poteva offrire quella flessibilità.
Può essere un modello a bassa risoluzione a distanza per risparmiare
sui tempi di rendering, e quando l’immagine è ravvicinata, può avere
tutti i dettagli senza dover cambiare il modello, come avreste dovuto
fare in passato. Tutto quello che si deve fare è alzare o abbassare la
risoluzione.
Nel caso di un modello poligonale, si sarebbe dovuto per lo meno
creare una versione in bassa e una in alta risoluzione. Noot aggiunge:
“La difficoltà, d’altra parte, è stata quella di non appesantire troppo il
modello, perché è facile creare modelli dall’aspetto bellissimo che però
finiscono per uccidere la memoria. Abbiamo utilizzato trim e raccordi
per non rendere troppo complesso il modello, pur mantenendone la
precisione”.
Per creare l’illusione di una scala immensa, si sono dovuti incorporare
dettagli intricati nella geometria del modello dell’Enterprise, inclusi ponti,
baie, cupole di osservazione, più di 1.200 finestre e componenti
meccanici come motori, condotti di scarico, ventole e portelli.
Di conseguenza, il team della Viewpoint ha prima digitalizzato un
modello in scala, poi ha confrontato il modello con disegni tecnici molto
dettagliati.
“Quando gli artisti della Paramount hanno disegnato queste astronavi,
hanno raggiunto un estremo dettaglio, come se progettassero vere
astronavi”, racconta Noot. Tuttavia, i disegni non sempre
corrispondevano al modello fisico della Paramount, quindi i modellisti
della Viewpoint hanno dovuto improvvisare. “È stato molto difficile.
Quando si ha a che fare con i fan di Star Trek, bisogna essere molto
precisi. Alcuni di loro conoscono ogni centimetro dell’astronave”,
aggiunge. “Eravamo terrorizzati dalla possibilità che i fan individuassero
le piccole variazioni tra la nostra astronave e il modellino visto nel film
precedente.
Se c’era qualche difetto nel modello fisico, non dovevamo ripulirlo, al
contrario dovevamo assicurarci che il modello in CG lo comprendesse”.
191
Texture inusuali
Una delle principale difficoltà per la realizzazione delle astronavi è stata
la resa delle superfici. Il team dei Santa Barbara Studios, infatti, voleva
evitare quel look tradizionale da “plastica in CG”, come lo definisce il
supervisore della CG Mark Wendell.
“I riflessi speculari dovevano dare l’idea di una superficie metallica a
pannelli, col tipo di bagliore visto nel film che utilizzano i modellini fisici”.
Per raggiungere questo risultato, è stato necessario scrivere degli
shader personalizzati per le superfici metalliche in RenderMan, un
lavoro che ha richiesto parecchio tempo. Inoltre, in particolare per
l’imponente astronave Enterprise, è stato utilizzato un approccio
innovativo all’applicazione delle texture.
È giusto dire che in Star Trek: insurrection è la prima volta che la flotta
di astronavi è interamente in CG. Ma non è certo la prima volta che la
computergrafica è stata utilizzata nella serie di film ispirata a questa
fortunata saga fantascientifica.
A parte qualche piccolo contributo nel film inaugurale della serie, il
primo elemento veramente innovativo di computergrafica è comparso
nel secondo episodio, L’ira di Khan. In quel film, il celeberrimo “Effetto
Genesi” utilizzava geometria frattale e i primi sistemi di paint 3D per
creare una trasvolata mozzafiato di un mondo che si trasformava da
paesaggio inospitale e deserto in un pianeta pieno di vita. La sequenza
all’epoca era costata moltissimo, e forse anche per questo è ricomparsa
con varie scuse anche in un paio di episodi successivi.
Nel quarto episodio della serie, Rotta verso la Terra, è stata utilizzata la
digitalizzazione 3D, mentre nel film Rotta verso l’ignoto sono stati
sfruttati morphing e particelle.
Negli ultimi due film della serie, Generazioni e Primo Contatto, sono
state anche realizzate astronavi digitali, usate però insieme a modellini
fisici. Ma è solo con Star Trek: insurrection che è stato completamente
abbandonato il consolidato modello in motion control. Naturalmente,
nelle serie televisive di Star Trek le astronavi in computergrafica hanno
già fatto la loro comparsa da tempo, da Next Generation in poi, ma in
quei casi la risoluzione e il dettaglio sono proporzionali ai budget
televisivi.
Nonostante ciò, il fatto di aver lavorato in precedenza alle serie
televisive, ha favorito l’affiatamento dei team che si sono occupati di
Star Trek: insurrection, permettendo di ottenere risultati di qualità in
tempi molto ristretti.
La computergrafica in Star Trek
“Abbiamo scelto un approccio molto complicato al texture mapping delle
astronavi: quello di usare le luci di proiezione”, spiega John Glower,
192
presidente e supervisore degli effetti visuali ai Santa Barbara Studios.
Intorno al modello dell’astronave è stata collocata una vera e propria
nuvola di luci di proiezione, in modo che puntassero verso l’interno.
Ogni luce proietta una singola texture. “In questo modo, avevamo
texture proiettate che coprivano tutti i particolari del modello, non solo
una vista laterale, ma anche una frontale e una dall’alto”.
Questa tecnica non è una novità, ma non era mai stata utilizzata prima
dai Santa Barbara Studios. “La tecnica di projection-mapping è poco
intuitiva”, commenta Glower, “ma su forme curve così complesse, come
quelle che caratterizzano tutte le astronavi, è difficile proiettare texture
in modo ortogonale, a causa delle deformazioni causate dalla
curvatura. La nostra tecnica di proiezione ci ha permesso di gestire
queste curvature complesse senza dover suddividere la geometria: è
stato sufficiente iniziare a proiettare.
È stata utile anche per evitare deformazioni ai poli dei pianeti”.
Ma non è stato tutto così semplice. “Il problema con questa tecnica”,
spiega Glower, “deriva dalle aree in cui si sovrappongono varie
proiezioni. Per fondere in modo invisibile le varie aree, è stato
necessario sviluppare un buon bagaglio di trucchi. Ma è decisamente il
solo modo per affrontare questo tipo di forme complesse. Abbiamo
potuto usare per ogni immagine risoluzioni molto alte, dell’ordine dei
4K. Ognuna di queste proiezioni era essenzialmente un livello
d’informazioni.
È stato necessario creare una gerarchia di texture, per eliminare
sovrapposizioni bizzarre, come la comparsa di un fianco dell’astronave
dall’altra parte.
Però, una volta allineate correttamente le proiezioni e delineate le
gerarchie, il sistema di texturing ha funzionato molto bene”, sostiene
James Straus, supervisore delle animazioni.
La trama si infittisce
Lavorando separatamente, la Blue Sky|VIFX, produttrice degli effetti
visuali per le scene in interni e l’animazione dei personaggi, ha creato
più di 200 scene in CG per Star Trek: insurrection, inclusi l’astronave
olografica (una gigantesca astronave al cui interno era ricreato
olograficamente un intero pianeta), gli shuttle e i droni dei Son’a,
l’interno del collettore spaziale usato per raccogliere i raggi
ringiovanenti del pianeta Ba’ku, vari paesaggi Ba’ku, personaggi
animati (un simpatico animaletto domestico, un colibrì e un pesce) e
vari tipi di armi.
Gli animatori della Blue Sky|VIFX hanno prodotto una trentina di scene
in CG per una sequenza chiave nella quale due shuttle Son’a lanciano
ondate di droni per colpire i Ba’ku in modo da teletrasportarli via dal loro
pianeta. In questa sequenza sono stati usati droni in CG, dal loro lancio
fino al combattimento ravvicinato con l’equipaggio dell’Enterprise.
193
Anche in questo caso, è stato scelto Maya come strumento di
modellazione e animazione su Octane della SGI. Il rendering è stato
effettuato con RenderMan della Pixar.
Inoltre, la Blue Sky|VIFX ha ingaggiato la Viewpoint per creare due
modelli NURBS della testa dell’ammiraglio Dougherty per facilitare il
morphing facciale della sua ingloriosa e dolorosa fine.
Non sempre per realizzare una movimentata scena di azione
fantascientifica è necessario usare raffinati effetti speciali. Qualche
volta, un po’ di fantasia nell’uso della macchina da presa può fornire
risultati migliori. Ecco come Matt Leonetti, direttore della fotografia,
racconta la realizzazione di una scena di Star Trek: insurrection in cui si
vede un’astronave in balia della violenza del fuoco nemico. “Dopo aver
posizionato alcuni cuscini sotto la macchina da presa, l’abbiamo colpita
a mani nude facendola vibrare durante la ripresa. In un primo tempo,
infatti, la produzione, per rendere l’effetto dei colpi sull’astronave, aveva
deciso di far ondeggiare l’intero set.
Ma la cosa non funzionava, perché era poco realistica.
Allora abbiamo fatto ricorso a questo semplice metodo, il cui risultato mi
sembra eccellente perché muove l’inquadratura e sembra che il set sia
scosso da una specie di terremoto. E anche grazie agli attori, che
hanno interpretato in maniera magistrale la scena, abbiamo raggiunto il
nostro scopo senza utilizzare alcun effetto speciale”, conclude Leonetti.
Effetti Speciali
Jim Rygiel, supervisore degli effetti visuali alla Blue Sky|VIFX, il team di
modellazione della Viewpoint ha scansito il volto dell’ammiraglio (con e
senza trucco) usando uno scanner laser 3D della Cyberware
(Monterey, CA, USA) per creare la geometria iniziale per i modelli 3D.
Poi ha usato software proprietario per trasformare i dati dei punti in
modelli NURBS.
Usando Elastic Reality della Avid Technology, RenderMan e Maya
funzionanti su O2 della SGI, gli animatori hanno creato un morphing
3D.
Per aiutare a nascondere le differenze tra la versione in CG e le riprese
dal vivo, la Viewpoint ha creato superfici aggiuntive 3D per le orecchie, i
denti, i capelli e gli occhi del personaggio. “È difficile far deformare un
volto davanti alla macchina da presa. Non si può fare con il semplice
trucco”, fa notare Turner.
La computergrafica ha giocato un ruolo chiave anche nel drammatico
confronto finale tra Picard e Ru’afo a bordo del collettore spaziale
Son’a, il cui aspetto è stato amplificato dagli animatori della Blue
Sky|VIFX.
Il production designer Zimmerman precisa che il duello avviene su una
gigantesca cavità formata da travi metalliche che si apre sullo spazio.
“La combinazione di un set reale alto quattro piani e un modello della
194
struttura generato al computer, ha creato uno degli interni più
spettacolari mai visti in Star Trek”, afferma Zimmerman. Anche in
questo caso è stato utilizzato Maya per l’animazione e la modellazione,
insieme a Houdini della Side Effects Software, mentre il team ha scelto
RenderMan per il rendering e Chalice della Silicon Grail, e Inferno della
Discreet per il compositing. “L’ultima scena è risultata particolarmente
complessa. Abbiamo dovuto costruire una miniatura per gli effetti
pirotecnici e fonderla con gli interni in CG dell’astronave, poi
posizionare Picard e Ru’afo (che erano stati filmati davanti a un
greenscreen) nella scena.
Mettere insieme tutti questi elementi non è stato facile”, conclude
Rygiel.
Ma il risultato finale è veramente “esplosivo”.
Star Trek: live action
Le riprese di Star Trek: insurrection hanno avuto inizio a Los Angeles il
31 marzo 1998. La lavorazione del film è terminata il 2 luglio del 1998,
sempre a Los Angeles.
Tra gli esterni utilizzati dalla produzione il lago Sherwood, in prossimità
di Thousand Oaks e le montagne che circondano il lago Sabrina nella
Sierra Nevada.
Parlando della genesi di Star Trek: insurrection, il produttore Rick
Berman racconta: “Lo sceneggiatore Michael Piller e io collaboriamo da
più di dieci anni.
Abbiamo iniziato a lavorare alla storia di Star Trek: insurrection circa un
anno fa ispirandoci al romanzo Cuore di tenebra. L'idea di partenza era
che Picard si recasse in un pianeta ostile per salvare qualcuno. Quel
qualcuno in un secondo tempo e diventato Data e poi la storia ha preso
una direzione totalmente diversa”. Il salvataggio di Data da un luogo
desolato e terrificante si è trasformato in una nuova avventura di Star
Trek in cui l'equipaggio dell'Enterprise deve scongiurare il pericolo che
minaccia di annientare un pianeta simile al paradiso terrestre. “Il
racconto ha subito molte modifiche”, ricorda Berman, “ma questo
accade ogni volta che io e Piller lavoriamo insieme.
Partiamo sempre con l'intenzione di scrivere una storia migliore della
precedente.
Questa di Star Trek: insurrection è senz'altro più ambiziosa delle altre,
per ciò che concerne la tematica, il numero dei personaggi e le
ambientazioni”.
Secondo il parere del regista Jonathan Frakes, che nel film interpreta
anche il ruolo del comandante Riker, “per le riprese di Star Trek:
insurrection è stato necessario utilizzare molti più esterni rispetto ai
precedenti film della serie, al punto che più della metà delle sequenze è
stato girato al di fuori dei teatri di posa”.
195
Le rive del lago Sherwood hanno ospitato il set del rustico villaggio dei
Ba'ku dotato di abitazioni e negozi e di un edificio per le assemblee.
La produzione ha inoltre provveduto alla costruzione di un ponte e
persino alla creazione dei campi coltivati dai pacifici Ba'ku. Nel corso
della vicenda, i Ba'ku sono costretti a lasciare il loro villaggio in seguito
a un attacco.
Gli uomini, le donne e i bambini si rifugiano nell'oscurità cercando di
mettere in salvo le greggi di lama che costituiscono una delle loro
principali fonti di sostentamento.
Per le scene ambientate nell'accampamento di montagna dove i Ba'ku
si rifugiano dopo l'attacco, la produzione si è trasferita nella Sierra
Nevada, in una località molto isolata che sovrasta il lago Sabrina.
Il set, collocato a tremila metri sul livello del mare, era talmente
inaccessibile da rendere necessario l'uso degli elicotteri per il trasporto
del cast, della troupe e dei materiali.
“Una cosa del genere non mi era mai accaduta prima. Un'esperienza
fantastica”, racconta il regista Frakes. “Il set sulla Sierra Nevada
lasciava senza fiato per più di una ragione.
A disposizione dei partecipanti al film si trovava infatti uno staff di
medici pronti con l'ossigeno nel caso di malori dovuti all'altitudine.
Per realizzare Star Trek: insurrection, abbiamo dovuto superare un
considerevole numero di difficoltà”, ricorda lo scenografo Herman
Zimmerman. “Mentre in Primo contatto abbiamo allestito 37 set, per
questo film è stato necessario crearne ben 55.
Quella di Star Trek: insurrection è stata certamente la scenografia più
impegnativa di tutta la serie cinematografica, anche per la difficoltà di
inventare nuove ambientazioni vista la lunga tradizione che avevamo
alle spalle.
Per fortuna lavorare con Frakes è stato un vero e proprio piacere e
Berman è un produttore eccezionale. La stretta collaborazione che
abbiamo stabilito con Peter Lauritson, produttore degli effetti speciali, ci
ha aiutato enormemente”.
Zimmerman ha lavorato a stretto contatto con Berman e Frakes per
l'allestimento del villaggio dove i Ba'ku vivono pacificamente dopo aver
rinunciato alla tecnologia e ai viaggi spaziali.
“I Ba'ku sono persone affabili dotate di una forte inclinazione per la
spiritualità”, commenta Zimmerman. “Per loro libera scelta, sono passati
da un livello tecnologico del tutto simile a quello del resto della
Federazione a uno stile di vita semplice e pastorale, testimoniato anche
dalle abitazioni in cui vivono.
Nella creazione del loro villaggio ci siamo ispirati all'architettura
tailandese, giapponese, cinese e polinesiana, tutte improntate alla
massima essenzialità e armonia con l'ambiente circostante”.
A Zimmerman è stato inoltre affidato il compito di creare il mondo dei
Son'a.
196
Zimmerman ha disegnato la nave spaziale nonché una sorta di centro
estetico che riflette l'ossessione di questo popolo per l'eterna
giovinezza.
Il confronto finale tra il capitano Picard e Ru'afo ha luogo sulla nave
laboratorio spaziale dei Son'a, attrezzata per estrarre le particelle
metafisiche dell'eterna giovinezza situate sugli anelli che circondano il
pianeta dei Ba'ku.
La lotta tra Picard e Ru'afo si svolge principalmente su grandi travi di
metallo sospese nel vuoto. Questa sequenza ha costituito “una vera e
propria sfida per tutti noi”, dichiara Zimmerman. “L'ambientazione è
stata infatti creata in scala reale in un teatro di posa. Questa enorme
struttura metallica è stata poi combinata a un modello generato al
computer, e in questo modo la produzione è riuscita a dar vita a una
delle scene più spettacolari mai viste nella storia di Star Trek”.
L'utilizzazione della grafica computerizzata per le sequenze di volo, non
ha escluso l'uso dei tradizionali modellini. In una scena chiave del film i
Son'a attaccano il villaggio dei Ba'ku con sofisticati congegni
telecomandati per costringerli ad abbandonare il loro mondo. Durante
questa sequenza si vedono i membri dell'equipaggio dell'Enterprise che
distruggono personalmente alcuni di questi pericolosi marchingegni.
Per questa scena, la produzione ha deciso di utilizzare dei modellini
piuttosto che la grafica digitale.
La costruzione di questi congegni ha richiesto all'incirca sei settimane.
La sequenza del film in cui compaiono le astronavi Son'a impegnate
nell'attacco al villaggio Ba'ku, è invece stata girata grazie alla grafica
computerizzata. Per filmare questa scena, il team degli effetti speciali
ha scansionato i modellini per inserirli nell'immagine digitale.
Star Trek: insurrection rappresenta un'altra pietra miliare della saga più
popolare dei nostri tempi.
All'inizio del 1998, è stato inaugurato all'Hilton di Los Angeles
Star Trek: The Experience, un parco di divertimenti multimediale
interamente dedicato alle avventure dell'Enterprise.
Accolto freddamente negli USA e criticato aspramente dai fan di lunga
data, Insurrection rappresenta un deciso cambiamento di marcia
rispetto ai precedenti film della saga. Il risultato finale fa forse pensare
ad un episodio televisivo dilatato a dismisura, anche grazie alla regia di
Jonathan Frakes, ottimo nell'orchestrare le poche ma efficaci scene con
effetti speciali quanto furbo nel smorzare i toni epici (di per sé
autoconclusivi) in favore di una serializzazione che rimanda
continuamente "al prossimo episodio".
197
Regia:
Jonathan Frakes
Sceneggiatura:
Michael Piller
Fotografia:
Matthew F. Leonetti
Scenografia:
Herman Zimmerman
Costumi:
Sanja Milkovic
Musica:
Jerry Goldsmith
Montaggio:
Peter E. Berger
Trucco:
Michael Westmore
Prodotto da:
Rick Berman
(USA, 1999)
Durata:
103'
Distribuzione cinematografica:
UIP
PERSONAGGI E INTERPRETI
Jean Luc Picard: Patrick Stewart
Data: Brent Spiner
Riker: Jonathan Frakes
Geordi: Levar Burton
Worf: Michael Dorn
Beverly: Gates McFadden
Deanna Troi: Marina Sirtis
Ru'afo: F. Murray Abraham
Anij: Donna Murphy
Dougherty: Anthony Zerbe
Gallatin: Gregg Henry
Sojef: Daniel Hugh Kelly
Artim: Michael Welch
198
STAR WARS: EPISODE I THE PHANTOM MENACE
George Lucas,1999
A una prima visione lo spettatore potrebbe evidenziare negli effetti
speciali il pregio più importante del film, ma sebbene quello che si veda
in Star Wars Episode I non può paragonarsi a niente di mai visto prima,
i cinefili apprezzeranno soprattutto l'immenso talento con il quale il
regista miscela tutti gli elementi convenzionali del genere fantasy per
presentare una storia appassionante. Tensione, umorismo, lotte,
stupore, tutto è dosato nelle quantità giusta per accontentare tutti. I più
piccoli troveranno una fonte di divertimento nei personaggi di Anakin
Skywalker (Jack Lloyd) e Jar Jar (Ahmed Est), oltre che nello Yoda
(Frank Oz) e i due droidi R2 D2 e C3 PO. L'immaginazione di Lucas ci
fa visitare città fantastiche, inabissate sotto il mare o per aria, anfiteatri
di sabbia e interni d'altri tempi ripresi nella Reggia di Caserta.
Tra le scene più appassionanti ricordiamo un viaggio sottomarino in cui
i protagonisti debbono affrontare dei mostri, una corsa di bighe che
rimanda a quella, indimenticabile, tra Charlton Heston e Stephen Boyd
in Ben Hur e il vibrante finale, quando il montaggio parallelo ci mostra il
confronto tra due eserciti, Skywalker nell'occhio di un ciclone e un
duello con spade laser in uno spazio fantastico. John Williams
costruisce una partitura musicale strepitosa e il cast è inappuntabile,
Liam Neeson è perfetto nel ruolo del Cavaliere Jedi Qui Gon Jinn, il
giovane Obi Wan Kenobi è ben rappresentato dall'emergente Ewan
McGregor e, come protagonista giovane, risulta più convincente di Mark
Hamill.
Anakin Skywalker viaggia su un'astronave simile alla slitta del piccolo
Kane-Welles, e questo è solo uno dei richiami al cinema del passato
che Lucas ci offre in questo film. Il tema dell'infanzia perduta è infatti lo
stesso di Citizen Kane. Questo dovrebbe dimostrare come il film di
Lucas non debba essere considerato soltanto un'opera destinata
all'intrattenimento dei più piccoli. Star Wars Episode I è infatti l'opera di
un visionario che ha regalato al cinema quello che Alex Raymond ha
offerto al mondo dei fumetti tanti anni fa.
Nella storia del cinema popolare in rarissimi casi s'incontrano film che
uniscono smisurate ambizioni artistiche (alla Welles) e innovazioni del
linguaggio ad un saldissimo rapporto col pubblico. La saga di Guerre
Stellari è stato soprattutto questo.
Alla vigilia dell'ultima rivoluzione cinematografica del '900, Star Wars:
Episode I The Phantom Menace, lo spettatore prenda congedo dal
cinema propriamente detto, e si disponga alla visione dell'ultimo film
della storia del cinema.
Dal punto di vista narrativo Episode I porta alle estreme conseguenze la
fusione dei generi cinematografici: eroi senza tempo agiscono in un
intreccio iperstrutturato, abbattendo in un sol colpo gli insopportabili
199
retaggi del linguaggio cinematografico (realismo, verosimiglianza,
coerenza narrativa). Dal punto di vista produttivo, Lucas rivoluziona
l'idea stessa della realizzazione di un film: la presenza di attori in carne
ed ossa è totalmente asservita ad un disegno ben più ampio che un
banale prelievo di realtà, e coinvolge energie impensabili. Basti pensare
che le riprese con gli attori di questo supercast (Liam Neeson, Ewan
McGregor, Natalie Portman) non sono durate che due mesi, mentre
l'iter produttivo del film si è protratto per alcuni anni. La squadra che ha
lavorato a Star Wars: Episode I, composta da circa 250 persone,
disintegra l'odioso, obsoleto concetto di Autore Unico, e ci ricorda che
forse è il momento di relazionarci al cinema senza il buffo armamentario
romantico della critica europea. L'offerta simultanea di personaggi e
trame, la creazione di mondi non solo evocati ma pazientemente
costruiti, il ritmo incalzante di azione e riflessione sono alcuni degli
elementi di spicco di Episode I. L'impressione è che il cinema,
avvalendosi dei mezzi di produzione di questo tempo, utilizzi a pieno
regime quella capacità immaginifica che dovrebbe essere inscritta nel
suo statuto.
Star Wars: Episode I The Phantom Menace è stato preparato per anni
con la costruzione della Lucas Digital delle tecnologie informatiche
necessarie a rendere possibile la creazione di qualsiasi tipo di
immagine, garantendo un alto livello di controllo su problemi quali
verosimiglianza, rendering e risoluzione.
Per anni l’Industrial Light & Magic si è impegnata in un costante lavoro
di ricerca e avanzamento tecnologico nel campo della computergrafica.
Collaborando alla creazione degli effetti speciali di film come Terminator
2, Salvate il soldato Ryan, The Mask, Mars Attacks, Jumangii, e
moltissimi altri, ha accumulato l’esperienza e il background necessario
per realizzare un film come Star Wars.
Nel Novembre del 1996, poco dopo la stesura della sceneggiatura di
Star Wars, Christian Rouet, responsabile tecnico alla ILM, organizza
una serie di interventi necessari al fine di rendere più efficiente l’enorme
flusso di dati e di lavoro che per tre anni avrebbe impegnato gli artisti e i
tecnici della Lucas Digital.
Nel reparto di ricerca e sviluppo, quindici progettisti software sotto la
direzione di Rouet, hanno iniziato a rinnovare gli strumenti esistenti
nello studio e a crearne di nuovi, in modo da facilitare e velocizzare il
lavoro di modellisti, disegnatori, animatori e direttori tecnici.
Processi che erano scomodi sono diventati interattivi, animazioni che
sarebbero state noiose da realizzare, sono diventate automatiche, e
strumenti familiari sono stati rinnovati.
Il reparto di computergrafica della ILM è basato su hardware SGI e
software commerciali come RenderMan della Pixar, Softimage 3D della
Avid, Power Animator e Maya della Alias Wavefront, tutti integrati con i
software proprietari della ILM.
200
Le nuove tecnologie create appositamente per il film Star Wars,
includono un simulatore di dinamica, un gestore di coreografie, un
programma di match-move 3D e un generatore di terreno adattivo.
Molti personaggi sono stati animati con software 3D commerciali e poi
rifiniti con il software Isculpt della ILM.
Con Isculpt un modellista usa tipicamente un brush 3D di dimensioni
variabili.
Posizionando il puntatore vicino alla geometria che s’intende
modificare, il modellista può spingere, tirare, torcere e creare pieghe
senza necessariamente intervenire sui CV (vertici di controllo).Questo
permette una maggiore rapidità di esecuzione e un controllo sul
modello che si avvicina alle tecniche di scultura tradizionale.
Il fatto di non dover intervenire sui singoli vertici, caratteristici in una
patch o in una mesh, facilita in qualche modo la modellazione
all’animatore di definire con maggior libertà i tratti caratteristici e
anamorfici del modello.
Cary Philips è stato il principale responsabile della creazione del
sistema nato come Caricature, utilizzato per la prima volta per creare
l’animazione facciale e la sincronizzazione labiale del drago di
Dragonheart.
Per Star Wars era necessario rinnovare l’interfaccia sapendo che i
personaggi in CG avrebbero dovuto palare tra di loro.
Con Caricature è possibile impostare la forma di un volto, muovere i
muscoli, creare oscillazioni della pelle e vedere immediatamente i
risultati. Ha un feed-back istantaneo. Una volta creata la forma di base
di un personaggio, si passa alla creazione dello skin e dell’envelope. Lo
skin è un insieme di superfici spline (patch a quattro lati), che vengono
incollate insieme; questo processo viene anche chiamato socking.
Il team di ricerca e sviluppo ha ottimizzato il software di socking della
ILM, che risaliva ai tempi di Terminator 2, e lo ha aggiornato per gestire
personaggi 3D complessi che spesso avevano piccole aree, come gli
angoli della bocca, dov’era necessario incollare insieme diversi patch.
Se le patch non sono connesse strettamente, possono comparire delle
aperture nel rendering finale.
Per mettere in relazione lo skin con le articolazioni dello scheletro in
modo che quando lo scheletro si muove, si tira dietro lo skin dando
l’impressione che sotto ci siano dei muscoli.
Wishwa Ranjan ha riscritto il sistema originale sviluppato inizialmente
per Jurassic Park.
Il nuovo sistema crea una relazione spaziale tra skin e articolazione che
era indipendente dalle superfici soggette all’envelope.
La scena della fuga degli animali sul pianeta Naboo, nella parte iniziale
del film è stata creata utilizzando un nuovo software creato
appositamente per animare le 61 creature che corrono spaventate.
Per muovere i personaggi gli animatori hanno prima creato una libreria
di cicli di movimento, poi hanno importato in Fred la geometria per la
201
scena 3D (un semplice terreno e qualche oggetto), insieme ai
personaggi e ai cicli di camminata.
Fred ha separato la geometria e l’animazione di ciascun personaggio e
ha ridotto la risoluzione della geometria per ottenere una varietà di
rappresentazioni 3D, per guadagnare il più possibile in memoria, in
moda da velocizzare il lavoro.
Quando sono disponibili tutti gli elementi, gli animatori disegnano
percorsi sul terreno, assegnano personaggi ai percorsi e applicano cicli
di movimento ai personaggi.
Per coreografare i percorsi di più personaggi, Fred offre sia un Edit
Decision List 2d, che mostra ogni clip su una timeline, sia strumenti 3D
interattivi, che consentono agli animatori di spostare gli elementi nel
tempo e nello spazio.
Per animare un numero maggiore di personaggi, si è adottato il sistema
di particelle in Maya. Per creare i vari tipi di materiale e oggetti, dai
vestiti alle antenne dei mostri marini, il team si è servito di un software
per la simulazione ideato appositamente da John Annerson.
Il simulatore usa un modello ispirato alla fisica, con una
rappresentazione delle proprietà dell’oggetto o del materiale da
animare, considerate più importanti.
Il sistema funziona con una, due, tre dimensioni. Una delle sequenze
più coinvolgenti di Episode I è la gara di sgusci interamente realizzata
in CG.
Per riuscire a lavorare interattivamente con una geometria (il
terreno),che sfreccia a 950 km all’ora, il team di ricerca e sviluppo ha
creato un generatore di terreno adattivo in tre fasi. Nella prima fase
viene creata una specifica, usando dati che determinano quanto
dettaglio è necessario in una particolare regione e quanto deve essere
alta la risoluzione.
A quel punto viene generato il terreno usando le informazioni di una
pre-passata, come spiega Alan Trombley.
Nella fase di pre-passata, la (fase due), viene creata la geometria del
terreno a tutte le risoluzioni possibili, e ogni forma risultante o tessera,
viene confrontata con quella a risoluzione più elevata.
In memoria vengono memorizzate le informazioni sui dettagli di ogni
tessera, sulla risoluzione e sulle differenza di una certa tessera e quella
a risoluzione più alta.
“L’elemento fondamentale e che questi dati sono di piccole dimensioni
quindi possono tenere molti fotogrammi in memoria”, spiega Trombley.
Nella fase tre il software determina se una certa tessera è visibile; se è
così decide quale versione di quella tessera creare, in base alla sua
distanza dalla macchina da presa.
È un concetto simile al paging dinamico usato nei simulatori di volo,
osserva Rouet, con una differenza: “ È molto più preciso. Molti
simulatori di volo non si preoccupano che si vede un flickering del
terreno mentre si avvicina. Per noi invece sarebbe un disastro.”
202
Quindi una volta che il sistema ha deciso quale risoluzione è accettabile
crea la tessera corrispondente e anche quella con dettaglio e
risoluzione immediatamente superiore, poi interpola la geometria in
modo che la tessera effettivamente visualizzata sia una fusione delle
due.
Per la gara degli sgusci Irender ha generato una simulazione interattiva
del terreno con ombre. Irender è stato incorporato in Viewpaint, e offre
un ambiente d’illuminazione interattivo.
Ora è possibile vedere una rapida approssimazione di mappe di
opacità, bump e displacement senza dover aspettare il rendering della
scena.
In Star Wars sono stati usati altri due sistemi proprietari, un sistema di
traking 3D che ha aiutato gli animatori a posizionare i personaggi nelle
scene dal vivo, e Comptime,
un nuovo sistema di compositing; anche se alcune scene sono state
composte con Sabre, le estensioni della ILM al software Flame e
Inferno della Discreet Logic.
Il novantacinque per cento di questo film è digitale. Gli attori in carne e
ossa interagiscono con personaggi digitali, pupazzi e persone che
indossano teste di gomma, e tutti si muovono in paesaggi e città su tre
diversi pianeti, Tatooine, Coruscant e Naboo, che sono stati realizzati
mettendo insieme pezzi di sequenze dal vivo, set in miniatura, modelli
digitali e matte painting. Le macchine sono talvolta modelli fisici, altre
volte modelli digitali, altre volte ancora dipinti di sfondo. Acqua, polvere,
fuoco e fumo possono essere elementi reali in un ambiente digitale, o
elementi digitali in un set in miniatura.
In questo episodio della leggendaria Trilogia di Guerre Stellari,
facciamo conoscenza con Anakin Skywalker, interpretato dall’attore
Jake Lioyd, il giovane figlio di uno schiavo, dotato di immensi poteri e
che diventerà il temuto Darth Fener degli episodi successivi. Anakin
vive su Tatooine, un pianeta desertico popolato da giocatori d’azzardo e
fuorilegge, dove ricchi malviventi schiavisti fanno soldi commerciando
sul mercato nero. Tutto questo è illegale nella Repubblica Galattica, ma
i criminali incontrano una scarsa opposizione in questo territorio
periferico colonizzato di recente. Il centro della Repubblica Galattica è
Coruscant, un pianeta coperto quasi interamente da grattacieli e
spazioporti. È la sede del governo galattico, il centro di potere.
La capitale di Coruscant, Imperial City, ospita il tempio Jedi, dove il
Consiglio sorveglia le fluttuazioni della forza, testa le reclute e controlla i
cavalieri Jedi inviati nelle parti più remote della galassia. All’inizio del
film, due di questi guardiani della pace della giustizia, Obi-Wan Kenobi
(Ewan McGregor), un giovane e determinato Cavaliere Jedi, e Qui-Gon
Jinn (Liam Neeson), il suo venerabile maestro Jedi, sono arrivati in uno
spazioporto nell’orbita di Naboo per negoziare un accordo con la
Federazione dei Mercanti, che sta minacciando d’isolare e invadere il
pianeta.
203
Nulla può ormai impedire l’invasione e la Regina, i due cavalieri e
l’intera corte sono costretti a rifugiarsi sul pianeta desertico di Tatooine.
Qui incontrano Anakin Skywalker e grazie al suo aiuto riescono a
sfuggire alle forze del male, pilotate dal pericoloso Darth Sidious e dal
suo adepto, il terribile Darth Maul.
Anakin, il piccolo schiavo, conquista la libertà in seguito ad una vittoria
conseguita in una gara di velocità, affettuoso omaggio alla celeberrima
corsa sulle bighe di Ben Hur.
Il piccolo Jedi abbandona Tatooine e insieme ai suoi amici, il maestro
Qui-Gon Jinn, Obi-Wan l’allievo e la regina Amidale, si reca al tempio
Jedi.
Qui-Gon Jinn vorrebbe addestrare alla Forza Ankin ma il saggio Yoda è
contrario: percepisce nel piccolo un aspetto oscuro pericoloso,
destinato ad avere conseguenze nefaste su tutto l’Impero…
204
Ambientazione e personaggi digitali
Naboo, il pianeta giardino, è costituito da rocce di migliaia di chilometri
di diametro, circondate da caverne. Laghi paludosi, mari aperti e masse
terrestri ricche di vegetazione ricoprono la superficie.
Naboo è caratterizzato da due culture distinte molto avanzate.
La maggior parte degli abitanti di Naboo vive nella bella capitale,
Theed, e sono governati direttamente dalla regina Amidale, interpretata
dall’attrice Natalie Portman (negli episodi successivi sposerà Anakin e
darà alla luce due bambini Luke e Leia Skywalker).
I Gungan, una razza anfibia che vive in città sottomarine composte da
enormi bolle collegate da una rete di passaggi, sono governati da Boss
Nass.
L’intera razza dei Gungan è stata creata dalla ILM con strumenti di
computergrafica e lo stesso vale per molti animali del pianeta.
Quando i negoziati di Qui-Gon e Obi-Wan nello spazioporto falliscono,
atterrano su Naboo per avvertire la regina Amidale.
Il loro atterraggio scatena la fuga di animali in CG. Nella sequenza più
lunga della fuga, 61 di questi strani animali, (di sei specie diverse),
emergono da una palude correndo all’impazzata.
Ogni creatura ha la pelle che sobbalza mentre l’animale corre o poggia
le zampe sul terreno, e ognuno ha le sue espressioni facciali.
La fuga è costituita solo da un paio di scene ma è importante perché
avviene quando s’incontrano per la prima volta Qui-Gon e Jar Jar.
Più che un incontro si tratta letteralmente di uno scontro. Jar Jar Binks,
come tutti i Gurgan, è un personaggio con arti flessibili generato al
computer, che assomigli un po’ ad una lucertola con il becco d’anatra,
gli occhi in cima alla testa e orecchie che penzolano fino alla vita.
Da quel momento in poi Jar Jar viaggia insieme a Gui-Gon e Obi-Wan,
diventando un compagno volenteroso ma anche maldestro che
rappresenta l’elemento comico del film i cui errori si riveleranno spesso
utili ai protagonisti.
Oltre a Jar Jar ci sono altri tre personaggi principali in CG, Sebulba, un
pilota di podracer su Tatooine, Watto, rigattiere di Tatooine, e Boss
Nass, il re dei Gungan su Naboo.
Il processo di modellazione è iniziato nel 1996 con il personaggio di Jar
Jar Binks, Geoff Campbell, supervisore di modelli digitali ha continuato
a lavorare sul modello che è diventato la base per l’intera specie
Gungan.
Applin, si è dedicato a Watto il rigattiere con un naso di elefante e ali da
colibrì, e Paul Giacoppo si è occupato di Sebulba, il perfido pilota di
sgusci.
Come aiuto per l’animazione di Jar Jar, il team ha potuto fare
riferimento alle riprese video sul set di Ahmed Best, che ha dato voce al
personaggio.
205
”Abbiamo potuto abbozzare l’animazione con Amhed nella scena e poi
abbiamo lavorato su una scena pulita”.
Per animare le lunghe orecchie flessibili di Jar Jar, il gruppo di ricerca e
sviluppo ha realizzato un algoritmo di animazione automatica, evitando
quindi agli animatori la fatica di farlo a mano. In modo simile per gli
strati più interni del costume di Jar Jar, il supervisore della CG Doug
Smythe ha scritto un programma che genera automaticamente
displacement map per creare pieghe mentre Jar Jar si muove.
Un programma di simulazione creato dal reparto di ricerca e sviluppo fa
muovere gli strati più esterni dei vestiti.
Tutti i personaggi del film indossano vestiti: Watto e Sebulba hanno
vestiti di pelle, Boss Nass e Yoda indossano una toga, e i Gungan
hanno vari costumi a seconda che siano soldati, cavalieri, civili o
personaggi principali.
La simulazione è stata usata anche per il costume del re dei Gungan,
Boss Nass che è costituito da una lunga veste flessibile.
Per creare la recitazione del simpatico re, il team si è ispirato alla
gestualità dell’attore Brian Blessed. “Il modo in cui agita le dita è preso
da Blessed”, dice l’animatore Hal Hickel. “Ci sono alcuni movimenti
della mascella che vengono direttamente da Brian.
Si riesce ad essere più fedeli al personaggio se si può usare la faccia
che produce il suono.”
Anche se Boss Nass ha un aspetto molto diverso da Jar Jar, è
comunque un Gungan quindi il suo modello è derivato da quello di Jar
Jar.
Complessivamente Cambell ha supervisionato il lavoro di una
quindicina di animatori che hanno creato più di duecento modelli tra
guardie, civili, mercenari e inoltre tutte le librerie di espressioni facciali e
le librerie di forme con il software proprietario Caricature e I Sculpt.
Uno dei personaggi più strani e Watto, un rigattiere di Tatooine che
possiede come schiava la madre di Anakin, Shmi (l’attrice Pernilla
August).
Incontriamo Watto e Anakin dopo l’atterraggio di fortuna di Qui-Gon,
Obi-Wan e Jar Jar su Naboo con un astronave danneggiata.
La ricerca di pezzi di ricambio su Tatooine li portano a Watto.
Con ali simili a quelle di colibrì, uno stomaco gigantesco e una corta
proboscide sul muso, Watto ha presentato due grandi difficoltà per gli
animatori: farlo volare e farlo parlare. “Sembrano due cose che non
vanno d’accordo nel mondo reale”, commenta Tim Harrington, un
animatore che ha lavorato sia su Watto sia su Boss Nass.
Le ali di Watto infatti sono ridicolmente piccole per le dimensioni del suo
corpo. La bocca invece era composta da parti rigide che mal si
adattavano alle espressioni facciali necessarie per il parlato.
Per aggirare il problema della sincronizzazione labiale, gli artisti della
ILM hanno deciso di fargli usare la parte sinistra della bocca.
206
Gli animatori hanno usato le spalle per motivare i suoi movimenti,
inclinando di conseguenza le ali.
Quando Watto si solleva da terra i suoi piedi penzolano sotto il suo
corpo. Le ali sono state animate usando cicli.
Il quarto protagonista digitale, Sebulba ha quasi le dimensioni di Draco,
(il gigantesco drago del film Dragonheart), è stata creata la sua struttura
di base con Power Animation e poi i volumi sono stati modificati con I
Sculpt, per allungare le braccia e ingrandire la testa, infine manipolando
i CV in Softimage 3D, si è potuto raffinare il modello.
Sebulba è un esperto pilota di podracer su Tatooine. I podracer sono
macchine da corsa complesse, costituite da due motori a reazione e da
una cabina di pilotaggio connessa mediante cavi, che sfrecciano a 950
chilometri all’ora tenendosi a un metro d’altezza dal terreno.
Quando sono fermi sono modelli fisici, in gara sono in CG. Sebulba ha
la caratteristica di camminare sugli avambracci e usa le zampe come
mani, ma quando è nel veicolo da corsa, il fatto di avere un paio di mani
in più lo aiuto a far brutti scherzi ai suoi concorrenti.
Per animare la sua faccia durante la gara, creando l’illusione di una
forte velocità, il team di animazione di Sebulba ha usato Caricature per
muovere baffi e occhiali come se fossero spinti dal vento.
I veicoli per la corsa degli sgusci sono stati modellati con Studio della
Alias Wavefront.
La realizzazione di modelli a superficie rigida (astronavi, droidi,
podracer) è risultata particolarmente difficile essendo l’ILM specializzata
nella modellazione di creature.
Per questo film hanno inventato nuove tecniche di costruzione che
consentono ai modellisti di mischiare e accoppiare forme, poligoni e
spline.
La gara ha luogo in un gigantesco stadio, che è in effetti un set in
miniatura riempito dai direttori tecnici con persone digitali.
Alcune di queste persone sono state riprese in video digitale, poi
clonate e trasformate in 150 mila sprite per occupare gli spalti; invece,
le 4-5 mila persone digitali che si aggirano di fronte agli spalti sono
state modellate e poi animate in modo procedurale usando un plug-in
proprietario scritto da Hiromi Ono, che funziona all’interno di Maya della
Alias/Wavefront. “Queste persone digitali hanno libertà di arbitrio”, dice
Habib Zargarpour, supervisore della CG. “Si evitano l’uno con l’altro, si
muovono in direzioni diverse; possono anche decidere di correre al
bagno”.
Per creare l’ambiente della gara, i direttori tecnici hanno usato matte
painting digitale, modelli in CG e numerose texture map.
Per gestire le spettacolari esplosioni dei podracer, causate
dall’imperizia dei piloti o dalle scorrettezze di Sebulba, la ILM ha scelto
di ricorrere a un simulatore di fisica. Dopo aver definito i percorsi dei
podracer, i dati sono stati passati al simulatore realizzato da Zargarpour
e Chris Mitchell. “Lucas voleva che i crash assomigliassero a quelli
207
delle macchine da corsa, quindi abbiamo fatto riferimento a filmati di
corse di Formula 1 e NASCAR”, riporta Zargarpour.
Gli effetti di disintegrazione del podracer sono stati ottenuti disegnando
le linee di rottura del metallo direttamente sulla superficie dei modelli 3D
esistenti, usando Maya.
Il plug-in Break-off, scritto sempre da Zargarpour insieme a Hiromi Ono,
ha permesso la simulazione del movimento di pezzi di geometria alla
stessa velocità di un simulatore di particelle.
Il Motion Capture
Per animare più facilmente i personaggi digitali nello spazio 3D si
ricorre sovente alla tecnica del motion capture.
Nello studio di Motion capture, l’ILM ha installato un sistema Vicon8 e
20 telecamere.
Allo scopo di catturare e registrare i movimenti degli attori, o marionette
mosse da fili, si applicano dei marker ottici nei punti delle giunture e in
tutti gli altri punti che contribuiscono a descrivere un particolare
movimento. I movimenti vengono catturati dal software Vicon e trasferiti
nel software di editing dei movimenti Mojo, proprietario della ILM, dove
vengono convertiti in una forma gestibile agli animatori.
Nella scena di combattimento mentre i caccia stellari Naboo e la nave
da guerra della Federazione combattono in orbita intorno al pianeta, a
terra si svolge una gigantesca battaglia tra migliaia di soldati Gungan e
droidi da combattimento.
Per animare i soldati Gungan, Jeff Light, supervisore del motion controll
si è applicato i marker ottici ed è diventato un soldato Gungan. Jones
Tooley, supervisore dell’animazione, è diventato un droide da
combattimento.
I movimenti catturati sono stati ripuliti, memorizzati in forma di cicli e
usati per animare migliaia di personaggi.
Per il rendering l’ILM ha dedicato a questo film da otto a dieci Origin
2000 a 32 processori, ognuno con 8 o 12 GB di memoria, dieci
macchine Power Challenge Rio K a sedici processori e quattro
Challenge a 265 Mhz; tutte le macchine sono della SGI.
“E poi durante la notte si aggiungevano di fatto altre 200 macchine. I
giornalieri venivano visionati da Lucas su un proiettore DLP Digital
Projection con il nastro Digital Betacam.
Complessivamente sono stati ripresi circa 400 chilometri di pellicola,
per un totale di 240 ore di materiale.
L’utilizzo di obbiettivi anamorfici ha costretto gli artisti della ILM ad
applicare un algoritmo di deformazione a tutti gli elementi in CG.
Questo algoritmo non ha dovuto tener conto solo delle deformazioni
geometriche dovute al particolare formato di ripresa, ma anche delle
aberrazioni cromatiche legate al tipo di obbiettivi, evidenti in modo
particolare ai bordi del fotogramma.
208
Star Wars infatti è stato fotografato in un formato widescreen
anamorfico a 35mm.
Le lenti anamorfiche sulla machina da presa “schiacciano” l’immagine
widescreen su una normale pellicola, e poi gli obbiettivi del proiettore
della sala cinematografica riportano le immagini di rapporto originale.
Nel processo di telecine l’immagine è stata parzialmente “allargata” e
trasferita in formato wide anamorfico 16:9 il cui rapporto è leggermente
minore del 2:1 della pellicola.
Quando il materiale veniva riprodotto nelle sale di montaggio sul
monitor 16:9, il monitor completava il processo di allargamento in modo
da visualizzare il corretto aspect ratio di 2.40:1, con piccole bande in
alto e in basso sul tubo catodico da 1,78:1.
Se l’immagine veniva visualizzata su un normale televisore 4:3, come
tipicamente succedeva nelle sale di missaggio audio, l’immagine
appariva compressa.
Se le immagini di Star Wars sono fenomenali non poteva essere da
meno il suono che le accompagna.
George Lucas non contento delle attuali tecnologie surrounId, in qualità
di capo della THX Division, (la società che certifica la qualità audio di
sale cinematografiche e produzioni video) ha sfidato le società
responsabili dei tre formati di suono digitale, Dolby, DTS, e SDDS, a
trovare qualcosa di nuovo.
La soluzione è una terza traccia surround posizionata al centro tra i due
canali posteriori. Questa traccia viene codificata un attimo prima della
creazione del master, e viene decodificata solo nelle sale che
dispongono del relativo decodificatore, senza impattare sul formato di
registrazione delle tracce già esistenti.
In pratica se la sala non è attrezzata, questa traccia verrà smistata in
parti uguali sui due canali posteriori. Se invece la sala dispone
dell’apposito sistema di decodifica e del relativo impianto, è possibile
ascoltare suoni posizionati esattamente dietro e al centro rispetto al
pubblico, distinguendoli da quelli provenienti da dietro a sinistra e da
dietro a destra.
Citare tutti i tecnici, gli artisti, gli animatori, i modellisti e tutti coloro che
hanno contribuito alla realizzazione del film sarebbe impossibile.
Complessivamente 15 animatori hanno lavorato su Jar Jar, da 5 a 10
sui droidi, 7 su Watto, da 4 a 5 su Boss Nass, da 2 a 3 su Sebulba.
Geoff Campbell supervisore dei modelli Gungan ha controllato il lavoro
di 18 modellisti che hanno creato più di 200 modelli, librerie di
espressioni facciali e sincronizzazioni labiali per i personaggi parlanti
principali.
Habib Zargapour supervisore della CG insieme a Kevin Rafferty, hanno
coordinato il lavoro della gara dei podracer, il compositing è stato
supervisionato da Tim Alexander.
Peter Daulton supervisore della modellazione e animazione delle 160
scene dei podracer. James Toole, supervisore all’animazione dei droidi
209
e Christophe Hery supervisore della CG, che ha organizzato le librerie
di 143 cicli di movimento per tipi di creatura.
Ebbene, dopo quattro anni di lavoro, le scene di Star Wars:Episode I
sembrano proprio indicare che l’Industrial Light & Magic è riuscita a
dare un nuovo volto al cinema
210
Sceneggiatura e Regia:
George Lucas
Fotografia:
David Tattersal
Scenografia:
Phil Harvey (II), Fred Hole, John King (V), Rod McLean, Ben Scott (II)
Costumi:
Trisha Biggar
Musica:
John Williams
Montaggio:
Ben Burtt, Paul Martin Smith
Effetti visivi:
Industrial Light and Magic
Prodotto da:
George Lucas, Rick McCallum
(USA, 1999)
Durata:
131'
Distribuzione cinematografica:
20Th Century Fox
PERSONAGGI E INTERPRETI
Qui-Gon Jinn: Liam Neeson
Obi-Wan Kenobi: Ewan McGregor
Queen Amidala: Natalie Portman
Anakin Skywalker: Jake Lloyd (I)
Shmi Skywalker: Pernilla August
Yoda: Frank Oz
Senator Palpatine: Ian McDiarmid
Sio Bibble: Oliver Ford Davies
Captain Panaka: Hugh Quarshie
Jar Jar Binks: Ahmed Best
Mace Windu: Samuel L. Jackson
Darth Maul: Ray Park
Darth Maul: Peter Serafinowicz
Ric Olié: Ralph Brown (I)
Chancellor Vallorum: Terence Stamp
211
MISSION TO MARS
Brian De Palma, 2000
Diretto da Brian De Palma, regista di film di successo come il recente
Mission Impossible, Mission to Mars è un’avventura di fantascienza
ambientata in un futuro non troppo distante, che offre agli appassionati
di effetti visuali fantastiche tempeste su Marte create con simulatori di
fluidodinamica e sistemi di particelle, numerose scene con astronauti
apparentemente senza peso, e alcune interessanti proiezioni
olografiche create con computergrafica 3D.
Il contributo della NASA
La NASA ha stipulato con la produzione di Mission To Mars un
contratto per partecipare al film. Per più di un anno la produzione ha
lavorato quindi in stretta collaborazione con la NASA, affidandosi alla
preziosissima consulenza dei suoi esperti, garantendo con gli autori e
gli interpreti la ricercata autenticità.
I consulenti tecnici del film sono Story Musgrave, ex astronauta della
NASA che detiene il record di maggiore anzianità di servizio e di
maggior numero di ore di passeggiate spaziali, e Joe Allen, già
consulente tecnico di Armageddon - Giudizio finale. Il loro lavoro ha
avuto inizio durante la fase di preparazione del film, con la rilettura della
sceneggiatura, poi Musgrave ed Allen si sono incontrati con il cast degli
interpreti prima dell'inizio delle riprese, per parlare della loro personale
esperienza nello spazio.
La partecipazione della NASA ha dato un importante contributo in
termini di disponibilità degli scienziati e di visite a Houston e in Florida
per conoscere cosa si progetta e cosa sia già realtà.
In Mission To Mars la navetta viene lanciata dalla World Space Station,
disegnata sul modello della vera stazione spaziale attualmente in
progettazione alla NASA, con l'aggiunta di un elemento circolare
roteante nello spazio che ospita la missione di controllo.
La stazione spaziale internazionale, il progetto più ambizioso mai
tentato dalla NASA, coinvolge sedici paesi, sarà poco più grande di un
campo di football e orbiterà intorno alla Terra a una distanza di circa
380.000 chilometri.
Capo tecnico della missione Pathfinder, atterrata su Marte il 4 luglio
1997, Matt Golombek lavora al JPL (Jet Propulsion Laboratory) di
Pasadena, il centro della NASA addetto al volo spaziale senza
equipaggio, a cui fanno capo tutte le sonde che attualmente esplorano il
nostro sistema solare.
Golombek ha fornito la sua consulenza sulla sceneggiatura e in fase di
post produzione ha lavorato con il reparto degli effetti visivi per
garantire che l'immagine di Marte fosse realistica.
212
Il suo contributo è stato fondamentale quando si è dovuto stabilire che
aspetto avesse il cielo di Marte. “Una sorta di giallo-bruno, non proprio
rosso ma molto vicino al rosso,” descrive Golombek. “Siamo quasi certi
che questo colore sia dovuto a una polvere di grana finissima che si
solleva durante le tempeste. Ma deve anche esserci qualche altra
spiegazione. Sono stati osservati piccoli cicloni che sollevano il
pulviscolo fin su nell'atmosfera. E' una polvere talmente leggera che
impiega moltissimo tempo a ricadere, e anche se l'atmosfera è molto
rarefatta, è sufficientemente densa da tenerla sospesa e così ha
sempre questo aspetto rossastro.
Infatti, il sessanta per cento della luce che illumina il pianeta è filtrata
dalle particelle di polvere sospese nell'atmosfera. Di conseguenza, ogni
cosa che non sia illuminata direttamente, ogni ombra, ogni zona in
ombra, appare rossastra. E' molto diverso dalla Terra. Qui, anche se ci
mettiamo all'ombra, possiamo sempre dire che indossiamo una camicia
blu. Su Marte apparirebbe rossa.”
Fra i set più imponenti che siano mai stati costruiti per un film, la
superficie di Marte è stata realizzata alle dune sabbiose di Fraser, poco
a sud di Vancouver. I cinquantacinque acri di terreno sono stati
modellati sulla sabbia delle dune e poi coperti per migliaia di metri
quadrati di 'shotcrete', un particolare tipo di calcestruzzo da
nebulizzare. Per colorare il terreno ci si è serviti di manichette
antincendio, che hanno spruzzato più di 350 litri al minuto di vernice di
latex atossica rosso Marte, per un totale di 454.200 litri.
Per il produttore esecutivo Sam Mercer la sfida maggiore era
rappresentata dal set degli esterni di Marte: “Che aspetto avrebbe
dovuto avere Marte, come avremmo riprodotto quel suo cielo
vagamente somigliante ai tramonti inquinati di Los Angeles? E dove
avremmo trovato lo spazio sufficiente ad effettuare le riprese?”
Dopo aver valutato tutte le possibilità, inclusa quella, improbabile, di
trovare un set insonorizzato di dimensioni tali da soddisfare le esigenze
della produzione, la scelta è caduta sulle dune sabbiose di Fraser. “Su
Marte gli spazi sembrano senza fine,” fa notare Mercer. “La Valle
Marineris è lunga quanto tutti gli Stati Uniti. Ma le dune erano quattro
volte più estese delle altre location che stavamo considerando, e il lato
che dà sul fiume, privo di alberi, è diventato il nostro orizzonte infinito.”
“Era come giocare in un enorme recinto di sabbia,” dice Verreaux,
“abbiamo portato delle enormi ruspe e abbiamo creato il nostro
ambiente.” Così è nata la superficie di Marte.
“Eravamo tutti d'accordo sul fatto che Marte dovesse avere un aspetto
verosimile,” aggiunge il direttore della fotografia Stephen Burum, che
insieme a Verreaux ha lavorato alla mappatura del pianeta. Con l'aiuto
di un software che traccia un grafico del tragitto del sole in base a una
data e un luogo”, spiega Burum. “Ed è riuscito a orientare le colline in
modo da avere sempre la luce migliore. Così siamo riusciti a rendere
meglio il senso di vastità degli spazi e abbiamo potuto utilizzare l'intero
213
giorno di ripresa, avendo sempre qualche punto ben illuminato. E' stato
utilissimo avere i bulldozer, che hanno rimodellato il territorio
esattamente come serviva a noi in base al grafico del percorso del
sole.”
Per essere certi che il paesaggio e le condizioni ambientali di Marte
descritti nel film non discordassero dai dati attualmente in possesso
della scienza, gli autori si sono rivolti agli esperti della NASA. Su Marte
le tempeste di polvere possono durare fino a sei mesi.
Per ricreare una di queste tempeste marziane, Elmendorf e il suo team
di tecnici degli effetti speciali hanno realizzato alcuni generatori di vento
che soffiavano sulle dune una polvere di silice rosa.
Gli oltre quattrocento effetti visivi del film hanno richiesto l'esperienza di
due studi specializzati in questo: la Dream Quest Images e l'Industrial
Light and Magic.
Contributi digitali
Due studi californiani la The Secret Lab (TSL, ex Dream Quest
Images), che ora ha sede a Burbank, e la Industrial Light & Magic, con
sede a San Rafael, hanno creato la maggior parte degli effetti visuali,
con qualche contributo da parte della Tippett Studios di Berkeley.
I primi cinque minuti del film sono ambientati sulla Terra.
Dopodiché, tutto avviene su astronavi, nello spazio e sulla superficie di
Marte. Prima che i team degli effetti cominciassero a creare questi
ambienti artificiali, Yeatman ha creato animatic in CG o storyboard 3D
usando il software Maya della Alias/Wavefront.
L’esplosione particellare, il campo stellare,i pianeti orbitanti e la sala
olografica sono tutti effetti visuali creati dalla ILM.
“Abbiamo costruito intere sequenze 3D in Maya che sono state montate
dal montatore del film, Paul Hirsh”, spiega Yeatman.
Gli animatic 3D hanno anche offerto i dati per costruire le scenografie e
posizionare le apparecchiature.
Una volta realizzati gli elementi fisici, sono stati effettuati dei rilievi, e i
dati così ottenuti sono stati riportati in Maya per ritoccare gli elementi
3D e creare scenografie virtuali accurate.
Alcune di queste scenografie virtuali hanno incluso modelli esatti dei
giganteschi sistemi di motion control delle macchine da presa e delle
imbracature per gli attori “senza peso”, oltre a repliche virtuali di
miniature e scenografie dal vivo.
“Brian De Palma usa quelle che personalmente chiamo “zoomate
cosmiche”, cioè grandi movimenti di macchina continui e inusuali”, dice
Yeatman. “Siamo riusciti a disegnarle nell’ambiente virtuale e a usare i
dati per controllare le macchine da presa in motion control”.
Questo metodo ha ridotto la necessità di noiosi e lunghi motion
tracking.
214
“Gli elementi ripresi dal vivo e quelli in CG si sono agganciati con
precisione”, afferma Darin Hollings, supervisore degli effetti digitali alla
TSL.
L’elemento in CG più difficile per la TSL, secondo Hollings, è stato il
'vortice'.
Inquadriamo la scena: durante la prima missione con uomini su Marte,
un mezzo d’esplorazione telecomandato scorge una formazione in cima
a una montagna che potrebbe essere di acqua ghiacciata. Andati a
verificare di persona, gli astronauti usano il radar per determinare la
composizione della montagna.
Quest’azione attiva inavvertitamente un vortice che spazza via dalla
'montagna' rocce e detriti, rivelando una gigantesca struttura a forma di
volto.
La tempesta di sabbia risultante si trasforma in un tornado invertito, il
vortice. Un astronauta viene risucchiato dal vortice e sparisce. Un altro
cade sul terreno, colpito da una roccia.
Un terzo viene inseguito dal vortice e aspirato all’interno, dove esplode
per la tremenda forza centrifuga.
Tempesta di sabbia rossa
Per creare il vortice, la TSL ha usato un simulatore proprietario di
fluidodinamica che può renderizzare centinaia di milioni di particelle.
Chiamato Hookah, il software è stato originariamente sviluppato per il
film Armageddon per creare nubi gassose.
Per Mission to Mars, il simulatore è stato modificato per ottenere un
vortice più 'polverizzato' e per offrire al regista il controllo del
movimento. Per aiutare a canalizzare la simulazione del vortice, il team
degli effetti ha creato in Maya una serie di cilindri annidati.
Le forze dinamiche nei cilindri esterni tentano di spingere le particelle
verso l’interno, e le forze nei cilindri interni tentano di spingere le
particelle verso l’esterno.
Gli animatori hanno usato cinematica inversa e animazione in keyframe
per posizionare i cilindri e di conseguenza il vortice nel tempo.
Per inserire rocce e astronauti rotanti all’interno del gigantesco vortice,
il team degli effetti ha usato informazioni tratte dalla scenografia virtuale
per creare mappe di profondità Z di questi elementi.
Le mappe sono state usate come maschere per creare buchi nel vortice
renderizzato, dove i compositor hanno successivamente inserito gli
elementi a varie profondità.
Per creare l’illusione di una maggiore profondità, sono state
renderizzate particelle di polvere con vari livelli di opacità determinati
dalla loro distanza dalla telecamera.
Per creare e renderizzare il vortice, la TSL ha usato sei Origin della SGI
con 16 processori e 16-24 GB di RAM.
215
Il film comprende 36 scene del vortice con lunghezze variabili tra 100 e
600 fotogrammi; un errore in un fotogramma significava rifare l’intera
simulazione.
“Alcune scene hanno richiesto settimane”, dice Hollings, ricordandone
una che è risultata particolarmente difficile, una scena da 450 frame
durante la quale la telecamera (virtuale) si muove attraverso strati di
particelle per rivelare il volto di un astronauta mentre viene spazzato
via.
Per recuperare eventuali sopravvissuti della prima missione, viene
inviata su Marte una missione di soccorso.
Il racconto di questa seconda missione occupa il resto del film, che
include scene create dalla ILM con astronauti all’esterno dell’astronave,
all’interno del “Volto” e in partenza da Marte.
“Originariamente, ci erano state affidate 30-40 scene all’interno del
Volto, ma quella sequenza è diventata sempre più lunga e il nostro
lavoro si è espanso a circa 300-400 scene”, racconta John Knoll,
supervisore degli effetti visuali alla ILM.
“Ci hanno dato le sequenze montate a novembre dell’anno scorso, e
abbiamo terminato le scene verso la metà di febbraio di quest’anno. Il
numero di scene per settimana è stato più alto che in Star Wars”.
Poco prima di arrivare su Marte, dei micrometeoriti investono
l’astronave di salvataggio causando l’esplosione del motore.
Gli astronauti sono costretti ad abbandonare la nave. Fortunatamente,
un modulo di appoggio si trova nelle vicinanze.
Un astronauta si lancia verso il modulo tenendo in mano un cavo.
Riesce ad agganciare il cavo, ma arriva troppo velocemente e sorpassa
il modulo.
Gli altri astronauti possono comunque seguire il cavo per arrivare sul
modulo. Questa scena è stata ripresa con gli attori in tute d’astronauta
davanti a un bluescreen o uno sfondo nero.
Tutto il resto è in CG: la maestosa superficie di Marte sottostante, i cavi,
le stelle e (a eccezione dei primissimi piani) il modulo di appoggio.
“Gli attori indossavano imbracature per rimanere sospesi, ma i
movimenti erano così limitati, che potevano salire semplicemente su
cassette della frutta”, afferma Pat Myers, supervisore della CG
Per dare la sensazione della mancanza di peso, il team degli effetti ha
creato una simulazione 3D in Maya che mostrava le relazioni spaziali
tra gli astronauti che si muovevano in gravità zero.
Poi, usando il sistema Sabre della ILM, un software di compositing
basato su Flame della Discreet hanno creato trasformazioni 2D che
hanno mosso di conseguenza gli astronauti filmati.
Le simulazioni hanno anche aiutato il team a posizionare i cavi in CG e
a inserire particelle per i razzi e i propulsori di manovra. Per la
superficie di Marte, hanno usato immagini reali in alta risoluzione del
pianeta.
216
Hanno anche aggiunto polvere in CG e altre texture di superficie al
modello fisico dell’astronave usata nei primi piani.
“Era così pulito, che sapevamo che il pubblico avrebbe pensato che
fosse un modello in CG”, dice ridendo George Murphy, cosupervisore
degli effetti visuali alla ILM.
Quando gli astronauti atterrano su Marte, trovano l’unico sopravvissuto
della prima missione, con l’aiuto del quale scoprono come entrare
all’interno del Volto.
Una volta all’interno, si ritrovano inseriti in una visualizzazione
olografica che rivela l’origine della vita sulla Terra.
Tutto all’interno del Volto a parte gli astronauti è un elemento in CG
creato dalla ILM.
“Abbiamo usato shader di RenderMan per creare campi stellari e
fotografie della NASA su sfere renderizzate per i pianeti”, spiega Myers.
Le texture per la donna marziana sono state create con un complicato
shader di RenderMan; un sistema di particelle ha trasformato Marte da
pianeta verde in quello rosso che tutti conosciamo.
I marziani siamo noi
L'escursione sulla superficie di Marte ha presentato parecchie difficoltà
per gli artisti della ILM, che dovevano ricreare un'ambientazione
verosimile ma allo stesso tempo un po' onirica in cui i protagonisti
incontrano un alieno che mostra loro l'evoluzione della Terra. Dopo
l'atterraggio su Marte, gli astronauti entrano in un planetario olografico
in cui è possibile percorrere a piedi tutto il sistema solare. La sequenza
è stata realizzata creando l'immagine digitale e tridimensionale di un
planetario e poi aggiungendo le immagini degli attori, ripresi
separatamente su un fondale neutro. Poco dopo appare sulla scena un
alieno che mostra agli astronauti l'immagine bielicoidale del DNA, che
poi comincia a trasformarsi dall'una all'altra nelle creature che
rappresentano l'evoluzione del pianeta Terra. La sequenza, un
morphing di sette diverse creature con strutture corporee differenti
(paramecio, pesce, lucertola, coccodrillo, dinosauro, mammut e buffalo)
è stata, per animatori e direttori tecnici, straordinariamente impegnativa
e ha richiesto una lavorazione di cinque mesi.
Christophe Hery, supervisore della CG, spiega che prima hanno creato
i modelli per le sette creature, ognuna con le proprie texture, shader ed
envelope.
A partire da questi, gli animatori hanno potuto creare morphing 3D
raffinati mentre le creature camminano.
“In un certo fotogramma, potreste vedere una creatura ibrida con arti
che sono per l’80% di bufalo, per il 10% di mammut e per il10% di
coccodrillo”, afferma Hery.
“Ogni CV (Control Vertice) su una creatura può ricevere un valore di
morphing diverso”.
217
L’intera sequenza include centinaia di elementi in CG in aggiunta alle
creature in evoluzione: polvere, torce accese, raggi di luce e particelle
nell’acqua, e un terreno complesso con erba animata.
Oltre al software di morphing, il team di Hery ha lavorato con due altri
software nuovi.
Un programma è stato utilizzato per spezzare un modello patch in
frammenti con texture. Il secondo è un nuovo motore di simulazione
progettato da John Anderson per creare un vortice con milioni di
particelle che evocasse quello della TSL.
Diversamente da quest’ultimo, il vortice creato dalla ILM doveva essere
infuocato invece che sabbioso.
“Abbiamo iniziato con un renderer di volume, ma non c’era tempo”,
racconta Hery. “Abbiamo quindi deciso di renderizzare molte passate di
particelle”.
Essenzialmente, i compositor hanno messo insieme i layer delle
passate di particelle usando le particelle grandi come fluidi gassosi
intorno alle particelle più piccole.
“Abbiamo dovuto inventare nuove tecniche, e avevamo una grande
mole di lavoro da fare con alcune scadenze impegnative, ma non è
stato impossibile”, dice Knoll. “Star Wars è stato un ottimo banco di
prova”.
218
Regia:
Brian De Palma
Sceneggiatura:
Jim Thomas, John Thomas, Graham Yost
Fotografia:
Stephen Burum
Scenografia
Ed Verreaux
Costumi:
Sanja Milkovic Hays
Musica:
Ennio Morricone
Montaggio:
Paul Hirsch
Prodotto da:
Tom Jacobson
(USA, 2000)
Durata:
112'
Distribuzione cinematografica:
Buena Vista
PERSONAGGI E INTERPRETI
Woody Blake: Tim Robbins
Jim McConnell: Gary Sinise
Terri Fisher: Connie Nielsen
Luke Graham: Don Cheadle
Phil Ohlmyer: Jerry O'Connell
Ramier Beck: Armin Mueller-Stahl
219
PARTE 3: CARTOONS
220
L’ANIMAZIONE 2D
L’animazione, intesa nel senso più comprensivo del termine,
rappresenta un mezzo fondamentale, forse unico, per rappresentare i
sogni, per tramutarli, almeno per qualche decina di minuti, in qualcosa
di completamente reale e tangibile.
E’ un’officina le cui uniche limitazioni sono di natura tecnica, in grado di
condizionare le possibilità di rappresentazione (tutto ciò almeno in
teoria: bisogna infatti considerare altri parametri quali il budget
economico, le capacità artistiche ed espressive degli animatori, ecc.).
Con queste pagine mi piacerebbe percorrere a grandi linee i principali
aspetti del mondo dell'animazione.
Le Tecniche
Il contenuto fondamentale di ogni tecnica di animazione ed in
particolare modo del disegno animato, è la possibilità di trasformare un
elemento bidimensionale (quale un foglio di carta od una cel di acetato)
in un universo tridimensionale, perfettamente credibile e quindi vivibile
se in risonanza con la propria natura e sensibilità. E’ evidente che per
ottenere tutto ciò, il solo disegno (o la sola scultura in plastilina) non
basta; serve introdurre altri fattori quali il movimento, il commento
musicale, la traccia sonora e così via.
Fatte queste premesse, possiamo ora entrare definitivamente nel
mondo dell'animazione.
Disegni Animati
Questa tecnica è sicuramente la madre di tutto l’universo che stiamo,
sebbene molto superficialmente, esplorando; molta strada è stata fatta
dal prassinoscopio di Emile Reynaud; dal disegno frame by frame
(prima a 12 fotogrammi al minuto e poi a 24) in cui ogni movimento del
soggetto richiedeva la ripetizione completa di tutto il disegno, compresi i
fondali, si è passati all’uso della cel di acetato (reinventata più volte
nelle diverse regioni del mondo: un fenomeno di coevoluzione artistica
dovuto alla scarsa comunicazione in questo particolare campo
espressivo): tale cel trasparente permette infatti di sovrapporre al piano
dei fondali, che rimane così fisso per diversi fotogrammi, i soggetti in
movimento, riducendo enormemente i tempi di lavoro per unità di tempo
effettivo di animazione e permettendo una maggiore resa artistica.
I principi tecnici basilari del disegno animato sono dunque i seguenti:
Per prima cosa, la storia a cui si intende dare vita viene rappresentata
in modo molto dettagliato mediante il cosiddetto storyboard, costituito
da una serie di disegni e schizzi delle varie scene da realizzare.
221
Stabiliti tutti questi particolari, il lavoro passa nelle mani degli animatori
(dai responsabili della creazione fisica e spirituale del personaggio, agli
intercalatori dei singoli fotogrammi, fino agli artisti del clean-up,
operazione di fondamentale importanza per rendere omogenei ed
uniformi i tratti di un personaggio creato da mani diverse), ai pittori
responsabili dei fondali, ai tecnici degli effetti speciali (quali fumo,
pioggia, lampi, ombre, ecc.).
I disegni vengono prima eseguiti su carta, quindi montati in rough-reels;
ciò consente un primo esame della animazione.
Una volta approvato il tutto, i singoli fotogrammi vengono ricopiati su
cels (una volta a mano, ora con l’ausilio del computer), colorati, ordinati
in sequenza e fotografati uno dopo l’altro: ne occorrono 24 per ottenere
un secondo di animazione.
La credibilità di ciò che si vedrà sullo schermo è dovuta all’impiego della
speciale tecnica con la quale le cels vengono fotografate: si utilizza
infatti la multiplane camera (ideata da Ub Iwerks, coinventore di Mickey
Mouse e creatore di Flip the Frog), uno strumento nel quale lo sfondo
(che a sua volta può essere composto da diversi piani) e i soggetti
animati sono disposti in modo da ottenere un verosimile effetto di
profondità e di tridimensionalità.
Al film, ormai completo, vengono aggiunti gli effetti sonori (voci in, off e
over, rumori, ecc.) e la traccia musicale; per comprendere come queste
componenti siano essenziali per la perfetta riuscita dell’animazione (e,
più in generale, di qualunque film), si può condurre un piccolo
esperimento: è sufficiente guardare la sequenza prima con la traccia
sonora e subito dopo eliminandola completamente: la differenza non
può passare inosservata!
Una volta eseguito il montaggio e aggiunti i credits iniziali e finali, il
prodotto è finito e pronto per essere visto dal pubblico.
Possiamo fare anche qualche osservazione riguardo al concepimento
del layout, cioè alla fase in cui si decide come una particolare scena
deve essere rappresentata (è utile ricordare che nell’animazione nulla
esiste all’inizio: prospettive, ombre, luci colori, sono tutti fattori da
ricreare sulla carta). A mio avviso, si può distinguere uno studio
eseguito rispetto ai personaggi ed uno eseguito rispetto alla scena in
generale: i personaggi vanno visti da diverse angolazioni e prospettive
che permettano di percepire il senso di tridimensionalità; devono
interagire il più possibile con i vari piani dei fondali per dare il senso
della profondità al campo; devono inoltre seguire linee cinetiche non
troppo lineari e comunque ben integrate con le prospettive fornite dai
fondali.
In generale, il layout deve comprendere inquadrature e movimenti di
camera non piatti, riducendo al minimo i travels ed i truck in e out; in
modo particolare, tali movimenti di camera devono svilupparsi secondo
prospettive che rendano naturali sia i personaggi sia i fondali.
222
E’, a questo punto, assolutamente necessario sottolineare un elemento
essenziale dell’animazione: la vera animazione non è e non deve
essere un semplice sfoggio di perfezione tecnica; infatti, il tipo di
disegno utilizzato deve integrarsi perfettamente con ciò che si intende
raccontare.
Bisogna inoltre sempre ricordare che un personaggio, anche se
disegnato in modo eccezionale, non può vivere senza un’anima.
Per questo motivo, la caratterizzazione dei personaggi è la più
importante di tutte le fasi di produzione.
Go-Motion
Questa tecnica è una modificazione, una automazione in un certo
senso, della già descritta stop-motion. Il soggetto è sempre un pupazzo
meccanico, che in questo caso è dotato di snodi e articolazioni
controllate da microprocessori; infine tutto il sistema è in collegamento
"bitronic" (il pupazzo può cioè ricevere ed inviare informazioni di
movimento) con un computer.
Il movimento viene prima eseguito mediante la manipolazione classica
della stop-motion, cioè compiuta dell’animatore sul pupazzo: durante
questa fase, la macchina invia segnali elettrici che vengono registrati
dal computer. Al momento della ripresa, il suddetto movimento viene
eseguito riproducendo le informazioni acquisite dal computer durante la
prima fase. Esempi avanzati di questa tecnica sono riscontrabili in
Jurassic Park, dove alcuni effetti speciali, soprattutto quelli riguardanti
l’attacco del T. Rex, sono stati prodotti utilizzando pupazzi controllati da
DID (Dinosaur Input Device) e utilizzando le informazioni di movimento,
ottenute mediante manipolazione diretta, per la costruzione delle
immagini al computer.
223
Silhouettes
Questa tecnica si basa sull’impiego di figure di cartoncino nero ritagliate
e poste in modo opportuno sugli sfondi, normalmente bianchi o
comunque molto chiari; il risultato è che le figure sembrano come in
controluce, dando al prodotto finale un’atmosfera morbida e molto
particolare.
La più grande artista in questa tecnica è stata sicuramente Lotte
Reinger, autrice di un numero molto elevato di lungometraggi fra cui Die
Abenteuer des Prinzer Achmed, Carmen e L’elisir d’amore, rimarchevoli
per il senso di delicatezza, raffinatezza e fragilità delle filigrane animate
che vi recitano.
Mosaico
La tecnica del mosaico possiede molti punti in comune con quella delle
silhouettes; anche in questo caso i soggetti vengono disegnati su
cartoncino e ritagliati, ma a differenza delle filigrane delle ombre cinesi,
presentano la colorazione, spesso molto vivace.
Esempi tipici di questa tecnica sono i cortometraggi ed i mediometraggi
realizzati da Giulio Giannini e da Emanuele Luzzati (Italia, anni 1970)
come Pulcinella, La gazza ladra, Il flauto magico e L’italiana in Algeri.
Queste opere sono pervase da un’ingenuità che esercita un’azione
liberatoria sulla fantasia, grazie anche al commento sonoro fornito dalle
omonime musiche di Rossini.
Stop – Motion
Sorella minore della tecnica a Disegni Animati, la stop-motion ha
trovato forse più spazio ed impiego, in modo particolare nel cinema "dal
vero" dove è stata e viene comunemente usata nella creazione di effetti
speciali. I principi fondamentali rimangono quelli dei disegni animati: si
procede cioè a passo uno (frame by frame). In questo caso però,
l’oggetto da animare è una scultura in plastilina o un pupazzo
meccanico (come nel caso del recente The Nightmare before Christmas
del notturno e geniale Tim Burton), oggetti già dotati di una propria
tridimensionalità e consistenza. Nell’arco di ogni secondo, il
personaggio viene mosso leggermente per ben 24 volte (e come
accade frequentemente, anche in modo estremamente complesso) in
uno scenario costruito con le debite proporzioni. La stop-motion che
sfrutta le sculture di plastilina risulta chiaramente la più impegnativa,
poiché ad ogni variazione di espressione o movimento, lo scultore è
costretto ad intervenire sul modello per apportare le modifiche del caso;
con i pupazzi meccanici (ove con il termine "meccanico" intendo
indicare un’anima di metallo dotata di snodi articolari) il problema viene
224
risolto intervenendo sulle articolazioni e mettendo così "in posa" il
soggetto o sostituendo la testa per modificare l’espressione del viso.
Un impiego recente della stop-motion, insieme ad altre tecniche che
considereremo in seguito, è stato fatto anche in Jurassic Park di Steven
Spielberg: la scena che vede l’attacco dei due Raptors nella cucina del
centro turistico è stata appunto "costruita" in parte con questa tecnica
da artisti quali Phil Tippet e Randy Dutra.
Le immagini della CGI
L’impiego del computer sta prendendo fortemente piede anche nel
campo dell’animazione: il suo utilizzo permette infatti di ottenere risultati
di forte impatto emotivo in tempi inferiori a quelli normalmente richiesti
dall’animazione convenzionale.
Una prima tecnica consiste nel disegnare tutti gli stadi di animazione
del soggetto: i singoli disegni vengono poi digitalizzati mediante
scannering e fatti riprodurre dal calcolatore (il Tiger God del disneyano
Aladdin , lo spirito di Mufasa in The Lion King); mediante il calcolatore si
può anche moltiplicare all’infinito uno stesso soggetto, come nella
scena della carica degli gnu nel già citato The Lion King. Oppure, i
singoli fotogrammi possono essere realizzati interamente dal computer,
costruendo un’animazione totalmente "virtuale" (scena finale in Jurassic
Park: il T. Rex ed i Raptors sono stati tutti generati elettronicamente in
sede di post-produzione; la folla della Parigi di The Hunchback of Notre
Dame).
In ultima analisi, vista la sempre più diffusa presenza dell'elaborazione
elettronica nel campo dell'animazione, mi pare utile dare un'occhiata ai
principali livelli di impiego:
Illuminazione: le luci e le ombre di scena vengono riprodotte mediante
la colorazione elettronica (tecnica che la Disney impiega già da alcuni
anni mediante il Pixar).
In sede di layout: i movimenti di camera e le prospettive con le quali
sono visti i personaggi vengono calcolati dal computer, fornendo le
"coordinate di disegno" agli animatori (scena del ballo in Beauty and the
Beast, scena della liberazione di Esmeralda nel The Hunchback of
Notre Dame e così via).
Frame buffer: questa applicazione prevede il "riempimento" elettronico
di alcune aree di un personaggio disegnato dall’animatore con un
motivo tecnicamente impossibile da riprodurre per ogni fotogramma (a
meno che non si intenda realizzare il lungometraggio in dieci anni!). E’ il
caso del Tappeto in Aladdin, ottimo esempio di questa tecnica: il
personaggio è stato disegnato con la normale procedura (da Randy
Cartwright) e successivamente è stato introdotto il disegno della trama
del tappeto; ad ogni movimento, tale trama è stata elettronicamente
"deformata" per seguire le linee di disegno ed il profilo del personaggio.
225
Generazione di fondali: gli sfondi vengono generati elettronicamente e
su di essi vengono sovrapposti i normali disegni dei personaggi
(Tarzan, Il principe d’Egitto, la Cattedrale in alcune scene di The
Hunchback of Notre Dame).
226
CARTONI ANIMATI ELETTRONICI
I primi Topolino di Disney erano realizzati a mano, da un esercito di
persone, a volte diverse centinaia, che disegnavano i personaggi, tutti i
movimenti dei personaggi per dare l'animazione, e realizzavano
naturalmente anche gli sfondi. Un lavoro molto lungo e anche molto
prezioso che ha lasciato tutta una serie di quadri, valutati decine di
milioni, che rappresentano una forma d'arte del nostro secolo.
Molto più recente la storia della “computer animation”, quindi del
cartone animato dal computer. Bisogna tornare indietro di 15 anni e il
primo animatore si chiama John Lasseter.
John Lasseter ideò Luxo Jr, la storia di due lampade Luxo animate
digitalmente, che gli valse nel 1986 una nomination per i corti all'Oscar,
e una serie infinita di altri premi. L'amore di John Lasseter per queste
nuove tecnologie, però, era nato già da qualche anno, all'interno del
gruppo Disney, dove aveva prodotto il primo corto nel 1982. La Disney,
però, non era molto interessata a queste nuove tecnologie e lui la lasciò
per andare alla Pixar la principale azienda concorrente della Disney.
La Pixar aveva cominciato come società produttrice di effetti speciali
digitali già da qualche anno, all'interno del gruppo Lucas film, di George
Lucas.
Questa azienda era stata responsabile di alcuni effetti digitali
abbastanza noti, come quelli di Star Trek, oppure della seconda delle
trilogie di Star Wars.
La Pixar si era resa indipendente dal 1986 e aveva incontrato sulla sua
strada appunto John Lasseter. Lasseter che, però, dovette aspettare
ben 10 anni, il 1996, per approdare al suo primo lungometraggio
digitale, il famoso Toy Story.
Toy Story, che tradotto dall’inglese significa la storia dei giocattoli, fu
coprodotto dalla Disney e dalla Pixar; riscosse subito un grande
successo sia di critica sia di pubblico. La storia del parco giocattoli di
Andy, in particolare la lotta per la supremazia all'interno del gruppo di
giocattoli, tra Woody il cow boy e Bud, il protettore della galassia, è
ormai diventato un classico del cartone animato contemporaneo
realizzato con il computer.
Negli ultimi anni il software si è molto evoluto. Sono stati messi a punto
software più funzionali e veloci, creati appositamente per il cinema
d'animazione.
L’utilizzo di queste tecniche avanzate consentono di ridurre i tempi di
produzione e i costi, senza per questo sacrificare la qualità.
Ma la storia non si è fermata qui…
Da “Il principe di Egitto” della Dreamworks di Spielberg, Geffen e
Katzenberger, alla saga degli insetti di John Lasseter che firma A bug’s
life - ancora una produzione Pixar-Disney - all'altra storia concorrente
sulle formiche, della Dreamworks, Z la formica ispirata a Woody Allen e
227
da lui doppiata. Antz, che in Italia si chiamerà appunto Z la formica è il
primo spettacolare lungometraggio prodotto dalla Pacific Data Images
(PDI), società di San Francisco leader nella produzione di software per
l’animazione computerizzata, e dalla Dreamworks.
Cartoombria
Per fare il punto sui nuovi linguaggi e sulle tecniche del cinema
d'animazione prenderò in esame Cartoombria, la Mostra Internazionale
dell'Animazione, organizzata dalla Fondazione Umbria Spettacolo.
Cartoombria rappresenta un momento speciale per il cinema
d'animazione, un momento in cui ci possiamo rendere conto che le
nuove tecnologie e le immagini sintetiche in particolare, sono diventate
delle tecniche molto flessibili, mature per raccontare ed esprimere delle
storie, dare corpo alla fantasia di un autore, di un regista. Da Hollywood
sono arrivati dei lungometraggi molto interessanti, lungometraggi per
esempio come Antz, film che racconta delle storie totalmente realizzate
con immagini virtuali. Segno quindi evidente che si esce da una sorta di
attenzione alla tecnologia, in sé, per utilizzare invece queste tecnologie
come strumenti di narrazione matura.
"D'ora in poi nessun picnic sarà più lo stesso di prima" annunciano la
Dreamworks e la PDI per lanciare il loro prodotto, “Z la formica”,
presentato in anteprima a Cartoombria. Per illustrarne in anteprima le
complesse fasi di realizzazione, era presente a Cartoombria Luca
Prasso, direttore tecnico effetti visivi della PDI:
"Si inizia ancora - ha spiegato Prasso - e si continuerà sempre a partire
dalla carta. L'animatore, o i designer dei personaggi, l'art director del
film o della produzione inizia disegnando il personaggio sulla carta.
Vengono poi fatte centinaia e centinaia di prove. Una volta che il
personaggio è stato approvato si passa a una scultura del personaggio,
che normalmente viene realizzata di circa cinquanta centimetri di
altezza. Quando questa è approvata vengono fatte molte sculture: sia
sculture “gesturali”, dove il personaggio viene visto in diverse posizioni,
in movimento, sia delle sculture che vengono usate poi per importare il
personaggio all'interno del calcolatore. Questo viene fatto normalmente
con una tecnica di digitalizzazione, dove, con una penna speciale,
vengono rilevati dei punti sulla superficie del personaggio, e questi
vengono poi inseriti nel calcolatore. A questo punto il personaggio
arriva ai technical directors."
I direttori tecnici hanno anche il compito di realizzare le espressioni dei
volti dei personaggi. In questo caso, la PDI ha messo a punto un
software speciale che ha permesso di raggiungere alti livelli di
definizione dell’immagine: una struttura complessa a cui corrispondono
muscoli, pelle, ossa, carne del corpo umano e grazie alla quale il
movimento delle labbra è sincronizzato con quello delle guance e della
pelle degli occhi, per rendere l'effetto più realistico, più coinvolgente.
228
Un ulteriore livello di espressione è stato raggiunto con la
programmazione di un elenco di fonemi e i corrispondenti atteggiamenti
delle labbra per pronunciarli.
Un'altra sfida è rappresentata dalle scene di massa, fondamentali in un
formicaio.
Z la formica include oltre 500 sequenze di massa, a partire da un
piccolo gruppo di formiche ad oltre 60.000 insetti. Anche in questo caso
è stato elaborato un apposito sistema, di simulazione di folla e di
miscelazione, ideato proprio da Luca Prasso e da altri due tecnici della
PDI. Proseguendo nel processo di lavorazione, dallo storyboard si è
passati al layout, cioè alla verifica dei movimenti dei personaggi, delle
inquadrature, del fuoco, della profondità di campo.
Parte di questo lavoro è realizzato dal regista e dal direttore della
fotografia.
Una volta messo a punto il layout definitivo, si arriva alla fase finale,
dell'illuminazione, che conferisce al tutto un effetto realistico.
Nel caso di Antz esiste una doppia caratterizzazione, tra il mondo di
dentro, buio, il formicaio, ed il mondo di fuori, colorato, solare da cui “Z”
è attratto.
Un aspetto fondamentale della lavorazione di Antz, e un motivo di
orgoglio per i tecnici e i creativi della PDI, sono le scene di acqua,
anche queste realizzate con tale realismo da sembrare vere. “I nostri
concorrenti - racconta infatti Luca Prasso - credono che abbiamo
ripreso della vera acqua, mentre invece non è così.
Il prossimo grande passaggio sono gli esseri umani."
Come abbiamo visto il cartone sembra ormai ben avviato sulla strada
dell’animazione computerizzata. Ma facciamo ancora un salto indietro
nel tempo, alle origini dell'animazione e cerchiamo di individuare le
analogie e le differenze tra le nuove tecnologie digitali rispetto alle
tecniche d'animazione tradizionali, in due dimensioni.
La continuità far le due tecniche possiamo trovarla soprattutto nel
controllo matematico della luce, del colore e del ritmo, che permette di
continuare al meglio la tradizione delle avanguardie artistiche dei primi
decenni del secolo. La differenza fondamentale la troviamo nella
costruzione spaziale che nel cinema di animazione tradizionale è stata
sempre essenzialmente bidimensionale.
In realtà, forse una delle maggiori specificità dell’animazione
computerizzata è proprio il senso fortissimo della profondità, della terza
dimensione.
Nell’animazione di oggi è più spiccata la ricerca di realismo che è quello
che poi va a sfociare in modo particolare negli effetti speciali. Ma,
mentre l’animazione tradizionale rappresentava una realtà "altra", una
realtà che aveva senso solo all'interno del film - pensiamo ai personaggi
più classici dei cartoni animati - invece l’animazione digitale riproduce al
meglio la realtà fisica, normale inserendovi però degli elementi fantastici
che la rendono iperreale e fantastica nello stesso tempo.”
229
PARTE 4: MAKING OF
230
THE ADVENTURES OF ANDRÉ AND WALLY B
John Lasseter, 1984
Della durata di 108 secondi, è la prima animazione Pixar realizzata con
l’aiuto di John Lasseter, animatore della Disney e con l’ausilio della
Pixar Image Computer per la composizione digitale in alta velocità.
È la breve storia di un androide che incontra un ape gigantesca in una
foresta.
Primo cortometraggio realizzato completamente in digitale, da questo
momento nasce un nuovo prodotto cinematografico, ovvero il film di
sintesi, né di animazione né live, che assume sia i canoni del cartoon
che quelli del film per creare un universo autonomo e parallelo che si
sviluppa nel computer e non sulla pellicola, e che fa della
tridimensionalità spinta la sua caratteristica principale.
È in sostanza la prima volta che il digitale viene usato come strumento
di creazione e non come soluzione di problemi, e dunque mette in
scena un mondo fatto di curve morbide e di calde rotondità, ovvero tutto
ciò che fino a quel momento era considerato proprio del mondo e della
natura, e non dei calcolatori.
231
LUXO Jr.
John Lasseter, 1986
Secondo cortometraggio realizzato da John Lasseter per la Pixar
Animation Studios, dopo la separazione dalla Lucasfilm Ltd.
È un’animazione di 2 minuti e 10 secondi; in essa una piccola lampada
da tavolo, Luxo, prende vita e comincia a giocare a palla con il padre,
una lampada più grande, fino a che la palla di gomma non si rompe
accidentalmente.
La piccola lampada saltella tristemente fuori di scena.
Poco dopo la lampada-bambino torna con una palla ancora più grande,
lasciando la lampada-padre stupita.
È stato fatto un ulteriore passo avanti rispetto all’immagine tradizionale,
poiché vengono abbandonati i personaggi umani o animali per dare
espressività a oggetti quotidiani, esaltando così esclusivamente la
trama del film, quale elemento fondante di qualsiasi elemento narrativo.
Una storia semplice con protagonisti banali che grazie al digitale
assumono dignità ed espressività.
Gli snodi delle lampade hanno un ruolo espressivo molto forte, tanto
che non hanno nemmeno bisogno di occhi e bocca, in quanto la loro
espressività è data dalla rassomiglianza delle loro giunture con quelle
degli esseri umani.
Nel 1986 Luxo Jr. ha ricevuto una nomination all’Oscar per la categoria
dei cortometraggi animati.
Inoltre ha vinto importanti premi in molti festival internazionali di grafica
computerizzata, compresi l’Orso d’argento per cortometraggi al festival
di Berlino del 1987, il primo premio per l’animazione computerizzata in
3D al festival di Annency del 1987, il primo premio del festival
internazionale dell’animazione di Hiroshima del 1987, e il Golden Nica
per l’animazione computerizzata all’Ars Elettronica di Linz in Austria.
232
RED’S DREAM
Jhon Lasseter, 1987
Il film che dura 4 minuti è stato diretto da John Lasseter con la direzione
tecnica di Eben Ostby, William Reeves e H.B.Siegel.
È un’eccezionale dimostrazione di come sia possibile attraverso
l’animazione computerizzata creare storie cariche di emozioni e di
intensità visuale pari a quella delle classiche animazioni dei cartoons.
È la storia di un piccolo monociclo solitario che sogna un’avventura in
un circo durante una notte di pioggia. All’inizio viene sminuito dal goffo
clown che lo pedala ma, i giochi del clown sono lontani dalla perfezione
e alla fine il monociclo si appropria dello spettacolo recitando meglio del
clown, guadagnandosi un caldo e lungo applauso da parte della folla.
Red’s Dreams è stato il primo tentativo della Pixar di animazione per
mezzo di personaggi flessibili e deformabili.
Questa soluzione ha permesso all’animatore di ottenere un maggior
controllo creativo sulle manifestazioni emotive dei personaggi, grazie
all’uso delle espressioni del viso e al linguaggio del corpo.
Inoltre le esigenze create dalla notte di pioggia e dal negozio di
biciclette, all’inizio e alla fine del lavoro, denotano uno scenario molto
complicato; sistemi a particelle, ombreggiature e mappe per gli
spostamenti creano quell’atmosfera tetra che contribuisce ad
ambientare il sogno.
Il film è stato premiato nel luglio 1987 dalla SIGGRAPH (Special
Interest Group on Graphic).
233
TIN TOY
John Lasseter, 1988
Per Tin Toy realizzato da John Lasseter sono occorsi circa otto mesi di
lavoro per simulare con il computer le espressioni e i movimenti di un
essere umano.
Il cortometraggio Tin Toy è il banco di prova dei giocattoli digitali alle
prese con i capricci di un bambino.
Il film segue la storia di Tinny, un giocattolo la cui esistenza viene
sconvolta dalla presenza umana di Billy, un neonato che mette a dura
prova la tranquillità del soldatino di latta.
Per la prima volta entra in scena un personaggio umano, con
caratteristiche fisionomiche, di movimenti e atteggiamenti molto simili a
quelli di un attore bebè in carne e ossa.
Per realizzare Billy gli animatori hanno dovuto studiare per mesi
attraverso fotografie e videotape le espressioni e i movimenti di un
bambino, quindi hanno costruito lo scheletro elettronico di Billy,
ricoprendolo poi di muscoli.
Ne sono stati prodotti circa un centinaio per simulare le espressioni
della faccia.
In questo corto, in cui per la prima volta viene usato il programma
RenderMan della Pixar per l’animazione di attori 3D, la gestione dei
personaggi e più complicata rispetto ai precedenti lavori di Lasseter, in
quanto i soggetti che agiscono hanno una caratterizzazione psicologica
particolarmente raffinata: il bambino, con alti e bassi di entusiasmo e
sconforto, e il suo giocattolo che camminando suona, hanno un
rapporto intenso e complicato di amore e odio, di paura e compassione,
per cui il gioco trema alla vista di quell’ammasso gelatinoso che lo vuole
prendere, e il bambino freme alla voglia di afferrarlo.
Alla fine il giocattolo sceglie il martirio per cui è stato “messo al mondo”,
e cioè quello di servire e divertire i bambini.
L’Oscar come miglior cortometraggio nel 1988 a Tin Toy consacra il
digitale come nuova espressione artistica, alla stregua del cinema tuot
court e all’animazione, dando la patente a Lasseter per poter
proseguire una carriera di successi oltre che di sperimentazioni.
234
TOY STORY
John Lasseter, 1995
Il film, Toy Story, prodotto e creato dalla Pixar Animation Studios (Pt.
Richmond, CA, USA) e diretto da John Lasseter della Pixar, già
vincitore del premio Oscar, comprende nel cast Tom Hanks per la voce
di Woody, un bambolotto di pezza raffigurante un cowboy, e Tim Allen
per la voce di Buzz Lightyear, un ranger dello spazio in versione
giocattolo, con la musica di Randy Newman, già vincitore del premio
Grammy.
Di Toy Story si parla molto perché è il primo film non cortometraggio il
cui contenuto è interamente realizzato con animazione digitale. Inoltre è
il primo film realizzato in collaborazione dalla Disney e da Pixar.
Tutti sanno chi è Disney, non molti sanno che Pixar è la società di
Steve Jobs, uno dei due papà di Apple. Qual è il nesso tra Disney e
Steve Jobs? Il computer multimediale. Non quello che fa girare
applicazioni interattive. Quello che produce immagini e suoni di livello
professionale per la grande industria dell’Entertainment tradizionale.
Abyss, Terminator 2, Jurassic Park. La fanfara della rivoluzione digitale
suonava già da tempo nel mondo del cinema. La notizia è che oggi
siamo di fronte al primo concerto "a solo", la prima partitura per solo
computer.
La lunghezza del film e il tempo di realizzazione superiore a due anni
hanno dato spazio di manovra al famoso team creativo di Lasseter e ai
brillanti scienziati di computergrafica della Pixar.
La Disney stessa recita: “Toy Story è un film diverso da ogni cosa che
possiate aver visto prima”. Sempre la Disney assicura: “Animazioni
realistiche di una profondità, una dimensione e uno stile sorprendente.
"Nel scegliere la trama di Toy Story, eravamo interessati a
un'evoluzione di TinToy”, riporta Lasseter, "esplorando ulteriormente il
concetto che i giocattoli sono vivi.
Questo concetto fondamentale non è cambiato. Ma quasi tutti gli altri
aspetti sì”.
Quando si parla di Toy Story con le persone della Pixar e della Disney,
subito puntualizzano che anche con la tecnologia più perfezionata non
si può realizzare un buon film. “Penso che la gente non capisca
l'importanza dello storyboard”, afferma Lasseter. “Se il progetto
funziona ed è divertente, quando si traduce in un'animazione diventa
ancora meglio.
Ma se non funziona già a livello di storyboard, non funzionerà neanche
alla fine”.
In effetti, il team ha fermato la produzione del film per due mesi per
migliorare la storia, per rendere i giocattoli adulti senza farli diventare
troppo severi e per arricchire le relazioni tra i vari personaggi.
235
La Pixar è stata aiutata dalla Disney per rendere migliore la storia e per
imparare come si lavora su un progetto di largo respiro, in particolare
grazie a Schneider e Tom Schumacher, vicepresidente di produzione.
“Il mondo di Toy Story è un mondo caricaturale”, dice Lasseter. “Il
pubblico sa che non esiste, ma con il 3D c'è un senso di realtà che è
maggiore rispetto alla cel animation. La gente guarderà Buzz e lo riterrà
credibile. Ha dei bulloni e delle rifiniture sulla sua tuta spaziale che
dicono 'copyright Disney', che sono state fatte perché anche il mio
giocattolo le ha. Questa collaborazione tra arte e tecnologia è
assolutamente vitale. C'è credibilità grazie alla tecnologia”.
Il primo passo della tecnologia è la modellazione. Fondamentalmente, i
circa 366 oggetti del film (il letto di Andy, il furgoncino, lo stesso Andy, il
servizio da tè della sorella...) sono stati modellati con il software Alias o
con l'ambiente di modellazione procedurale della Pixar, MenV (anche
se il cane Scud è stato digitalizzato da un modello in creta).
MenV, ora arrivato alla quarta generazione, era stato realizzato
originalmente per Lasseter da Bill Reeves (che ha ricevuto l'Oscar per
Tin Toy insieme a Lasseter) ed Eben Ostby.
Un film con ben 1.635 inquadrature diverse che contengono circa 366
modelli elaborati con un software proprietario della Pixar, chiamato
Renderman. Un software che gira su 117 stazioni Sun SPARC 20 e che
elabora 300 megabyte per fotogramma, per realizzare un processo di
renderizzazione durato più di 800.000 ore, con un risultato di output pari
a 3 minuti e mezzo di animazione completa per ogni settimana di lavoro
dell'intera squadra di animatori.
La cosa interessante, è che dietro le immagini che abbiamo visto al
cinema non c'è un lavoro mastodontico di animazione, ma lo sforzo di
creare un mondo che non esiste e di compiere tutte le riprese al suo
interno.
Toy Story è il primo film ad essere girato interamente in un posto:
il cyberspazio. Quello che segue è quindi un reportage dal set di ripresa
che sta tutto nel silicio dei microprocessori.
La troupe
John Lasseter è il regista. Da giovane, ha lavorato come animatore alla
Disney; in seguito si è fatto le ossa sviluppando animazioni in computer
grafica con la ILM, la Industrial Light & Magic della Lucas Film. Tuttavia
Lasseter ha visto la sua reputazione crescere da quando ha realizzato
alcuni cortometraggi con la Pixar che gli hanno valso diversi Awards, tra
cui un Orso d'Argento al Festival del Film di Berlino ed una nomination
all'Academy Award con il primo film realizzato in computer grafica ad
essere ufficialmente designato per un Oscar: Luxo Jr. (1986).
Per l'Art Direction è stato chiamato Ralph Eggleston: tra le sue
referenze c'è anche il lavoro di animazione Fern Gully, the Last Rain
Forest. “Quando venni qua [alla Pixar] dissi a John [Lasseter] che
236
odiavo i computer” dichiara Eggleston. “Ero nella condizione di dover
prendere in fretta la decisione se impararne di più circa i computer o
semplicemente curare l'art direction dell'opera. In realtà con i computer
non è mai facile o veloce: semplicemente si passa da una serie di
problemi all'altra. Così decisi di controllare l'art direction lasciando gli
altri a preoccuparsi del resto”. La pianificazione del film ha richiesto una
progettazione accurata: sono stati realizzati circa 25.000 disegni solo
per gli storyboard.
Il produttore è Ralph Gugghenheim. “Noi usiamo la nomenclatura
tradizionale del cinema... Ma la differenza principale è che qui tutto è
dentro il computer”, ha dichiarato.
Uno che proprio non sta nella sedia quando parla di Toy Story è Steve
Jobs, il quale ha stretto un accordo con la Disney per la produzione di
tre film, di cui Toy Story è soltanto il primo. Jobs vede la concreta
possibilità, attraverso il successo di questo film, di tornare a essere agli
occhi dell'America (e del mondo) il ragazzo pazzo e visionario che
aveva inventato il business dei personal computer. Tuttavia, dietro le
motivazioni psicologiche ci sono anche quelle più concrete? diventare il
novello Irving Thalberg, il ragazzo meraviglia di Hollywood che inventò
dal nulla l'impero della Metro Goldwin Mayer. “Io penso che il nostro
affare con Disney sia la seconda migliore opportunità imprenditoriale di
Hollywood - giusto dietro l'exploit di Spielberg con Digital Domain - e noi
cercheremo di realizzare dozzine di film con loro” ha dichiarato. “Noi
potremmo avere anche una sola di queste famose partnership
ventennali, dove noi dobbiamo fare un solo lavoro fenomenale per poi
scambiarci il meglio di ciascuno di noi all'altro partner. E se questo non
accade, bene, noi saremo guardati dalle altre case di produzione come
uno dei partner più desiderabili con cui collaborare”.
Trama e Personaggi
Toy Story inizia nella stanza di un bambino, dove i giocattoli si animano
quando le persone non ci sono.
Il giocattolo preferito da Andy, questo il nome del bambino, è Woody,
un pupazzo-cowboy con la cordicella da tirare per farlo parlare.
Woody mantiene la legge e l'ordine nella stanza di Andy. Egli è
ammirato e rispettato da tutti gli altri giocattoli, almeno fino all'ottavo
compleanno di Andy. Quando un nuovo giocattolo viene a sovvertire
l'ordine nel mondo di Woody: il suo nome è Buzz Lightyear, un Ranger
Spaziale, membro dell'Unità di Protezione dell'Universo, dedito a
difendere la galassia contro il malvagio imperatore Zung.
Buzz è equipaggiato con un laser, ali jet retraibili e un processore a
microchip che gli dà un vocabolario ricercato e ultrascientifico.
Il problema è che Buzz non sa di essere un giocattolo. Neanche a dirlo,
quindi, è destinato ad avere una crisi esistenziale, mentre il confronto
con Woody si profila all'orizzonte.
Woody è descritto con 52,865 linee del programma di modellazione.
237
Ci sono 712 controlli di animazione su Woody, 212 sulla sua faccia e 58
soltanto per la sua bocca. 26 sono le texture map, contando anche le
texture che servono a riprodurre la polvere sulla sua faccia e sulle sue
mani.
Buzz non è stato trattato peggio. 34,846 linee di programma di
modellazione. Ci sono circa 700 diversi controlli di animazione sul
personaggio. Buzz ha 10 luci disposte internamente e 189 texture map
diverse dove non è sporco o impolverato. Nelle sequenze dove è
inzaccherato, Buzz ha altre 45 texture map che riproducono lo sporco.
I dettagli
Tutti i modelli per il film comprendono 5 milioni di linee di codice, cioè
circa 270 megabyte di testo. Sono stati modellati 366 oggetti per più di
2 anni da un totale di 22 direttori tecnici. Di questi oggetti, 76 erano
personaggi.
Il lavoro di modellazione ha impiegato più di 10 anni-uomo per essere
completato. Realismo quindi, ed in modo certosino.
Per intenderci, un albero ha un numero di foglie tra 5.000 e 12.000,
ogni ramo ha dalle 50 alle 200 foglie e molti alberi hanno dai 30 ai 60
rami.
Si tratta di oggetti che comportano dai 2 ai 5 megabyte di codice.
Ci sono dai 100 ai 200 alberi per isolato, circa 1.200.000 foglie.
Sono stati utilizzati 8 differenti modelli di automobile nel film, in 12 colori
diversi. Si vedono quindi più di 36 auto diverse, non includendo i 4
camion e auto speciali. Sono stati utilizzati 4 diversi tipi di
copricerchione e 48 tipologie di sporco applicato alle carrozzerie. Infine
sono stati inseriti 21 diversi cartelli stradali, ognuno con una reazione
specifica evidente da parte degli equipaggi delle auto.
Ostby ha utilizzato MenV per lavorare sul quartiere dove vive Andy, che
è suddiviso in cinque aree.
“Realizziamo il quartiere scena per scena”, dice Ostby. “Se la
telecamera è vicina a una certa zona, la realizziamo in 3D.
Se la telecamera è lontana, utilizziamo una rappresentazione più
semplice”. Ogni zona del quartiere ha una casa, con strade, prati,
automobili, pali della luce... Il dettaglio, nelle riprese ravvicinate, è
stupefacente. Per creare l'asfalto della strada, per esempio, lo
scienziato della Pixar Loren Carpenter ha fuso insieme molte fotografie
di ghiaia e sabbia in modo che la texture apparisse abbastanza
irregolare da sembrare reale. “Abbiamo usato una combinazione di
tecniche”, riporta Carpenter. “È quasi una magia”.
Tra le tecniche usate, ci sono la fusione di coordinate spaziali di colore
utilizzando funzioni di rumore per perturbare le coordinate in modo da
non renderle coincidenti, e una scalatura delle texture che cambia in
funzione della profondità dell'immagine.
238
Per i personaggi, i modellatori hanno usato il software Alias e gli
strumenti di patch-editing di MenV. Alias è stato usato per personaggi
come Buzz che hanno un aspetto 'fabbricato', mentre MenV è stato
utilizzato per i modelli più organici, come Woody e gli umani.
Dovendo modellare ogni luogo, scena, particolare e personaggio del
film, il team creativo è diventato un ottimo riciclatore, copiando e
riutilizzando i modelli. Per esempio, hanno rimpicciolito i piatti nella sala
da pranzo di Andy per creare un servizio da tè per una festicciola per
bambini. Hanno opportunamente adattato molte parti dei giocattoli
mutanti sfruttando parti già realizzate per altri giocattoli. Hanno copiato
parti del corpo da alcuni personaggi umani per creare altre persone,
cambiando dimensioni e proporzioni per aggiungere varietà.
Qualche volta, hanno creato modelli con dettagli incredibilmente
complessi, come nel caso dei capelli di Andy e Sid. Altre volte, hanno
ridotto il numero di modelli di cui avrebbero avuto bisogno utilizzando gli
shader invece di aggiungere dettagli, come nel caso dei segni di pedate
sui muri. Gli shader, che descrivono le superfici e definiscono come
queste reagiscono alla luce, sono stati usati largamente per macchie,
chiazze, gocce, fessure...
Mentre gli shader hanno contribuito a rendere credibile il fondale, è il
movimento che rende credibili i personaggi. Per prima cosa, il
dipartimento responsabile dei layout posiziona i personaggi e la
telecamera sul fondale. Una volta approvato il layout, gli animatori
iniziano a far recitare i personaggi, dando loro vita. Hanno animato circa
50 personaggi, coordinati da Pete Docter, direttore dell'animazione per
Toy Story. L'animazione per tutti i personaggi è realizzata con MenV,
utilizzando controlli di animazione inseriti nei modelli.
Buzz, per esempio, ha qualcosa come 800 controlli di animazione.
Hanno utilizzato un insieme di strumenti per cicli di cammino, per
raggiungere e per afferrare oggetti. Invece di assegnare un
personaggio a un singolo animatore, la tendenza è di assegnare tutti i
personaggi di una certa sequenza allo stesso animatore. I giornalieri
garantiscono che ognuno sappia cosa stanno facendo gli altri.
Prima di animare un giocattolo, gli animatori guardavano ai materiali
con cui quel giocattolo era fatto.
Buzz è rigido e legato, è fatto appositamente di sfere e d'incastri.
Woody è un bambolotto di pezza flessibile, slegato, impacciato nei
movimenti. Gli umani sono creature più grandi e più pesanti, quindi
hanno rallentato i loro movimenti. Innanzitutto, animavano il corpo del
personaggio, poi realizzavano l'animazione facciale e la
sincronizzazione delle labbra. Per creare l'animazione facciale, ogni
personaggio principale è stato modellato con punti di deformazione per
i muscoli facciali. L'animatore ha potuto quindi tirare in su le labbra di
Buzz per creare un ghigno, oppure tirare in su la fronte di Woody per
farlo accigliare (Woody ha otto controlli solo per le sopracciglia).
239
L'illuminazione, almeno per questo film, è stato il processo finale prima
del rendering. Forse è stata una delle cose più difficoltose. La tipica
scena di computergrafica utilizza luci diffuse, da ufficio, oppure luci spot
che saltellano dappertutto. Per Toy Story sono state usate luci
malinconiche e drammatiche, elementi lampeggianti, luce del giorno,
sole brillante...
In una sequenza, per esempio, un temporale crea un cielo scuro e
grigio con la pioggia che batte su una finestra. Poche riprese dopo, la
luce filtra dalla finestra mentre la pioggia diminuisce.
Oltre a definire il tempo della giornata, le luci creano effetti drammatici
come in un film dal vivo. La stanza di Andy, per esempio, ha luci
cariche, calde, per farla sembrare un posto allegro, amichevole, sicuro.
È l'impossibilità di posizionare le luci interattivamente, tuttavia, che
spingerà alla creazione di un nuovo insieme di strumenti per il prossimo
film.
La Pixar sta inventando non solo l'arte e la tecnologia per realizzare un
film, ma anche il procedimento. ”Tutto ciò è molto più di 150 pubblicità
messe insieme”, afferma Karen Robert, che ha lavorato con Heidi
Stettner e Peter Nye per creare un sistema software di organizzazione
per la produzione. Il sistema contiene ogni elemento informativo sul
film, a partire dallo storyboard digitalizzato, e tutti lo usano. “Quando
siamo partiti, abbiamo analizzato il processo produttivo e abbiamo
scoperto che era qualcosa tra la cel animation e la ripresa dal vivo, ma
in ogni singolo aspetto ha un suo spazio differente”, racconta Lasseter.
Per l'illuminazione, la grafica 3D è simile alle riprese dal vivo. La storia
e il progetto sono simili alla cel animation. “Ci siamo comportati come
se avessimo dovuto realizzare un sistema operativo”, afferma Porter.
“Dovevamo considerare l'impatto dei cambiamenti e tenere traccia delle
varie versioni”. Prendiamo per esempio gli adesivi di Buzz, con i loro
colori attentamente bilanciati. “Non c'è modo di scrivere una superficie
che riesca a gestire qualsiasi luce”, spiega Porter. Così, cosa succede
se, dopo che sono state approvate tre mesi prima due dozzine di
riprese di Buzz che stanno per essere inserite nel film, ci si accorge in
una nuova scena che l'adesivo ha un riflesso brillante che è
chiaramente non corretto? Si tiene traccia della nuova versione.
“Il lavoro degli animatori e dei direttori tecnici non è molto cambiato
rispetto alle animazioni più corte, ma la gestione della produzione sì”,
afferma il coproduttore Ralph Guggenheim. "
Ombreggiatura e texture
Sono state realizzate circa 2000 texture map. Molte sono state dipinte
digitalmente, ma alcune sono state fotografate e digitalizzate. I motivi
della carta da parati, per esempio, sono stati disegnati a mano
appositamente dal team di grafici.
Sono state scritte circa 1.300 funzioni di ombreggiatura per Toy Story.
240
Lo shader per la pelle umana è una funzione che riesce a rendere bene
l'aspetto di una delle superfici più complesse.
La pelle umana è stata riprodotta con 10 strati: sangue, epidermide,
primo strato di secrezione, secondo strato di secrezione, terzo strato di
secrezione (labbra), peli e capelli, ruvidità, rughe, grinze.
Il mobilio utilizza una grande varietà di texture map per dare
l'apparenza di solidi composti di legni diversi che hanno perso la
lucidatura in qualche punto o che hanno le superfici leggermente
deformate dai chiodi o erose e scheggiate ai bordi.
Ci sono 32 diversi edifici. Partendo dalla considerazione che sono stati
usati 4 strati per ogni parete, si può desumere che siano state utilizzate
più di 500 texture map solo per i materiali di costruzione.
L'ombreggiatura che ha richiesto più tempo è stata la capigliatura di
Andy: dall'inizio alla fine ha richiesto 9 mesi.
Illuminazione
Sono state utilizzate dalle 6 alle 32 fonti di luce per ogni ripresa.
L'effetto luce più complicato sono state le orecchie di Mr. Potato: 5
singole luci che risplendono solo sulle sue orecchie.
Ci sono poi controlli speciali per posizionare i riflessi sulle superfici di
paillette di Bo Peep e sul casco spaziale di Buzz.
Rendering
Il software di rendering ha dedicato approssimativamente mezzo
milione di operazioni aritmetiche elementari su ogni singolo pixel,
operazioni come addizionare, moltiplicare, controllare e spostare i
colori. Il totale dei fotogrammi è di circa 160 miliardi di pixel, pari a 600
miliardi di byte; come dire 1200 CD-Rom pieni di dati non compressi,
che messi uno sopra l'altro fanno una colonna di circa 1 metro di
altezza, senza custodie ovviamente.
È stato necessario processare circa 34 terabyte di file attraverso il
software proprietario di Pixar RenderMan per il rendering finale.
Sebbene lo spazio di immagazzinamento totale del lavoro necessario
nelle diverse fasi di elaborazione del film sia di circa 2 terabyte, i
fotogrammi poi utilizzati risultano pari a circa 500 gigabyte.
Il processo di produzione
All'inizio i modellatori hanno creato sculture e modelli computerizzati in
3D del set e dei personaggi. Alcuni di questi hanno preso vita come
diagrammi creati attraverso un software basato su un linguaggio di
programmazione, chiamato Menv (Modeling Enviroment), che impiega
una tecnica di creazione dei manichini che assomiglia alla modellazione
dell'argilla.
241
Altri, come il cane Scud, sono stati prima scolpiti nell'argilla e quindi
digitalizzati con il Polhemus 3 Space Digitizer, con il quale l'artista tocca
i punti chiave sul modello per creare una descrizione tridimensionale
della superficie sul computer.
A questo punto i controlli delle articolazioni sono stati codificati in ogni
modello, permettendo agli animatori di coreografare i movimenti e di far
combaciare i movimenti facciali e della bocca con il dialogo.
Scud, per esempio, ha 43 controlli soltanto sulla sua bocca per
permettergli di ringhiare minacciosamente e mostrare i denti.
Mesi dopo gli attori di Hollywood hanno registrato le loro parti di
dialogo, tra questi anche Tom Hanks per Woody e Tim Allen per Buzz.
“Per una ripresa di 8 secondi è stata necessaria anche una settimana di
lavoro per far combaciare l'espressione facciale con la colonna sonora”,
dice Eliot Smyrl, un animatore. “Non è soltanto un problema di seguire i
movimenti della bocca; bisogna far apparire l'espressione di quel
personaggio come se realmente sentisse emotivamente ciò che dice.
Abbiamo visto i video di Tom Hanks e di Tim Allen mentre registravano
il dialogo... Noi analizziamo molto attentamente le attitudini espressive
degli attori per ottenere degli indizi, dei segni su cui costruire le
espressioni dei personaggi”. In seguito alcune riprese di animazioni a
bassa risoluzione sostituiscono i disegni degli storyboard e, per la prima
volta, Lasseter può iniziare a vedere come apparirà il suo film.
“È abbastanza difficile scrivere una buona storia, ancor di più con i limiti
del nuovo medium, ma finalmente ora potremo vedere ciò che i nostri
arnesi possono fare e ciò che non possono fare”.
Una volta realizzate le riprese sommarie, subentra la fase di shading.
Per raggiungere l'effetto desiderato sono stati aggiunti diversi strati di
colorazione alle immagini generate dal computer lavorando su un
monitor Sony a correzione di colore con Adobe Photoshop e Amazon.
Per questo processo, Pixar ha sviluppato Unwrap, un programma
software che permette a superfici complesse in 3D di essere proiettate
su superfici piatte, simile all'effetto di un proiettore di mappe Mercatori.
Con queste caratteristiche un artista può estrapolare la faccia di un
personaggio, disegnare caratteristiche come pori e foruncoli e quindi
riproiettare il risultato sul modello.
La fase successiva è l'illuminazione, forse la più difficile di tutte. Così
tanto che durante le fasi di montaggio l'illuminazione ambientale viene
fornita da una sola sorgente, mentre nel film definitivo la scena viene
illuminata digitalmente come avviene su un vero set di ripresa. “Al
contrario dei veri set di ripresa, noi possiamo controllare le luci e le
ombre indipendentemente l'una dall'altra. Il problema classico di tutti i
cineasti è che 20 luci producono 20 ombre. La cosa meravigliosa delle
riprese sintetiche è che tu puoi avere solo le ombre che vuoi” dichiara
Ralph Gugghenheim.
242
Con tutti gli elementi assemblati il film è pronto per entrare nella render
farm, dove il banco di 300 processori Sun della Pixar farà il rendering
finale del film.
Dopo che il processo ha raccolto la massiccia quantità di informazioni
digitali per determinare l'animazione, la modellazione e l'illuminazione, il
software Renderman produce il risultato complessivo, impiegandoci da
2 a 15 ore per fotogramma.
Le immagini finali sono poi trasferite al sistema di video editing Avid,
dove Lasseter ed il suo team fanno il montaggio digitale di Toy Story.
Il risultato viene memorizzato in un array di hard disk che sarà usato
per creare la pellicola finale da 35mm.
La fabbrica delle invenzioni
La Pixar non ha sfruttato soltanto la tecnologia esistente. Da sempre,
apporta importanti contributi alla computergrafica e all'animazione. C'è
una catena di sviluppo che parte dalla University of Utah, passa
attraverso il New York Tech, la LucasFilm e, infine, arriva alla Pixar.
Per anni il gruppo è cresciuto mentre sviluppava tecnologia e inventava
gli algoritmi che hanno reso la computergrafica utile per l'industria
cinematografica.
Ecco alcuni dei contributi targati Pixar:
Z-Buffer: è una tecnica per determinare quale superficie è visibile.
È ora comunemente implementata nell'hardware.
Texture mapping: è la tecnica di applicare texture, immagini o disegni
direttamente sulla superficie per aumentare la complessità visuale.
RGB painting: è il primo sistema di disegno completamente a colori e il
primo sistema di disegno offerto commercialmente.
Alpha channel: nell'immagine vengono incorporate delle parti
trasparenti per comporre molte immagini in una sola.
È utilizzato nell'arte grafica e nell'industria cinematografica.
Matte algebra: è una matematica formalizzata per una varietà di
operazioni di composizione. È utilizzata nell'industria cinematografica.
Two-pass warping: è un metodo veloce per ruotare, curvare o
deformare intere immagini bitmap.
Volume imaging: le immagini vengono create da porzioni multiple
d'immagini 2D. È utilizzata nell'industria medica.
Particle system: il sistema particellare è un metodo per generare un
grande numero di piccole primitive.
Viene usato per realizzare immagini di fuoco, alberi, erba...
Shading language: è un linguaggio per descrivere l'apparenza di una
superficie e la sua interazione con la luce.
Permette un controllo creativo sugli effetti speciali.
Stochastic sampling: è una tecnica di anti-aliasing con interessanti
proprietà statistiche, che permettono di risolvere un certo numero di
problemi di rendering.
243
Motion blur: è una tecnica per generare immagini che sono sfocate
nella direzione del moto, importantissima per mischiare computergrafica
e riprese dal vivo. È la tecnologia che permette l'attuale diffusione
dell'uso della computergrafica negli effetti speciali.
RenderMan: molte delle tecniche precedenti sono state inserite in
questo sistema di rendering capace di gestire immagini estremamente
complesse. Questo prodotto ha reso la computergrafica praticabile per
l'utilizzo nei film.
MenV: è il sistema di animazione utilizzato per realizzare Luxo Jr. e le
animazioni successive della Pixar. Questo software dimostra a
chiunque il reale potenziale dell'animazione al computer.
244
LA PRINCIPESSA MONONOKE
Hayao Miyazaki,1997
In Giappone, la Studio Ghibli ha usato la tecnologia digitale per
potenziare, per la prima volta, il ricco aspetto da acquerello fatto a
mano dei lavori del noto animatore Hayao Miyazaki, nel film
d’animazione La Principessa Mononoke.
Invece di imitare le formule di successo create dai più noti giganti
statunitensi della computergrafica, queste nuove realtà hanno attinto
alle loro radici culturali per ideare soluzioni innovative nell’animazione
per le produzioni cinematografiche
Il regista Hayao Miyazaki ha conquistato il pubblico cinematografico
giapponese con animazioni uniche che, con i loro dettagli visceralmente
naturalistici e colori vibranti, possono essere descritte come opere
d’arte.
La sua tecnica, affinata nel corso di anni di lavoro come animatore, ha
trovato piena realizzazione negli anni ’80 dopo aver lanciato la Studio
Ghibli.
Da allora, Miyazaki e la Studio Ghibli hanno prodotto una serie di
successi, inclusa una delle loro creazioni più costose, Mononoke Hime
(La Principessa Mononoke).
Liberamente ispirato al folklore giapponese, Mononoke Hime è un film
d’animazione in stile anime che racconta la guerra tra gli dei bestia
della foresta e una civiltà industriale invadente durante il difficile periodo
anarchico del XV secolo in Giappone.
Involontariamente, Ashitaka, giovane guerriero di una tribù abitante
nella foresta, uccide uno degli dei che aveva assunto la forma di un
cinghiale infuriato.
Come conseguenza dell’assassinio, una maledizione sotto forma di
letale cicatrice inizia a consumare il corpo di Ashitaka, costringendolo a
cercare i devastatori della foresta, che secondo lui possono essere in
grado di ribaltare il suo destino mortale.
Durante la sua ricerca, incontra la principessa Mononoke, una donna
allevata nella foresta dai lupi, che ha giurato di fermare gli
industrializzati e di restituire la foresta agli dei e ai suoi legittimi abitanti.
Quando il film è uscito in Giappone nel 1997, ha battuto i record
d’incassi giapponesi, diventando uno dei due film (l’altro è Titanic) che
superò la barriera dei 150 milioni di dollari (300 miliardi di lire).
Mononoke Hime, la cui realizzazione ha richiesto più di tre anni di
lavoro ed è costata 20 milioni di dollari (40 miliardi di lire), ha segnato
un nuovo standard per Miyazaki e la sua arte.
È stata la prima volta che il suo lavoro, in precedenza rigorosamente
disegnato a mano, è stato affiancato dall’uso della computergrafica.
Anche se i 135 minuti di film contengono comunque più di 144 mila
scene disegnate a mano, ognuna delle quali è stata controllata e in
245
alcuni casi ritoccata dallo stesso Miyazaki, circa un decimo della
produzione include immagini generate al computer.
Molte di queste sono state create solo con strumenti di ink and paint
digitali.
La porzione rimanente del lavoro in CG ha fatto uso di texture mapping,
modellazione e rendering 3D, morphing, creazione di particelle e
compositing digitale.
Il risultato, dice Stephen Alpert, responsabile della distribuzione
internazionale alla Tokuma Shoten, il gruppo a cui appartiene la Studio
Ghibli, è un movimento più fluido e realistico rispetto ai tipici film di
anime.
L’integrazione della CG
Nella produzione di Mononoke Hime, l’intenzione è stata quella di usare
la computergrafica per rafforzare lo stile naturalistico ed emozionale per
il quale Miyazaki è conosciuto.
Essenzialmente, il regista ha voluto immagini digitali che non
sembrassero computergrafica.
L’obiettivo, secondo Yoshinori Sugano, direttore della CG, era di
conformare le immagini in computergrafica al livello di realismo
mostrato dall’animazione tradizionale.
D’altra parte, lo studio voleva ottenere la solidità e la presenza che è
possibile raggiungere solo con la computergrafica.
Per esempio, la tecnologia si è dimostrata inestimabile per creare un
senso di profondità, spazio e velocità quando Ashitaka e la sua
cavalcatura inseguono il dio-cinghiale.
In questa scena in CG, la telecamera si muove attraverso lo sfondo 3D
per simulare la cavalcata selvaggia e spericolata dal punto di vista di
Ashitaka (un personaggio 2D).
Ciò ha permesso agli animatori di gestire più facilmente il movimento di
tutti gli elementi della scena.
Gli sfondi 3D del film, però, tendono a essere meno dettagliati di quelli
disegnati dagli artisti, perché le texture hanno perso un po’ di dettaglio
quando sono state mappate sul modello 3D del terreno.
Un altro caso dove il 3D domina la scena è durante l’attacco del dio
cinghiale, con le sue appendici simili a serpenti che divorano tutto sul
loro percorso.
La computergrafica è stata usata estensivamente anche per
rappresentare il viaggio surreale del dio semitrasparente “Viaggiatore
della Notte” e i relativi effetti di particelle e d’illuminazione, che sono
stati creati usando gli strumenti Particles inclusi in Softimage.
Inoltre, le immagini 3D sono state usate in modo non invadente durante
il film per ottenere effetti speciali di morphing, particelle e illuminazione.
246
Integrare in modo invisibile le immagini 3D con l’animazione
tradizionale conservando nello stesso tempo l’aspetto di disegnato a
mano si è dimostrato particolarmente difficile.
Per facilitare quel compito, la Studio Ghibli è diventato uno dei primi
utenti di Toon Shader per Mental Ray, software sviluppato dal gruppo
Softimage Special Projects (di cui fanno parte diversi italiani) che poi è
stato incorporato nel pacchetto Softimage 3D.
Toon Shader ha permesso d’imitare lo spessore del colore, i contorni
netti e le altre caratteristiche dell’animazione 2D di Miyazaki usando i
modelli 3D creati in Softimage3D su workstation Indigo2 della SGI.
Tutti gli elementi 3D, insieme alle immagini e sfondi 2D, sono stati
realizzati separatamente e poi composti digitalmente usando Flint della
Discreet.
Mononoke Hime segna la prima volta che questa tecnica è stata
utilizzata internamente dalla Studio Ghibli.
L’uso della tecnologia digitale non sminuisce il valore artistico o la
qualità del film.
Uno dei motivi, probabilmente, è il fatto che il regista ha mantenuto un
controllo diretto su ogni aspetto, incluse le immagini in computergrafica.
L’entrata nel mondo digitale di Miyazaki è stata caratterizzata da piccoli
passi fatti con estrema attenzione ed equilibrio, per non distrarre dal
suo stile tradizionale e così popolare.
E anche se quei passi sono stati piccoli, Mononoke Hime è la prova che
hanno comunque portato a un successo.
247
ANTZ
Tim Johnson,1998
ANTZ rappresenta il debutto della neonata DreamWorks nel campo
dell'animazione digitale (come a sua volta aveva fatto la Disney con Toy
Story), in collaborazione con la PDI.
Il risultato è un lungometraggio di ottima fattura, sia per quanto riguarda
la tecnica di animazione utilizzata, sia per la sceneggiatura, la
caratterizzazione di personaggi e la regia.
Si è ottenuto un tutto omogeneo e continuo nella narrazione, con colpi
di scena e momenti divertenti (alcuni dei quali veramente surreali e resi
perfettamente grazie all'interpretazione di Woody Allen e dell'ottimo
Oreste Lionello per l'edizione italiana).
Il tema del film è fortemente improntato sul sociale, rimarcando la
necessità di definire la propria personalità, per non annullarsi nel
seguire scimmiescamente la massa.
Z è una formica operaia che lavora 12 ore al giorno scavando terra per
realizzare un tunnel. E' afflitto da problemi di identità: quando sei il figlio
di mezzo in una famiglia di 5 milioni non ricevi molte attenzioni... mio
padre se n'è andato che ero ancora una larva...' si autocommisera Z sul
lettino dello psicoanalista.
Non abbastanza coraggioso per essere un soldato ed allo stesso tempo
incapace di sentirsi parte di una comunità che gli sembra agisca
passivamente agli ordini della Regina madre e del Generale Mandibola.
Quest'ultimo, decisamente dittatoriale, ha in mente di eliminare l'intera
comunità delle formiche operaie per generare una nuova colonia di
insetti soldati, perfette macchine da guerra ubbidienti ai suoi voleri.
Innamoratosi dell'affascinante principessa Bala, figlia della Regina
madre ed erede al trono, Z si trova costretto per amore a combattere le
temute termiti. Tornato vincitore, unico sopravvissuto dalla cruenta
battaglia, diventerà, senza volerlo, un modello di autonomia ed
indipendenza per tutte le formiche operaie e per la stessa principessa.
Sarà lui infine a guidare la rivolta contro il Generale Mandibola e a fare
così riacquistare la libertà all'intera colonia d'insetti.
Punto di forza del lungometraggio è sicuramente l'animazione dei visi:
appaiono molto 'naturali' e 'umani', ricchi di espressioni; quel che
colpisce è che non ci sono in realtà gli atteggiamenti estremi da
cartoons che siamo stati abituati a vedere finora.
La recitazione dei personaggi acquista così tutta un'altra dimensione,
forse più efficace e sicuramente più adatta a questo lungometraggio e
al suo significato di fondo.
Un esempio per tutti viene dalla realizzazione del Generale Mandibola,
un militare altezzoso e ipocrita, abilissimo stratega nel perseguire i
propri obiettivi di conquista e di 'epurazione sociale’(intende infatti
248
ripulire la colonia da tutti gli "elementi deboli" progettando e arrivando
quasi a compiere uno sterminio di massa).
I movimenti, la struttura del corpo, gli atteggiamenti del volto sono
perfettamente fluidi e calibratissimi sulla natura del personaggio.
Per rendere attraente Z agli occhi di un pubblico adulto, Katzenberg ha
creato un personaggio che è la controfigura di Woody Allen, e ha fatto
doppiare tutte le formiche da attori famosi: Sharon Stone è Bala, Gene
Hackman il generale Mandible e Sylvester Stallone è Weaver, l'amico di
Z.
Sullo sfondo di scenari tridimensionali ispirati al lavoro dell'illustratrice
per bambini Mary Grand Prè, dell'artista inglese Andy Goldsworthy, del
padre del modernismo catalano Antoni Gaudì, i personaggi si muovono
come attori in carne e ossa.
Le citazioni si sprecano, da Metropolis a 2001: Odissea nello spazio, a
Starship Troopers, fino al ballo di John Travolta e Uma Thurman in Pulp
Fiction.
C'è perfino Z che affonda in una goccia d'acqua come il bel Di Caprio
nell'Atlantico glaciale.
Scene di grande impatto sono l'apertura del film (ove in controluce si
disegnano i profili di palazzi che si rivelano poi come steli d'erba), la
scena della 'palla da demolizione' e l'invasione dell'acqua nella colonia
(una realizzazione digitale di grandissima efficacia e realismo).
Nel marzo 1996, la DreamWorks SKG (Spielberg, Katzenberg e
Geffen), la più giovane casa di produzione dell'industria cinematografica
statunitense, si è unita alla Pacific Data Images (PDI), società leader
nel settore dell'animazione digitale e degli effetti speciali visivi, con
l'obiettivo comune di produrre pellicole di animazione computerizzata.
Z la formica segna il debutto di questa joint-venture.
La nascita di Z la formica risale di fatto al 1991, anno in cui la divisione
animazione della PDI ha ideato il progetto. All'epoca, Tim Johnson ha
proposto insieme ai suoi collaboratori di realizzare un film d'animazione
ambientato in un mondo in miniatura popolato da insetti. Negli anni a
seguire, il regista ha continuato a lavorare allo sviluppo della pellicola,
allora intitolata Lights Out, dandole varie forme.
Nel novembre 1995, Johnson ha sottoposto la sua idea all'attenzione di
Penney Finkelman Cox e di Sandra Rabins della DreamWorks e da
questi ha appreso che, per combinazione, Nina Jacobson, allora
produttore esecutivo della DreamWorks, stava portando avanti un
progetto su un film ambientato in un formicaio, opportunamente
intitolato Ants (Formiche).
Date le forze che entrambe le parti mettevano in campo, DreamWorks e
PDI si sono immediatamente rese conto del vantaggio offerto da una
loro collaborazione.
“La PDI è stata per anni all'avanguardia nel settore dell'animazione
computerizzata e con Z la formica porta questo genere ai massimi
livelli” afferma Jeffrey Katzenberg, che della DreamWorks è uno dei
249
soci di maggioranza, oltre che responsabile del settore animazione
dello Studio. “Realizzare questo film senza il loro supporto creativo e
tecnologico sarebbe stato impensabile; noi della DreamWorks eravamo
entusiasti dello spirito di collaborazione e della voglia di sperimentare
che ci hanno animati tutti durante l'arco intero di questa produzione".
Sebbene Z la formica, secondo film di animazione interamente digitale
mai realizzato finora, si incentri sulle vicende di animaletti minuscoli
come sono le formiche, esso rappresenta un gigantesco passo avanti
nel suo genere.
Attraverso l'impiego di un software ideato dalla PDI, del quale la società
possiede l'esclusiva, il film introduce alcune innovazioni significative in
ambiti da sempre considerati problematici quali l'animazione dei volti, le
sequenze di massa e la simulazione dell'acqua. Né va dimenticato che
il soggetto, presentando il mondo osservato dal punto di vista di una
formica, ha posto difficoltà del tutto nuove.
“Avendo a che fare con delle formiche, abbiamo cercato di visualizzare
il mondo secondo la loro prospettiva” spiega il regista Tim Johnson.
“Anche gli oggetti più banali si modificano enormemente se ci si
abbassa al punto di osservazione di una formica. Il problema non è
quanto sia piccolo il nostro mondo, ma quanto sia grande il loro”.
“I computer offrono grandi risorse all'espressione artistica e oggi
abbiamo appena cominciato a sfruttare le potenzialità dell'animazione
computerizzata come genere cinematografico” precisa Darnell. “Non
stiamo cercando di imitare la realtà o di copiare la tradizionale
animazione bidimensionale.
Il computer consente ai personaggi e alla macchina da presa di
muoversi in uno spazio tridimensionale, il che induce lo spettatore a
lasciarsi coinvolgere dalla storia più di prima”.
Nella produzione del film, ad ogni modo, l'impiego delle tecnologie
moderne è stato preceduto dalla stesura degli storyboard, che prevede
l'utilizzo di alcuni strumenti storici dell'animazione, cioè carta e matite.
“La pratica usata nello sviluppo dello storyboard è ancora quella messa
a punto nel lontano 1929” afferma Randy Cartwright, supervisore di
questa fase della lavorazione. “Si adoperano ancora fogli da disegno,
matite colorate, puntine per la mappatura e tabelloni. Quindi, anche se
Z la formica fa ricorso a tecnologie d'avanguardia, gli storyboard sono
stati realizzati esattamente con le stesse modalità dei primi film
d'animazione; per questa fase non è ancora stata trovata una
tecnologia migliore”.
Il processo viene avviato suddividendo il film in tre atti, che vengono
successivamente scomposti in sequenze. Ogni sequenza viene poi
suddivisa ulteriormente in una serie di inquadrature, ognuna delle quali
rappresentata in uno o più storyboard.
Z la formica si compone di almeno 1206 inquadrature, che hanno
richiesto l'esecuzione di parecchie migliaia di tavole. La fase successiva
consiste nella realizzazione di una bobina ottenuta digitalizzando le
250
varie tavole con uno scanner e montandole in sequenza. La bobina è
completata solo quando vengono aggiunte le voci, altro elemento
fondamentale all'animazione. In alcuni casi si impiegano voci
provvisorie, sostituite poi dalle voci originali al momento della
registrazione definitiva.
Z la formica, nella versione originale, riunisce un eccezionale cast di
attori di fama internazionale che hanno prestato la voce ai suoi
personaggi: Woody Allen, Dan Aykroyd, Anne Bancroft, Jane Curtin,
Danny Glover, Gene Hackman, Jennifer Lopez, John Mahoney, Paul
Mazursky, Grant Shaud, Sylvester Stallone, Sharon Stone e
Christopher Walken.
“Uno degli aspetti più divertenti di Z la formica è proprio il cast delle
voci” afferma il produttore Brad Lewis. “Pensare che siamo riusciti a
scritturare tutti gli interpreti che avevamo in mente!”.
“E' stato bellissimo collaborare con questi grandi artisti,” aggiunge Patty
Wooton “che hanno saputo mettere tutti se stessi nei personaggi
doppiati. Vederli al lavoro è stato fantastico”.
Benché veterani nel mondo dello spettacolo, tutti i grandi interpreti del
film sono al debutto in una pellicola d'animazione.
“Le registrazioni hanno messo in luce la professionalità di tutti gli attori
con cui abbiamo lavorato” racconta il regista Eric Damell.
“A differenza del solito, questa volta non si trovavano su un set al fianco
di altri colleghi, dovevano recitare le battute a un lettore che provvedeva
a dar loro gli attacchi. Si sono affidati interamente alle nostre direttive,
ma è stato incredibile constatare con quanta facilità e sveltezza abbiano
poi cercato e sperimentato alternative di loro invenzione”.
Il ruolo di Z, la formica che sogna di non perdere la propria individualità
malgrado viva in una società regolata dal conformismo, è stato scritto
appositamente per Woody Allen.
Z è una formica che si guarda intorno e pensa che quello che vede non
faccia per lui... Nel mondo irreggimentato della colonia, tutto quanto lo
mette a disagio.
Z decide di ribellarsi al sistema delle caste che vige nella colonia
allorché si innamora della bellissima e viziatissima principessa Bala,
doppiata da una delle interpreti più famose del cinema americano:
Sharon Stone.
Fidanzata per forza con un generale squilibrato, Bala vive in un mondo
che oltre un certo limite si chiude. Poi incontra Z, intrappolato come lei,
ma dalla propria infima posizione sociale. Il destino unisce i due, che
sognano entrambi un mondo più grande e più bello e che alla fine,
riuscendo a sottrarsi ai ruoli che la società ha affibbiato a ciascuno di
loro, diventano eroi.
Bala è destinata ad ereditare il trono di sua madre, prospettiva a tutta
prima fantastica se non fosse che, in quanto formica, per lei significa
ereditare il compito di sfornare milioni di pargoli ogni giorno.
251
Quindi, proprio come Z, che non è esattamente entusiasta della sua vita
di operaia, anche Bala dall'altro lato del formicaio vive lo stesso tipo di
frustrazione.
Una dei più gravi motivi di scontento per Bala è il suo fidanzamento con
il militare più importante della colonia, il severo e maniacale Generale
Mandible, interpretato da Gene Hackman.
Se il Generale Mandible è il peggior nemico di Z, il suo migliore amico e
alleato è Weaver, un soldato al servizio del tremendo Generale.
Sylvester Stallone, che gli presta la voce, racconta di esser stato
convinto a partecipare al progetto da Jeffrey Katzenberg, al quale è
legato da una amicizia di vecchia data.
Per Z, Weaver è la voce della coscienza. Weaver non riesce a capire
perché il suo amico si lamenti sempre di tutto.
Poi i due si scambiano i ruoli e il soldato scopre di amare il lavoro della
formica operaia. Così si guarda intorno e pensa che in fin dei conti è
bello poter scegliere nella vita.
Il rapporto che lega Weaver e Z è un'amicizia tipo Uomini e topi.
Weaver è grosso e forte, ma non usa la sua forza per sottomettere gli
altri. Diciamo piuttosto che ha il fisico di un leone e il cuore di un
agnellino, una combinazione che, credo, risulta sempre molto
interessante.
Quando Weaver scambia il proprio lavoro con Z, non solo intraprende
una carriera nuova, ma si innamora anche di Azteca, graziosa formica
operaia doppiata da Jennifer Lopez.
Azteca è convinta di lavorare per il bene della colonia ed è molto
soddisfatta della propria esistenza. Ma quando Z e Weaver si
scambiano i ruoli e lei e Weaver si innamorano, comincia a capire il
senso dei discorsi di Z e finisce per prendere parte alla ribellione.
A capo della colonia siede la Regina, alla quale presta voce la grande
Anne Bancroft.
La regina non fa molto, a parte naturalmente sfornare bambini e
comandare su tutti.
Un altro premio Oscar, l'attore Christopher Walken, si è unito al gruppo
di interpreti dando voce al colonnello Cutter, aiutante e braccio destro
del generale Mandible. La voce di Christopher è quella di un militare
che obbedisce prontamente agli ordini. Ma con l'evolversi della vicenda,
il devoto soldato arriva a comprendere che l'idea della colonia perfetta
che ha il generale Mandible, alla fin fine, potrebbe non essere così
perfetta.
Cutter inizia con l'atteggiamento di chi va all'attacco, ma quando si
rende conto di cosa sta accadendo simpatizza sempre più con il
nemico. Smette di obbedire istantaneamente agli ordini e riflette su
quello che gli succede intorno.
Le formiche non sono gli unici insetti rappresentati in Z la formica: Dan
Aykroyd e Jane Curtin interpretano infatti due vespe di nome Chip e
252
Muffy. Due vespe, nel senso sia letterale che figurato del termine,
perché sono proprio piantagrane.
Gli altri illustri doppiatori di Z la formica sono Danny Glover, che
interpreta Barbatus, vecchio soldato che prende Z sotto la sua ala
protettrice mentre marciano in battaglia; Grant Shaud nel ruolo del
caposquadra delle formiche operaie, il tipico piccolo imprenditore che
tenta di migliorare le proprie entrate; John Mahoney nella parte di
Drunken Scout, che riempie la testa di Z con le sue storie sul paradiso
di Isectopia, e Paul Mazursky, psicologo di Z.
La scena più drammatica è sicuramente quella dell’inondazione, nella
quale a Z viene offerta l’opportunità di diventare un eroe.
In queste scene, la PDI mette in luce una delle sue principali
innovazioni per questo film: un simulatore d’acqua.
Il renderer dell’acqua ne prende in considerazione l’intero volume e usa
singole particelle per creare striature nel volume in modo da enfatizzare
la sensazione di movimento.
La creazione dell’acqua “Abbiamo preso coscientemente la decisione di
realizzare questo film come quelli ripresi dal vivo”, dice Wooton.
Di conseguenza, sono stati inclusi fenomeni naturali come l’acqua, oltre
a effetti tipici della reale macchina da presa come i lens flare.
Inoltre, gli artisti della PDI hanno preso in prestito un’idea dai film dal
vivo e dall’animazione tradizionale, creando matte painting (sfondi
bidimensionali dipinti su vetro) per alcuni fondali di Antz, invece che
costruire intere location con modelli 3D.
Il sistema di simulazione dell’acqua è stato sviluppato principalmente da
Nick Foster come tesi di dottorato quando studiava alla University of
Pennsylvania. “La cosa migliore del sistema di Nick è che si è
concentrato sulle necessità dell’animazione, non su una resa
fisicamente accurata al 100 per cento”, spiega Ken Bielenberg,
supervisore degli effetti.
Spiega Foster: “La base della mia tesi era che nell’animazione al
computer ci sono i campi di altezza che possono comportarsi come
l’acqua, ma non fanno spruzzi, o i sistemi di particelle che possono
seguire movimenti in 3D, ma non assomigliano all’acqua.
Il nostro obiettivo era cercare di ottenere la totale libertà dell’acqua
reale e calcolarla in tempi sufficientemente rapidi per poterla inserire in
una sequenza di tre minuti in un film”.
Bielenberg aggiunge: “Nick ha ideato un modo intelligente di
semplificare le equazioni della fluidodinamica in modo da poterle usare
in produzione, altrimenti sarebbero necessarie settimane per simulare
l’acqua.
Usiamo il suo sistema per creare praticamente qualsiasi tipo d’acqua,
da scene di oceani, a scene di laghi, ruscelli che scorrono, spruzzi,
grandi gocce d’acqua, gocce piccole, nebbia, schiuma...”. L’acqua
fluisce dal simulatore mediante “manicotti”. Se una scena richiede un
253
muro d’acqua, viene usata una serie di manicotti; per un rubinetto,
viene usato un solo manicotto.
Per controllare il posizionamento, la direzione e la forma del flusso
d’acqua, il team degli effetti, sfruttando il fatto che il comportamento
dell’acqua è basato sulla fisica, ha creato un set di strumenti realistici.
Hanno fornito agli animatori una libreria di oggetti già pronti, come un
muro ruvido, un pavimento da interni e delle rocce, anche se gli
animatori sono liberi di sviluppare i propri oggetti e superfici. In entrambi
i casi, nessuno deve preoccuparsi d’impostare numeri per controllare
aspetti come l’attrito, la viscosità, il volume, ecc.
Un animatore inizia usando questi oggetti e altri modelli 3D per
costruire.
Dato che la storia si svolge sia sopra che sotto la superficie,
l’illuminazione del film varia da scene scure e primi piani di singole
formiche sotto la luce del sole.
Per le pareti laterali e il soffitto del mondo sotterraneo è stata usata la
tecnica del matte painting; le strutture in primo piano sono modelli 3D.
In alcune scene ambientate sull’acqua, troviamo Z e varie altre
formiche, le cui riflessioni e immagini sott’acqua sono possibili grazie al
simulatore di fluidi della PDI, che offre dati reali in 3D invece di limitarsi
a generare campi di altezza per creare l’acqua.
Un set, cioè un modello 3D dell’ambiente, per ospitare, controllare e
dirigere la simulazione. Per creare un fiume, per esempio, l’animatore
modella un canale con la forma del fiume per contenere l’acqua, poi
posiziona manicotti alla sorgente. Per creare turbolenze e schiuma
nell’acqua, è sufficiente posizionare rocce nel letto del fiume.
Per spruzzi più grandi, l’animatore può posizionare manicotti dietro le
rocce, impostandoli in modo che si attivino quando l’acqua del fiume li
raggiunge. Per mostrare sullo schermo dove fluisce l’acqua generata
dal sistema matematico, vengono usati come indicatori le particelle.
Nel 'mare' di Z la formica il pubblico può vedere una continua
interazione in movimento tra i riflessi sull’acqua e le rifrazioni sotto
l’acqua, con l’aggiunta di un po’ di schiuma che galleggia sulla
superficie.
Quest’acqua è molto dettagliata e stilizzata per adattarsi allo stile del
film.
Lo stesso si può dire degli altri effetti visuali usati in Z la formica, come
la polvere, anch’essa caratterizzata da movimenti realistici e un aspetto
stilizzato. Per creare la polvere che si vede in più di 200 scene, il team
degli effetti si è ancora affidato a Dynamation, uno dei pochi programmi
commerciali usati nel film.
Effetti come le onde di calore e i lens flare, invece, sono stati creati con
gli strumenti proprietari di manipolazione 2D delle immagini della PDI.
Una delle tecniche usate è stata l’animazione con morphing, non per
effettuare trasformazioni, ma semplicemente per muovere pixel in modo
da aggiungere atmosfera e dare un senso di profondità a una scena.
254
Come capita spesso nei film dal vivo e nell’animazione tradizionale, la
PDI ha usato il matte painting principalmente per le scene in campo più
lungo e, in questo modo, ha risparmiato ore di tempo per la
modellazione e il rendering.
L’alta fedeltà di questi disegni di sfondo usati in Z la formica è
opportunamente bilanciata dal grande dettaglio delle texture map
disegnate usate sui personaggi 3D e gli altri oggetti in primo piano.
Applicando ancora una volta una tecnica spesso utilizzata nei film
ripresi dal vivo per dare alle creature un aspetto più realistico, per tutte
le texture lo studio si è affidato ai disegni fatti a mano, invece che a
shader.
Z-4195 ha richiesto un anno di lavoro e più di 3 mila disegni.
Una volta deciso il design di Z, il personaggio è stato scolpito in creta,
digitalizzato, modellato, arricchito dei controlli d’animazione dai direttori
tecnici e inviato agli animatori. Gli altri sette personaggi principali e dieci
operai/ soldati generici hanno seguito la stessa evoluzione, anche se la
fase di design iniziale è stata molto più veloce dopo aver approvato il
design di Z.
L’animazione facciale
Gli animatori della PDI possono ora scegliere un sistema molto
dettagliato che offre un controllo completo, oppure un sistema meno
dettagliato che è più veloce e più facile da usare. Il sistema dettagliato,
che manipola i muscoli di un modello anatomico della faccia, ha almeno
300 controlli, secondo quanto riporta Hofer. “Il punto di partenza sono i
singoli muscoli della faccia”, afferma. “Ovviamente, non forniamo agli
animatori 300 controlli...”.
Agli animatori, infatti, viene offerta una combinazione di controlli che,
per esempio, fanno alzare un sopracciglio, allargano l’occhio, dilatano
le pupille. “Abbiamo molti controlli per gli occhi”, riporta Hofer,
descrivendone uno che trova particolarmente interessante: “Quando il
bulbo oculare ruota, trascina leggermente la palpebra.
Se quel movimento non c’è, non se ne sente la mancanza, ma quando
c’è, aumenta la ricchezza del momento”.
Il supervisore dell’animazione Rex Grignon è d’accordo. “La prima cosa
che si guarda sono gli occhi del personaggio”, sostiene. “Gli occhi sono
la cosa più difficile da gestire e anche quella che dà più soddisfazione”.
Grignon lavora alla PDI fin dal 1988, a parte 15 mesi durante i quali è
passato alla Pixar per lavorare su Toy Story, per poi ritornare alla PDI
nel 1996. Per Z la formica, ha lavorato principalmente sul cattivo della
storia, il Generale Mandibola, un personaggio che gli è piaciuto
particolarmente, perché l’intensità del generale rappresentava
un’interessante sfida di animazione.
“Un grande attore può dire una cosa e dare l’impressione che nella sua
testa stia pensando a tutt’altro”, dice il regista Darnell. “Per raggiungere
255
questo risultato con un personaggio animato, avevamo bisogno di un
discreto livello di controllo”.
Ed è proprio quello che secondo la PDI viene offerto dal suo sistema di
human animation.
Per creare un’animazione facciale dettagliata, gli artisti della PDI per
prima cosa utilizzano una traccia di fonemi per ottenere la corretta
posizione della bocca al momento giusto. Poi, manipolano i controlli dei
muscoli per creare la giusta espressione facciale nel tempo. Infine, i
fonemi vengono ritoccati.
“Talvolta, i fonemi possono non risultare corretti”, dice Hofer, “quindi gli
animatori possono ritoccarli senza cambiare l’espressione. La
possibilità di stratificare l’animazione in questo modo, in particolare per
il volto, è molto importante”.
Dato che questo livello di dettaglio non è sempre necessario, la PDI ha
sviluppato un secondo sistema di animazione facciale, meno “costoso”
da usare (alla PDI, vengono spesso descritti i sistemi e i processi in
termini di costi. Per Antz, il costo è principalmente il tempo). “Animare
usando tutti quei controlli è molto costoso, a causa del tempo richiesto
per capire come usarli”, spiega Hofer. “Per i personaggi secondari,
abbiamo realizzato un sistema che è più economico, perché è più facile
da impostare”. Questo sistema usa l’interpolazione delle forme e le
deformazioni, invece del controllo diretto dei muscoli per animare i volti.
I modellisti costruiscono prima le forme; l’animazione viene creata
usando un sistema di deformazione che mescola le forme predefinite.
“Abbiamo ridotto i controlli e aggiunto un altro livello di semplicità”. In
modo simile, i controlli per il corpo delle formiche vanno da quelli che
offrono movimenti dettagliati, a quelli che usano macro ed espressioni
per aiutare gli animatori a creare movimenti in modo quasi automatico.
Di quest’ultima categoria fanno parte i controlli dinamici delle antenne,
che le muovono usando quella che Hofer chiama “falsa fisica”. Anche
così, le antenne possono comunque essere animate con i keyframe
quando sono importanti per la scena.
Lo stesso approccio usato per l’animazione, che offre un livello di
automazione più o meno spinto a seconda dell’importanza dei
personaggi nella scena, è stato utilizzato anche dai direttori tecnici che
hanno lavorato sui simulatori di folle.
Piccole folle
“Una delle grandi sfide di questo film è che dovevamo animare molte
formiche, ma allo stesso tempo avevamo bisogno di flessibilità”, spiega
Luca Prasso, un italiano che è direttore tecnico senior dei personaggi e
responsabile tecnico per le scene di folla.
“Dovevamo animare molte situazioni, da un gruppo di personaggi
secondari sullo sfondo a migliaia di formiche in una scena di battaglia.
Dovevamo animare folle di formiche in un bar... formiche che ballano...
256
formiche che combattono”. Come i direttori tecnici che hanno lavorato
sul sistema di animazione facciale, quelli responsabili delle folle hanno
creato due tipi di sistemi di gestione. Un sistema fonde insieme una
serie di tipi di corpi e movimenti e viene usato principalmente per folle
composte da meno di 50 formiche.
Un secondo sistema offre agli animatori un minor controllo e più
automazione, e viene usato per folle più grandi. “Abbiamo fatto il conto,
trovando più di 500 scene che utilizzano il sistema di gestione delle
folle”, riporta Juan Buhler, animatore senior degli effetti. “La scena
record è quella con 60 mila formiche, ma il solo limite è quando finiamo
i pixel”, spiega. “Più del 50 per cento delle sequenze comprendono più
di 100 formiche”, aggiunge Jonathan Gibbs, animatore degli effetti e
sviluppatore. “Gestiamo formiche soldato che marciano e formiche
operaie che scavano, trascinano e socializzano”.
Per le sequenze con piccole folle, i direttori tecnici hanno creato un
sistema di 'blending', partendo dal sistema di human animation.
“Dovevamo includere lo stesso tipo di controlli offerti dai personaggi
principali”, racconta Prasso. “A questi, abbiamo aggiunto la possibilità di
creare variazioni di forma, tipo di corpo e movimento”. Con il sistema di
blending, i direttori tecnici possono mescolare e far corrispondere varie
teste a diversi tipi di corpo, creando migliaia di variazioni, e poi mixare
cicli di movimento per animare i personaggi. I cicli di movimento, che
vengono creati con animazione in keyframe, includono azioni come
camminare, combattere con una lancia, bere birra, danzare e correre.
“Abbiamo realizzato più di 200 cicli fatti a mano”, riporta Gibbs. “Con il
sistema di blending, possiamo trasformarli in 2 mila cicli diversi”.
Prasso spiega: “Possiamo costruire nuovi movimenti partendo da quelli
esistenti. Creiamo piccole variazioni con controlli di comportamento”. I
direttori tecnici dell’animazione possono 'comandare' a un
personaggio di camminare fino a un punto particolare e poi iniziare a
correre; se il personaggio è in salita, il sistema ne cambierà la postura
per fare in modo che la formica sia inclinata in avanti. Inoltre, il sistema
genera automaticamente transizioni tra i cicli di movimento. “Il sistema
analizza animazioni differenti e sincronizza due azioni per produrre
transizioni, in modo che un personaggio passi da un’azione all’altra”,
dice Prasso. “Non ha un generatore di movimenti, ma strumenti per
modificare i movimenti preesistenti in modo da creare transizioni e
introdurre piccole variazioni”. Per esempio, se l’animatore ha bisogno di
animare una folla che guarda una partita di calcio, creerà un movimento
base per girare la testa e userà il sistema di blending per creare le
variazioni. “Abbiamo voluto un sistema molto generico, in modo che gli
animatori potessero controllare i risultati.
257
Grandi folle
Il secondo sistema di gestione delle folle usato per Z la formica è un
simulatore basato su regole. “Quando ci sono più di 50 personaggi, il
sistema di blending può risultare troppo costoso in termini di
produzione, quindi ci affidiamo a un simulatore di folle per riempire
l’ambiente con formiche”, dice Gibbs.
Una qualsiasi scena può avere formiche animate con entrambi i sistemi.
Il simulatore di folle usa gli stessi cicli di movimento del sistema di
blending; in effetti, il sistema di blending crea le variazioni e le
transizioni che vengono usate dal simulatore.
La coreografia delle formiche animate con il simulatore di folle, però, è
controllata da regole.
“La simulazione di comportamento è ispirata al sistema di flocking di
Craig Reynolds, con un’importante variante per la produzione: la
velocità dipende dai cicli di movimento, non dal simulatore”, spiega
Buhler. “I cicli di movimento sono il solo controllo che abbiamo sul
movimento”. Il resto è compito del simulatore.
Aggiunge Gibbs: “Gli animatori di personaggi possono raggiungere il
livello di complessità desiderato, ma fondamentalmente le formiche
evitano da sole gli ostacoli, si evitano l’una con l’altra e hanno un
obiettivo che cercano di raggiungere nell’ambiente in cui si muovono”. Il
simulatore può lavorare con le formiche posizionate su un piano con
campi di altezza; questo piano viene poi mappato sulla geometria
dell’ambiente. Per posizionare le formiche sul piano in modo casuale,
gli animatori disegnato una mappa di densità che regola il flusso e la
distribuzione.
Per collocare le formiche in modo più uniforme, gli animatori possono
usare una griglia. Il simulatore può anche fare in modo che le formiche
seguano un percorso lineare; per esempio, è possibile creare una
colonna di formiche che camminano lungo i bordo di un muro. Per
creare questo percorso, è sufficiente disegnare una curva nello spazio.
Naturalmente, ogni volta che si usa un simulatore per creare
un’animazione, i risultati non sono prevedibili.
“Spesso otteniamo qualcosa d’inaspettato”, racconta Gibbs. “Qualche
volta è un vantaggio. In un caso, c’era una formica che ha girato la
testa verso la telecamera e ha sorriso. L’abbiamo lasciata”. Buhler
precisa: “Ogni formica ha un numero, quindi se non ci piace quello che
sta facendo, possiamo estrarla e ucciderla, oppure possiamo usare i
keyframe per modificarne il movimento”. Quando un animatore sta
lavorando con un personaggio di 10 pixel, non ci sono molte sfumature
nel movimento. Tuttavia, “se quei 10 pixel non cambiano e non si
muovono in modo credibile, il cervello si accorge che c’è qualcosa di
sbagliato”, osserva Prasso.
Con la flessibilità che i direttori tecnici hanno integrato nel sistema della
PDI, questo non è un problema.
258
Il protagonista di Z la formica può anche far fatica a trovare la propria
individualità, ma gli animatori che lo hanno creato non condividono quel
problema, almeno in termini artistici.
È infatti evidente che gli strumenti che hanno a disposizione permettono
di soddisfare le loro esigenze individuali.
259
BUG,S LIFE
John Lasseter, 1998
Tre anni fa, la Pixar Animation Studios ha raggiunto nuovi traguardi in
campo cinematografico e nella computergrafica quando la Walt Disney
Feature Animation ha distribuito Toy Story, il primo lungometraggio
creato unicamente in computergrafica 3D. Quel film, che ha
rappresentato un enorme successo estetico, tecnico e commerciale, ha
coronato un grande sogno delle persone della Pixar, molte delle quali
hanno lavorato insieme per 20 anni contribuendo a creare e definire il
mezzo espressivo dell'animazione 3D.
Toy Story ha incassato 360 milioni di dollari al botteghino in tutto il
mondo (ossia 612 miliardi di lire, di cui 13 in Italia) e ha venduto 22
milioni di videocassette solo negli Stati Uniti (un milione in Italia).
Bug's Life (sottotitolo italiano: Megaminimondo), è il secondo
lungometraggio frutto della collaborazione Disney/Pixar.
Da tutti i punti di vista, la Pixar ha compiuto di nuovo una grande
impresa, mettendo insieme una sceneggiatura divertente con
un'animazione deliziosa e immagini straordinarie.
Quando alla Pixar hanno iniziato a pensare al secondo film, una cosa
era chiara a tutti: volevano fare qualcosa di diverso da Toy Story. “Alla
Pixar c'è uno spirito pionieristico”, dice John Lasseter, filmmaker
vincitore di premi Oscar che ha diretto Toy Story e codiretto Bug's Life.
“Non potevamo fare ancora la stessa cosa”, continua. E, in effetti, tutto
nel secondo film della Pixar sembra differente e più grande del primo.
In Toy Story erano protagonisti personaggi costruiti dall'uomo che
vivevano in un mondo costruito dall'uomo. Bug's Life è un'allegra
cavalcata attraverso un mondo organico, lussureggiante e animato
pieno di formiche buone e cavallette cattive, un cast internazionale
d'insetti di un circo di passaggio, e un gruppo organizzato d'insetti di
città che vivono tra i rifiuti riciclati sotto un rimorchio.
La Pixar fa vedere attraverso gli occhi di un insetto un mondo pieno di
colori e di particolari riccamente rifiniti, con un'attenzione ai dettagli
affascinante e complessa.
Inoltre, il film è stato realizzato in Cinemascope widescreen, in modo da
riempire ancora meglio gli occhi con la sua densità visuale. La
ricchezza dei personaggi, l'illuminazione fenomenale, il nuovo modo in
cui le superfici interagiscono con la luce...
Non si cerca di raggiungere il realismo, ma si tenta di soddisfare il
desiderio di complessità del nostro cervello. C'è una ricchezza che ci
piace vedere, e che soddisfa l’intelletto.
L'idea della storia di Bug's Life è nata durante un pranzo tra Andrew
Stanton, coregista, e Joe Ranft, responsabile della storia, nel luglio del
'94. Hanno iniziato a parlare delle Favole di Esopo, e in particolare de
La cicala e la formica.
260
In questa favola, una formica mette da parte il cibo per l'inverno mentre
una cicala danza sotto il sole. Quando arriva l'inverno, la cicala non ha
cibo da mangiare, portando quindi alla morale: è meglio prepararsi per i
giorni di bisogno. La reazione di Stanton è stata che questa morale non
corrisponde alla sua impressione sul mondo naturale di tipo 'insettomangia-insetto'. “Se fossi la cicala, mi unirei ai miei compagni e
comincerei a prendere a calci tutti gli altri”, commenta, e la storia della
Pixar, che inizia con una colonia di formiche che offre sacrifici regolari
di cibo alle cavallette malvagie, nasce da quell'idea.
Per i due anni successivi, vari team della Pixar hanno preparato il
terreno per la produzione effettiva del film, un processo che avrebbe
richiesto altri due anni.
Lasseter, Stanton e Ranft hanno scritto la sceneggiatura, e Ranft e un
team di otto persone hanno iniziato a convertire la sceneggiatura in
disegni, producendone alla fine più di 27 mila. “È una storia
complessa”, dice Ranft. “Non si parla di due persone in conflitto; è una
storia di varie comunità... le formiche, gli insetti del circo, il cattivo e la
sua banda”.
Una delle formiche, Flik, è un incorreggibile inventore che fa un sacco
di pasticci, incluso uno gigantesco: la sua macchina per la raccolta dei
semi fa cadere il cibo sacrificale dall'altare, facendo infuriare le
cavallette.
Per questo motivo, Flik è costretto a caricarsi sulle spalle il suo sacco a
pelo (una foglia) e lasciare la colonia dell'Isola della Formiche.
Per attraversare il letto del fiume, afferra lo stelo di un seme di dente di
leone che galleggia nell'aria e vola fino all'altra sponda. Qui, si imbatte
in alcuni insetti del circo di P.T. Flea che stanno inscenando un
combattimento.
Flik pensa di aver trovato i guerrieri che aiuteranno la sua colonia a
combattere le cavallette e a fare di lui un eroe, ignaro del fatto che la
mantide religiosa, la falena, la coccinella e altri insetti fanno parte di un
gruppo nomade d'intrattenitori.
Per parte loro, gli insetti del circo, che sono stati appena fischiati da un
pubblico di mosche, pensano che Flik stia offrendo loro un lavoro.
E la storia prende le mosse da qui.
Quando la storia è stata perfezionata e tradotta in storyboard, gli artisti
hanno iniziato a lavorare al design dei personaggi e del set, e lo staff
tecnico ha iniziato a creare strumenti che avrebbero reso possibile il
tutto.
Circa il 40 per cento dello staff di 180 persone che hanno lavorato su
Bug's Life sono artisti, 40% tecnici e il restante 20% manager.
Inoltre, questo staff è stato supportato dai tecnici di riversamento in
pellicola, sviluppatori software di RenderMan e dal reparto degli
strumenti di animazione della Pixar. Anche se lo studio usa alcuni
pacchetti commerciali, in particolare il software di modellazione della
Alias/Wavefront, il software di painting Amazon della Interactive Effects
261
e naturalmente il proprio software RenderMan, la maggior parte degli
strumenti usati dagli animatori e artisti sono proprietari, sviluppati
unicamente per l'uso interno. Questi strumenti includono: il software di
animazione prima noto con il nome di MenV e ora battezzato
Marionette, un pacchetto di painting 3D, le superfici di suddivisione
prima usate dalla Pixar per il cortometraggio vincitore di un Oscar,
Geri's Game, e tantissimi strumenti d'illuminazione e shader proprietari.
Tutti gli strumenti interni hanno subito modifiche per tenere conto dei
requisiti di questo film.
“Alcuni tecnici hanno costruito una piccola telecamerina e l'hanno
montata all'estremità di un bastoncino con le ruote”, spiega Lasseter.
Hanno fatto muovere la telecamera in vari esterni e, come ci si
aspettava, un po' di sporco su un marciapiede diventava una roccia
gigantesca. Ma, poi, la telecamera ha riservato una sorpresa: un mondo
più bello di quello che avevano immaginato.
“Era così eccitante, il mondo era così traslucido”, racconta Lasseter.
“Ogni filo d'erba, ogni fiore... il sole splendeva attraverso di essi.
Era come se ogni edificio nel nostro mondo fosse fatto di vetro colorato.
È stata una grande fonte d'ispirazione.
Abbiamo anche scoperto che a quel livello c'è un movimento costante,
e anche il movimento ha rappresentato un'importante fonte
d'ispirazione”.
Di conseguenza, il mondo di Bug's Life è pieno di semitrasparenze e di
movimento. Sugli alberi oscillano foglie traslucide mosse dalla brezza,
l'erba ondeggia al vento. L'intensità del colore e la quantità di
movimento sono controllate dalla storia. “In una scena carica e agitata,
c'è più vento; nelle scene più calme, il vento è più debole”, spiega
Lasseter. “Tutto in questo mondo è stato creato con una chiara visione
di com'è collegato alla storia: il colore della luce, il design del mondo
sono stati tutti progettati per supportare la storia”.
La supervisione dei modelli di quel mondo è stata affidata a Eben
Ostby, che condivide il titolo di direttore tecnico supervisore con
Reeves.
Per gli insetti, ha iniziato con i design creati da Bob Pauley, designer
dei personaggi; e per le scenografie, con i design di Bill Cone, designer
di produzione.
“Abbiamo creato 672 modelli, ma naturalmente questo non è il numero
di oggetti del film”, precisa Ostby. Per esempio: “una formica maschio
può venire utilizzata in dozzine di modi diversi, e tre modelli possono
rappresentare migliaia di fili d'erba”.
In termini di personaggi, le specie principali d'insetti sono le nove
varietà d'insetti del circo; quattro per le formiche, Flik, la principessa
Atta, la principessina Dot, e la Regina; Hopper, il cattivo, e suo fratello
Molt.
Ci sono anche molti insetti con piccole parti. La Regina culla un piccolo
afide con un braccio come se fosse un cagnolino giocattolo.
262
Vari scarafaggi dipinti di giallo con piccoli scacchi neri fungono da taxi a
Bug City. Una zanzara ordina una goccia di sangue 0-positivo al Bug
Bar. Una lumaca nello stesso bar sbava dalla bocca quando
accidentalmente gli viene servito un bicchiere con del sale sull'orlo.
Larve di lucciole illuminano gli ambienti di Bug City. Anche la tenda del
circo è illuminata dalle lucciole.
Modellazione e animazione
Ognuno dei 15 personaggi principali ha da 2 mila a 3 mila controlli
utilizzabili per l'animazione, l'illuminazione e lo shading; alcuni ne hanno
ancora di più. Quell'attenzione ai dettagli è stata estesa anche ai
modelli nel design della scenografia. Tutti i particolari incidentali sono
stati costruiti in scala rispetto al punto di vista di una formica. Di
conseguenza, una delle difficoltà nella creazione di questa visuale
ravvicinata di un mondo microscopico è stata quella di trovare indizi
visivi che suggerissero al pubblico che cosa stava guardando.
In questo modo, una scatola di biscotti per cani diventa un carrozzone
da circo, un ombrello è il tendone del circo, e il collare di un cane forma
l'anello del circo all'interno della tenda.
Una lattina arrugginita può contenere il bar di Bug City; la suggestiva
luce blu che filtra dai fori della lattina proviene da un ammazza-zanzare.
I segnali stradali di Bug City sono lucine di Natale rosse e verdi
controllate da lucciole che si spostano da una all'altra. Un cappello di
paglia è stato trasformato nel covo della cavalletta.
Un team di effetti visuali ha controllato il movimento dell'ambiente e
delle folle di formiche, e gli animatori hanno gestito la recitazione dei
personaggi e offerto i cicli di animazione per le folle. Con l'ultima
versione di Marionette, gli animatori possono lavorare con più
personaggi sullo schermo in un ambiente che include i principali
elementi del paesaggio.
Il lavoro di animazione è iniziato nella primavera del '97 con 28
animatori. Quando è stato terminato, al film stavano lavorando 40-50
animatori. I personaggi cattivi sono stati animati con le caratteristiche
più vicine agli insetti; gli insetti buoni assomigliano più a esseri umani.
La gestione delle folle
Con 430 scene che includono folle di formiche, uno dei problemi che
dovevano essere risolti era come animare centinaia di formiche senza
perdere completamente la personalità dei singoli individui. “Guardando
la formica numero 20, volevamo che fosse diversa dalla formica
numero 23”, spiega Stanton. “C'è per esempio la famiglia di Flik: sono
individui in pericolo, e più danno l'impressione di sentirsi una comunità,
più ci preoccupiamo di quello che succede loro”. Quindi, hanno dovuto
263
trovare il modo di creare centinaia di formiche-comparse dotate di una
propria intelligenza.
Ci sono tre modi per animare le folle, animare ogni personaggio a
mano; creare creature autonome e intelligenti; o fare qualcosa
d'intermedio.
Queste formiche vengono viste mentre combattono, marciano in
colonna e danzano. Il compito di animare le folle è stato suddiviso tra
'animatori di folle' e 'direttori tecnici delle folle'. Gli animatori hanno
creato librerie di movimenti, cioè brevi spezzoni di animazione che
vengono raccolti nelle cosiddette 'A-lib', o 'librerie di animazione'.
Questi spezzoni vengono poi applicati dai direttori tecnici ai singoli
personaggi in CG di una folla in modo procedurale, stocastico o semicasuale. Per esempio, se il regista vuole avere una folla di formiche che
camminano all'inizio di una scena e poi corrono alla fine, usa tre set di
A-lib: uno per la 'camminata', uno per le transizioni, e un terzo per la
corsa. Nella A-lib per la camminata, il direttore tecnico può prendere
spezzoni di animazione progettati per ritrarre formiche nervose, che
vanno da quelle spaventate, a quelle prese dal panico, a quelle
'completamente fuori di zucca', come dice Reeves. Questi spezzoni
possono durare da 24 a 72 fotogrammi, cioè da uno a tre secondi. Uno
spezzone 'nervoso' può fare in modo che una formica guardi a destra e
a sinistra, un altro può far giocherellare con le mani davanti al corpo, un
terzo può far infilare le dita in bocca. "Noi distribuiamo quegli spezzoni
tra la folla, poi cicliamo da uno all'altro", dice Reeves.
Ecco come spiega il processo:
Trovando ignominioso il suo ruolo di clown del circo, lo stecco Slim
riflette sul suo destino. Nonostante la sua apparente semplicità, Slim è
rappresentato da un modello complesso, com'è avvenuto per Buzz e
Woody di Toy Story.
Per trasformare Slim da modello dall'aspetto metallico a stecco che
cammina, il team degli shader ha usato una combinazione perfetta di
paint 3D e shader procedurali. “Prendiamo per esempio una scena
nella quale abbiamo bisogno di una folla di formiche che segue un eroe
che parla. La folla sta guardando. Utilizziamo una visuale dall'alto e
selezioniamo uno strumento di posizionamento per disegnare lo
schema di dove vogliamo la folla”.
Questo strumento permette a un animatore o direttore tecnico di
disegnare una mappa di densità che definisce dove posizionare le
formiche, o creare un'area geometrica, come un rettangolo, nella quale
piazzare un gruppo d'insetti. “Quando abbiamo il layout, impostiamo gli
stati iniziali delle formiche e specifichiamo per quanti fotogrammi i
personaggi useranno un set particolare di A-Lib e transizioni”.
“Fred ci offre varie opzioni”, continua, “ma molto spesso lasciamo che
ogni formica scelga a caso il suo stato iniziale”. Per esempio, se un
direttore tecnico ha scelto sei tipi di A-lib 'nervose' per la folla, ogni
formica seleziona a caso un ciclo di movimento e un fotogramma da cui
264
partire. “Anche nelle scene dove tutte le formiche devono fare la stessa
cosa, non vogliamo comunque esattamente lo stesso movimento,
quindi facciamo in modo che scelgano in un intervallo di fotogrammi
che può andare dal numero 40 al 48”. Il sistema Fred integra forze e
turbolenze per far sembrare realistici i movimenti, rilevamento delle
collisioni, la possibilità di definire percorsi di movimento creati
disegnando spline nello spazio 3D, e tecniche di 'pseudo-flocking' per
controllare la direzione delle formiche, ma anche così, qualche volta il
movimento non è perfetto.
“Dato che siamo a livello delle formiche, il terreno è una superficie
complicata, le piante sbarrano la strada, i sassi rotolano; tutte cose
belle, ma è complicato applicare i movimenti della A-Lib che sono stati
costruiti su una superficie piana”, dice Reeves.
Il sistema non cerca di tenere conto del terreno; sono i direttori tecnici
che scelgono le A-Lib appropriate, come per esempio quelle con
formiche che si inclinano in avanti, se stanno scalando una collina.
“La folla media è costituita da circa 150 individui, anche se verso la fine
del film ci avviciniamo al migliaio. In alcune delle scene ci sono
formiche grandi 10 pixel, ma spesso occupano metà dello schermo,
come i personaggi principali.” Quando il sistema ha generato il
movimento della folla, un animatore o un direttore tecnico può ancora
modificare il movimento di una singola formica.
L'acqua e il vento
Il team degli effetti della Pixar ha creato un simulatore di acqua,
battezzato Rainman, per far scendere quelle che gli esseri umani
chiamerebbero gocce di pioggia, ma che le formiche considerano
bombe d'acqua.
Hanno usato marker virtuali per controllare la forma, dimensione e
volume dell'acqua. Inoltre, il team degli effetti ha dovuto creare fulmini,
fuoco, fumo e vento.
Ogni modello di vegetazione, in tutto una trentina, aveva controlli di
animazione che potevano influenzare la direzione e la velocità del
vento.
In Bug's Life, tutto nell'Isola delle Formiche si muove, quindi ogni
fotogramma è diverso.
Mentre animatori, artisti e direttori tecnici usano workstation Silicon
Graphics sulle loro scrivanie, la stanza della "render-farm", dove
vengono effettuati tutti i calcoli per produrre le immagini finali, è piena di
macchine della Sun Microsystems.
Con 24 fotogrammi al secondo, e l'immensa quantità di dati richiesta
per creare l'immagine di ciascun fotogramma, diventa evidente il perché
hanno bisogno di una tale potenza di elaborazione.
Il file RIB medio è grande 1,5 GB per fotogramma; il fotogramma medio
contiene 1.000 texture map, tutto per aggiungere ricchezza visuale (un
265
file RIB contiene la descrizione della scena usata per renderizzare
un'immagine usando RenderMan).
Un nuovo modello d'illuminazione
Per un film come Bug's Life, la storia dev'essere considerata la cosa più
importante.
Al secondo posto, forse, viene l'animazione che rende viva la storia.
Ma quello su cui si concentra l'attenzione è guidato dalle luci, e quello
che viene rivelato dalle luci sono gli shader (procedure scritte in
RenderMan Shading Language usate per calcolare i valori necessari
durante il rendering per creare l'aspetto delle superfici visibili). È in
questo campo che i direttori tecnici e gli artisti della Pixar hanno
introdotto gran parte delle innovazioni in Bug's Life.
Normalmente, la luce viene riflessa dalla parte frontale di un modello,
mentre quella posteriore rimane scura. I tecnici software, hanno
impostato gli shader in modo da riuscire a creare le trasparenze e dare
all'immagine un aspetto più pittorico.
Quindi, il team dell’illuminazione ha passato molto tempo a ripensare
come funzionano le luci e come agiscono sulle superfici.
Per esempio, la distribuzione di triadi di colori usati su un modello
cambia a seconda delle varie angolazioni di occhio, luce e superficie.
La Pixar ha usato il modello d'illuminazione per aggiungere iridescenza,
naturalmente, e per aggiungere variazione.
Non vedremo vaste distese di colore come quelle di Toy Story, c'è
sempre qualche variazione e, a seconda dell'angolazione con la quale
guardiamo le cose, esse assumono un aspetto diverso. Oltre a questo
comportamento fuori asse, il modello d'illuminazione presta anche
attenzione alla luce che proviene da dietro.
L'illuminazione principale del film è stata gestita usando il nuovo
modello d'illuminazione creato da Sayre. Insieme a lei c'erano 35
persone che hanno dovuto gestire condizioni di luce che variavano da
sole brillante a scene sottoterra illuminate da muschio fosforescente; da
raggi di luce diurna che filtrano attraverso un cappello di paglia alla
scena di un bar di notte con la luce della Luna che filtra dai fori in una
lattina.
La scena più complessa, comunque, è stata probabilmente quella di
notte con fulmini, fuoco e pioggia. Oltre alle luci, il team ha usato
shader atmosferici, per esempio, per aggiungere uno strato di nebbia in
modo da focalizzare l'attenzione su particolari aree di una scena.
266
Texture dettagliate
Gli shader vengono anche usati per creare texture, e in questo campo,
Sayre ha lavorato insieme a Tia Kratter, direttore artistico degli shader.
Il lavoro di Kratter parte da una cattura a schermo di un modello 3D di
un personaggio, che viene poi ingrandito, tracciato e disegnato.
Una volta deciso l'aspetto della versione shaded, Kratter e Sayre
determinano che cosa dev'essere gestito in modo procedurale e che
cosa dev'essere disegnato. I risultati migliori si ottengono quando le due
tecniche vengono combinate insieme.
Mettendo insieme shader e disegni, il team ha aggiunto dettagli
complessi a superfici relativamente piatte e geometriche, che vanno da
quelle piccole come l'occhio di un insetto a quelle vaste come il terreno
di un intero paesaggio.
Il dorso di Hopper, per esempio, è una superficie relativamente piatta
fino a quando non viene applicata la texture, dopo di che risulta piena di
sporgenze e spine. La presenza delle spine e la loro forma complessiva
è stata creata da un disegnatore usando il programma di paint 3D
interno della Pixar; uno shader controlla come ogni spina viene curvata
per seguire la superficie.
In modo simile, gli occhi del personaggio principale sono un modello
semplice; la pupilla, l'iride e la cornea vengono creati da uno shader. La
luce arriva, si piega attraverso la cornea e la vediamo quando colpisce
l'iride interno.
L'iride è stata disegnata da un painter, ma lo shader sa come applicarla
e deformarla in modo che quando gli occhi si dilatano, si vede l'iride che
si ritira. Senza shader, il terreno sembrerebbe una semplice superficie
con qualche roccia sparsa qui e là.
Quando viene applicato lo shader, il terreno diventa pieno di rocce di
dimensioni decrescenti mentre raggiungono l'orizzonte.
Quando ci si avvicina, si possono vedere le singole rocce, e se si
avvicina ancora di più, si vede che tra le rocce c'è della polvere. Anche
quando le si vede a grandi distanze, si possono comunque scorgere
dettagli. Quindi, i direttori tecnici hanno potuto avvicinare la telecamera
fino a inquadrare le spaccature del fango secco nel letto di un fiume in
una scena d'inseguimento molto veloce, e poi carrellare all'indietro per
seguire l'azione mentre si sposta nel cielo. Quando la telecamera si
insinua in una spaccatura tra zolle di fango, si vedono piccoli sassi
ficcati nelle parti laterali, e fori dove sono caduti alcuni dei sassi più
grandi; quando la telecamera si alza sopra il terreno, si vedono quadrati
di fango secco in lontananza.
In tutto, il team dedicato ha scritto 583 shader, e i painter hanno
disegnato più di 10 mila texture 3D.
Molte di queste texture sono state utilizzate per creare i vari colori,
venature e macchie sulle migliaia di foglie usate nel film. Lo shader più
267
complicato è stato usato per Hopper; quello più grande è stato scritto
per il letto del fiume.
Il team della Pixar si è spinto molto lontano, il dettaglio è molto accurato
e lo spettatore attento riesce persino a vedere le venature di una foglia
in contro luce.
Tutti questi piccoli-grandi dettagli abbelliscono la scena e
contribuiscono alla riuscita del film. Quando si guarda questo film e si
cerca d'immaginarlo realizzato in qualsiasi altro modo, non ci si riesce.
Grazie all’ottimo lavoro di artisti, tecnici, modellisti e animatori, il
lungometraggio della Pixar è riuscito ad incantare anche un pubblico
più adulto, e di questa magia, io personalmente ringrazio.
268
IL PRINCIPE D’EGITTO
Bill Schultz,1998
Immaginate di creare un mondo con bei dipinti, disegni e illustrazioni e
poi usare quel mondo come una scenografia virtuale per un film, nel
quale gli stessi personaggi sono dipinti e disegni. Invece di creare un
realismo fotografico, stareste filmando una storia all’interno di un
mondo sintetico e artistico.
Se tutto questo vi sembra un nuovo genere potenziale di film, allora
siete d’accordo con Dan Philips, supervisore degli effetti visuali alla
DreamWorks SKG (Glendale, CA, USA), che ritiene che si stia
evolvendo una nuova forma di produzione cinematografica. “Stiamo
portando avanti le tradizioni e la passione per la linea e le superfici
dipinte rispetto all’animazione classica, unendole alle possibilità di una
telecamera molto simile a una macchina da presa reale”, afferma
Philips. “Stiamo muovendo una telecamera virtuale nello spazio
tridimensionale e portando in quello spazio elementi artistici tradizionali
che combiniamo con oggetti 3D, animazione 3D, sistemi di particelle...
Questa sovrapposizione sta producendo film che sembrano girati dal
vivo, ma che hanno un look diverso”. Uno dei primi utilizzi, di una
telecamera virtuale nello spazio tridimensionale in un lungometraggio
animato, è stato la scena della sala da ballo nel La Bella e la Bestia
della Walt Disney (1991), e da allora sono stati usati oggetti, personaggi
e scenografie 3D in molti film d’animazione.
Ma con Il Principe d’Egitto, un musical a cartoni animati basato sulla
storia di Mosè che rappresenta il primo film d’animazione “tradizionale”
della DreamWorks, Philips ritiene che la sua società di produzione stia
iniziando a raggiungere un’integrazione perfetta di effetti in
computergrafica 2D, 3D e animazione tradizionale (o cel animation)
che, quando combinati con una telecamera virtuale “dal vivo”,
cominciano ad avvicinarsi alla nuova forma d’arte da lui immaginata.
Per raggiungere questo obiettivo, il team della DreamWorks ha usato
software commerciale, lo ha potenziato, ha creato un nuovo software e
sfruttato in modo innovativo i processi tradizionali. Per fare in modo che
le scene epiche 3D e gli effetti in computergrafica 2D fossero
esteticamente omogenei col resto del film, gli animatori hanno aggiunto
a quelle scene elementi disegnati a mano. E, per creare una
progressione naturale della complessità visuale che portasse alle
grandi scene 3D, gli animatori hanno iniziato aggiungendo in tutto il film
piccoli pezzi di computergrafica 2D e 3D alle scene disegnate a mano.
Per esempio, durante una delle scene del prologo, la telecamera segue
la regina nel palazzo e poi, simulando una carrellata da film dal vivo,
viaggia lungo una fila di colonne, si alza tra le impalcature di una
gigantesca struttura in costruzione, e si libra su un monumento
massiccio per rivelare un panorama del Nilo che si perde in lontananza.
269
La scena inizia come un tradizionale multipiano nel quale sono stati
composti insieme 14 livelli 2D disegnati. Si vedono le singole colonne,
ciascuna separata da un po’ di spazio in modo che si muova a diverse
velocità, mentre la telecamera si alza. La sola cosa che è diversa da
una tradizionale scena multipiano, ed è l’elemento che rende viva la
scena, sono le architravi in cima alle colonne. Queste architravi sono
elementi in 3D e si allontanano dall’osservatore lungo l’asse Z, in
profondità. Portando dolcemente gli spettatori nel mondo 3D.
In quel mondo, la telecamera 3D si muove intorno a pilastri
tridimensionali e attraversa i ponteggi. Sui ponteggi ci sono personaggi
disegnati in 2D che lavorano alla costruzione. La polvere nella scena è
stata creata con un plug-in di computergrafica 2D proprietario per
Animo della Cambridge Systems.
Visualizzare insieme 2D e 3D Per gestire più facilmente le scene con
elementi in 2D e 3D come quella descritta prima, la DreamWorks ha
lavorato con Silicon Studio della Silicon Graphics per creare un nuovo
strumento proprietario di pianificazione e layout delle scene. Battezzato
Exposure, il software offre un ambiente 3D nel quale gli artisti del layout
e i pianificatori delle scene possono mettere insieme disegni 2D di
Animo e oggetti 3D di PowerAnimator o Maya della Alias/Wavefront.
Nelle prime fasi di realizzazione del film, lo scenografo “digitale” può
lavorare con modelli 3D di riferimento e disegni scansiti da rapidi
schizzi. Poi, mentre la scena prende forma, l’artista può sostituire
singoli elementi con versioni più chiaramente definite. Exposure tiene
traccia degli elementi scena per scena, aggiornandoli automaticamente
in tre formati: Animo, Alias e il suo formato proprietario. Guardando una
scena sullo schermo di Exposure, si può vedere un oggetto 3D in
un’area dell’ambiente tridimensionale del programma e vari elementi
che sembrano “cartoncini” di varie dimensioni che stanno davanti, dietro
o anche attaccati all’oggetto 3D; ogni cartoncino può avere un disegno
su una faccia. Questi cartoncini sono i fondali e i personaggi 2D
disegnati in Animo.
Con Exposure, si può muovere liberamente la telecamera per
inquadrare la scena, perché ogni disegno rimane nella sua posizione,
pur conservando il parallelismo al piano di ripresa della telecamera
durante il suo movimento nello spazio tridimensionale.
Di conseguenza, si può pianificare interattivamente i movimenti della
telecamera senza preoccuparsi di distorcere o mostrare i bordi di un
disegno, e si può anche cambiare idea.
Una volta approvate, le scenografie passano alla fase di pianificazione
della scena, dove le idee vengono sviluppate in modo più preciso.
Anche in questo caso, Exposure è diventato fondamentale per integrare
il 3D con il 2D ed è stato anche utilizzato per alcune scene multipiano.
David Morehead, supervisore della pianificazione delle scene, ha
lavorato con Exposure per coreografare l’azione e offrire a ogni reparto
le rappresentazioni delle scene. L’elemento fondamentale di questa
270
operazione è la telecamera di Exposure, che permette di animare gli
oggetti 3D e di poter cambiare successivamente il movimento della
telecamera.
Per esempio, in una scena di corsa con i carri, i carri e la strada dove si
svolge la corsa sono oggetti 3D, mentre i personaggi e i cavalli sono
disegnati in 2D.
I movimenti di camera includono una carrellata tra i personaggi. Prima il
carro è stato animato in Alias e portato in Exposure. Poi gli animatori
dei personaggi hanno messo Mosè e Ramses nei carri: per farlo, hanno
lavorato con rappresentazioni dei carri per ogni fotogramma della
scena. Senza Exposure, l’animatore avrebbe dovuto disegnare il
personaggio in modo da farlo corrispondere al movimento del carro e
da seguire il movimento della telecamera. Questo vuol dire che una
volta finita l’animazione, se si fosse cambiato il movimento della
telecamera, si sarebbe dovuto anche ridisegnare l’animazione.
Con Exposure, l’animatore deve solo mettere il personaggio nel carro; il
personaggio non deve seguire la telecamera.
Ciò significa che è possibile cambiare il movimento della telecamera
dopo ché l’animazione è stata completata.
Dinamica dei fluidi
Questa libertà di movimento della telecamera ha aiutato a rendere vivi i
personaggi disegnati a mano in un ambiente che si comporta come un
ambiente reale, pur avendo l’aspetto di un’illustrazione. All’illusione
hanno anche contribuito gli effetti visuali usati nel film.
Per Il Principe d’Egitto, Patrick Witting, un artista digitale con un
dottorato di ricerca in fluidodinamica e un background di
programmazione al computer, ha scritto più di 100 plug-in per Animo, il
software di cel animation usato per il film.
Uno di questi plug-in, una simulazione di fluidodinamica 2D, è stato
usato per creare fumo, acqua, polvere...
Witting, che sta scrivendo una relazione per descrivere questa tecnica,
ritiene che sia la prima volta che si usa la simulazione di fluidi per la cel
animation.
Ci descrive come l’ha usata per creare fumo sullo sfondo di una scena
con Mosè e due maghi. Ha iniziato con una distribuzione di temperatura
basata sulle variazioni di colore nella scena disegnata. “Potete pensare
a questa regione biancastra nella scena come a un fluido caldo che
vuole alzarsi”. Quando le regioni biancastre si alzano, ci sono flussi di
ritorno lungo i bordi, creando forme esili ed allungate dai colori
turbinanti. Invece di cercare di dirigere e controllare la simulazione,
Witting e Conânn Fitzpatrick, animatore degli effetti in computergrafica
2D, hanno semplicemente portato i dati in Animo e renderizzato ogni
fotogramma della simulazione come un layer individuale.
271
Hanno poi potuto riposizionare ogni layer muovendolo, riscalandolo e
cambiandone i tempi in modo da disporre in modo abile le forme
allungate di colore cangiante intorno ai personaggi disegnati a mano.
“Questa tecnica ci ha aperto le porte a un mondo di nuove possibilità”,
dice Fitzpatrick, che ha iniziato a emulare le forme generate dalla
simulazione con immagini disegnate a mano. “Le forme generate hanno
offerto un look completamente nuovo all’animazione”.
I disegni fatti a mano sono stati aggiunti per omogeneità estetica anche
alle scene create con tecniche 3D, in particolare alla scena epica della
separazione del Mar Rosso. Henry LaBounta, un capo animatore che
ha lavorato alla sequenza del Mar Rosso, sostiene: “L’acqua non
poteva essere disegnata”. Descrive una scena nella quale Mosé alza il
suo bastone, colpisce l’acqua e il Mar Rosso si separa, formando due
gigantesche pareti che aprono un percorso per far passare gli ebrei. “Le
pareti d’acqua dovevano apparire gigantesche e minacciose”, dice
LaBounta. “Jeffrey Katzenberg ci ha detto che gli ebrei dovevano avere
fede per andare avanti”. Per creare l’acqua, l’hanno modellata in 3D in
Houdini e hanno usato texture del mare. La schiuma in cima, invece, è
stata creata usando particelle controllate da disegni realizzati in
Amazon 2D. La cresta dell’acqua è stata generata da un disegno. E gli
spruzzi sono disegni applicati a particelle e animati con un sistema
particellare. Ad attraversare le pareti d’acqua ci sono migliaia di
persone animate con un sistema procedurale sviluppato dalla
DreamWorks.
Per prima cosa, i modelli 3D dei personaggi sono stati renderizzati con
il Toon Shader di Softimage, mentre si muovevano in un ciclo di
camminata in base alle angolazioni richieste dalla scena. In questo
modo, si sono ottenute immagini per diverse posizioni di camminata per
ogni tipo di personaggio. Poi i “cartoncini” (individuati da quattro punti
dello spazio) sono stati renderizzati usando le stesse angolazioni della
telecamera. Infine, le immagini dei personaggi sono state mappate sui
cartoncini. In questo modo, ogni personaggio è diventato un’immagine
su un semplice piano, invece che un complesso modello 3D, ma un
gruppo di queste immagini offriva comunque l’illusione di una folla di
persone.
Grazie a questo lungometraggio si porterà la “cel animation” ad essere
progettata e creata interamente su basi 3D, invece che 2D. Il primo
stadio è stato quello di forzare un modulo 3D in un tradizionale sistema
2D e comporre insieme i risultati. Il secondo stadio, è quello di portare
gli elementi 2D e 3D in un luogo tridimensionale neutrale nella fase di
design, dov’è possibile vedere i due tipi di elementi insieme e apportare
aggiustamenti nell’animazione e nella composizione, per poi comporre i
risultati finali nel sistema 2D.
Penso che il prossimo passo sarà quello di creare tutto il 2D all’interno
di un ambiente 3D, conservando la possibilità di comporre e ottenere
272
un’immagine bidimensionale. Tutto questo porterà a immagini più ricche
e complesse, e ad un nuovo genere di film.
Si potrà avere un insieme di numeri che rappresentano dove sono le
scenografie, le telecamere, gli oggetti e i personaggi nello spazio
tridimensionale, così da è simulare effetti visuali da film dal vivo, pur
potendo comunque renderizzare le immagini in uno stile che soddisfi
l’estetica di un film di animazione.
Questo è il nuovo genere che sto tentando di emergere e che vediamo
nel Principe d’Egitto.
Si possono ottenere lungometraggi con tutto lo spessore dei film dal
vivo, ma anche con la ricchezza emozionale di un’illustrazione artistica.
273
TIGHTROPE
Daniel Robichaud, 1998
Tightrope di Robichaud fonde l’animazione tradizionale col
fotorealismo, per creare uno stile di animazione dei personaggi in CG
per la Digital Domain (Venice, CA, USA) che potrebbe essere definito
“fotosurrealistico”.
Bunny della Blue Sky|VIFX è il coronamento di un sogno che Chris
Wedge aveva dall’epoca della fondazione della sua società: quello di
creare un look particolare con gli strumenti di computergrafica.
Tightrope della Digital Domain ha avuto origine in circostanze molto
diverse, ma anche questo cortometraggio rappresenta il
raggiungimento di un look particolare per la sua società.
Alcune scene di Bunny potrebbe essere tratte direttamente dalle pagine
di un libro di racconti per bambini. Tightrope, invece, ha alcune scene
che ricordano i dipinti di Magritte.
Tightrope è il risultato di una gara interna alla Digital Domain, nella
quale tutti gli animatori sono stati invitati a proporre un cortometraggio
di due-quattro minuti che comprendesse uno o due personaggi, in un
ambiente sufficientemente minimale per concentrare l’attenzione su di
essi. L’animazione doveva essere completata nel giro di un anno da un
piccolo team.
Daniel Robichaud, che è stato supervisore dell’animazione per Il quinto
elemento e ha contribuito alla creazione delle comparse digitali per
Titanic, ha per prima cosa concepito un mondo con corde sospese nel
cielo, che soddisfacesse il requisito di ambientazione minimale.
Partendo da quell’idea, ha sviluppato una storia che mette due
personaggi su una fune, un joker e un uomo mascherato in abito da
sera, che camminano l’uno verso l’altro.
I personaggi si incontrano nel mezzo, in una situazione
apparentemente senza via d’uscita, e devono trovare un modo per
aggirarsi.
La soluzione coinvolge una pistola, uno yo-yo e un po’ di magia.
Tightrope è stato prodotto da Scott Ross, con Vala Runolfsson come
produttore associato. Robichaud ne è l’autore e il regista.
Tightrope è caratterizzato da un realismo stilizzato con molta attenzione
ai dettagli. Insieme a Robichaud, per creare e bilanciare questa
tensione tra fotorealismo e fantasia in CG hanno lavorato i supervisori
dell’animazione Stephane Couture (il joker) e Bernd Angerer (l’uomo
mascherato), che hanno portato i personaggi dall’animazione al
rendering finale usando principalmente Softimage 3D e i plug-in di loro
creazione.
Robichaud ha modellato entrambi i personaggi e ha dato loro un
aspetto che è in gran parte, ma non esattamente, umano, esagerando
alcune proporzioni.
274
Il mento del joker, per esempio, è molto lungo e il suo naso molto
appuntito. Nonostante ciò, la pelle di entrambi i personaggi è
assolutamente realistica.
In effetti, per creare la texture della pelle, l’artista Michelle Deniaud ha
imbrattato d’inchiostro nero i volti degli animatori, ne ha stampato
un’impressione su un foglio di carta bianca e ha poi creato le bump map
partendo da queste impressioni per inserire pori e rughe sul volto dei
personaggi. In modo simile, i costumi sono così dettagliati che è
possibile vedere la lavorazione nella stoffa e i graffi sulla maschera
dell’uomo in abito da sera.
Anche gli occhi dei personaggi sono caratterizzati da dettagli realistici.
Per questi, Robichaud ha modellato la cornea separatamente dall’iride
e la pupilla, per restituire all’occhio la sua profondità di profilo. Usando
Mental Ray, che è un ray tracer, tutte le rifrazioni e i riflessi che
avvengono nell’occhio sono credibili e contribuiscono a rendere vivo il
personaggio.
Altri trucchi visivi che Robichaud ha estratto dal suo cappello di regista
includono l’aggiunta della grana della pellicola all’animazione, per darle
un look “reale” di un film dal vivo invece che in CG, anche se,
naturalmente, il cortometraggio non comprende riprese dal vivo.
Robichaud ha anche usato sfondi fotorealistici (livelli di matte painting
con varie nuvole e cieli) e un’illuminazione che hanno potenziato
l’atmosfera dell’animazione (una luce da tempesta, un riflettore da circo,
una bell’alba arancione).
Ha aggiunto il motion blur ai fotogrammi durante il compositing, usando
il software Nuke della Digital Domain. “Daniel ha dedicato molto tempo
alla “distruzione” dell’immagine, in modo da dare l’impressione di un
film su pellicola, non un’opera in CG”, sottolinea Couture.
Per l’animazione facciale, Couture ha creato un pannello di controllo
all’interno di Softimage 3D che offre agli animatori manopole e leve per
muovere i muscoli facciali.
Per creare questi controlli, ha raggruppato i Control Vertice (CV o vertici
di controllo) in “star” (stelle). “Un CV poteva essere suddiviso tra varie
star, nel senso che a ogni star veniva assegnata una certa percentuale
del CV”, spiega Couture.“Le star sono come uno scheletro sotto un
envelope. Se muovo una star, reagisce come una bone, ma sta
muovendo un muscolo”.
Anche se in Tightrope non ci sono dialoghi, Couture ritiene che il
sistema di animazione facciale possa essere facilmente esteso per
gestire la sincronizzazione labiale. Per controllare la giacca dell’uomo
mascherato, Angerer ha sviluppato un metodo di animazione della
stoffa che è una variazione della tecnica di animazione facciale. Invece
di un input manuale per controllare la giacca, il movimento del
personaggio guida star che controllano la giacca. In modo simile, i
supervisori dell’animazione hanno sviluppato un sistema di vincoli che
fa in modo che la fune venga animata in base al movimento dei piedi
275
dei personaggi. “Non appena Daniel ebbe l’idea di Tightrope, iniziammo
a fare test del sistema di gestione della fune usando un personaggio di
Titanic”, racconta Couture.
Per gli effetti di magia, Keith Huggins ha sviluppato uno stile particolare
usando sistemi di particelle in PowerAnimator della Alias/Wavefront.
L’animazione dei personaggi vera e propria, invece, è stata gestita con
la “tradizionale” animazione in keyframe.
Complessivamente, al cortometraggio hanno lavorato 15 artisti, alcuni a
tempo pieno e altri solo per una o due scene. La maggior parte erano
animatori di personaggi; tre si sono occupati degli effetti.
“Uno dei motivi per cui sono arrivato alla Digital Domain era quello di
aiutare a costituire un reparto di animazione dei personaggi”, dice
Angerer, che ha iniziato ad animare 15 anni fa a casa sua a Vienna,
usando un sistema Cubicomp. “Possiamo creare un nuovo stile, perché
non dobbiamo combattere con una pipeline e una gerarchia di 15 anni
fa”.
Robichaud ritiene che il cortometraggio stia già aiutando a convincere i
potenziali clienti che la Digital Domain realizza animazioni dei
personaggi altrettanto bene degli effetti visuali invisibili.
Per questo cortometraggio, i grafici e gli animatori si sono affidati
principalmente a Softimage 3D della Avid Technology funzionante su
workstation NT basate su Alpha della Carrera. Per il rendering, hanno
usato il software Mental Ray della Avid e per gli effetti di particelle
hanno usato PowerAnimator della Alias|Wavefront. Le texture map per i
volti sono state disegnate in Amazon 3D della Interactive Effects; le
texture map per i vestiti sono state disegnate in Photoshop della Adobe.
Il rendering è stato calcolato su macchine NT della Carrera; il
compositing su workstation SGI con software proprietario Nuke della
Digital Domain.
276
BUNNY
Chris Wedge,1998
Bunny è una presentazione realizzata dalla Blue Sky|VIFX (Harrison,
NY, USA; Los Angeles, USA).
Bunny di Wedge rivela, per la prima volta in un film animato, un mondo
sintetico da libro per bambini renderizzato con un modello
d’illuminazione globale d’ambiente.
La star di quest’animazione da sette minuti, scritta e diretta dal
fondatore dei Blue Sky Studios, Chris Wedge, è una vecchia coniglietta
bisbetica che ha bisogno dell’aiuto di un sostegno per spostarsi nella
cucina.
Il suo cattivo umore si trasforma in rabbia quando la preparazione del
dolce viene interrotta da una falena insistente di cui non riesce a
sbarazzarsi.
Il personaggio ispira un po’ di pietà. Si vede la sua foto del matrimonio,
e si capisce che il marito è morto e l’ha lasciata sola.
Ma che cosa vuole quella falena? I toni dark di Bunny sono attenuati da
un look morbido è decisamente particolare, ma il cortometraggio rivela
comunque un’atmosfera noir insolita per le animazioni in
computergrafica.
Il cortometraggio è un perfetto incrocio tra cinematografia e illustrazione
da libri per bambini.
Quel look sfrutta una tecnologia d’illuminazione e rendering proprietaria
che è un’estensione del radiosity. Il software parte col ray tracing, poi
“apre molto di più il rubinetto”, come dice Wedge, usando quello che lui
chiama un modello d’illuminazione d’ambiente per renderizzare le
complessità della luce naturale.
Come il radiosity, tiene traccia di come la luce viene riflessa da tutti gli
oggetti della scena 3D. Se c’è un muro bianco con davanti una camicia
rossa, parte del rosso si diffonde sul muro.
Lo spazio colore in Bunny è una matrice ondulante in continuo
cambiamento. Diversamente dal radiosity, il modello d’illuminazione
non è progressivo; non potete muovere una telecamera in queste scene
dopo che sono state renderizzate.
Una volta spostata la telecamera, è infatti necessario rigenerare ogni
fotogramma.
Un’altra differenza è che il modello d’illuminazione della Blue Sky
Studios presta attenzione al carattere della luce, non solo a come viene
riflessa nella scena.
Il risultato è un modello d’illuminazione che simula così da vicino la luce
naturale, che sono state sufficienti tre sorgenti di luce per generare la
maggior parte dell’illuminazione nella cucina di Bunny: una luce fredda
sopra il bancone, una luce calda sopra il lavello e la morbida luce della
luna che filtra attraverso la finestra.
277
I direttori tecnici hanno controllato la luce proprio come farebbe un
direttore della fotografia per un film ripreso dal vivo, usando gli
equivalenti al computer di schermi riflettenti e di riempimento per
dirigere la luce, e di pannelli neri per assorbirla.
I tempi dei rendering finali, anche di una scena verso la fine del film che
comprende 500 falene pelose, animazione procedurale e luce di
diffusione, sono stati ridotti da 30 ore a meno di 15 ore per fotogramma,
grazie a 164 processori stipati in 14 sistemi AlphaServer RenderPlex
della Compaq.
Usando il radiosity per l’illuminazione, i tempi di rendering durano dieci
volte di più, ma si ottiene una complessità di un ordine di grandezza
superiore.
Nel corso degli anni, le cartoline per gli auguri di Natale della Blue Sky
venivano realizzate con immagini fisse create con la loro versione di
radiosity, ma Bunny è stata la prima animazione a usare quella tecnica.
Quelle immagini fisse hanno convinto i capo animatori Doug Dooley e
Nina Bafaro a unirsi ai Blue Sky Studios.
Per Bunny, Bafaro ha creato il ciclo di volo della pesante falena e ha
lavorato su gran parte dell’animazione della stessa Bunny. Dopo aver
guardato vari video sui conigli, ha scoperto che i movimenti rapidi della
testa avrebbero aiutato Bunny a sembrare una coniglietta, pur essendo
vecchia. Da parte sua, Dooley ha aggiunto un tocco personale
prendendo in prestito da sua nonna alcune azioni di Bunny. “Ogni sera
alle nove, mia nonna iniziava a guardare la televisione, appoggiava la
testa all’indietro, si addormentava sulla poltrona e si metteva a russare”,
dichiara.
“Ho raccontato questa cosa a Chris e lui ha detto: “Oh, fallo pure”.
Fino ad allora, il modello di Bunny, scolpito da Wedge sei anni prima,
non aveva una bocca.
“Alcuni degli oggetti nella cucina sono stati creati con CSG come test e
sono in circolazione da una decina d’anni.
Il lavello esiste dal 1989”, dice Wedge ridendo. “Praticamente tutti quelli
che hanno varcato quella porta hanno messo mano a Bunny.
Ci abbiamo messo molto tempo a fare i titoli di coda”.
“Quando ci siamo messi insieme per fondare la Blue Sky nel 1987,
avevo in mente questo look”, aggiunge Wedge.
“Provo una grande soddisfazione per Bunny. È esattamente ciò che
volevo fare”.
Oltre al linguaggio di programmazione, agli strumenti di modellazione
Constructive Solid Geometry, alla tecnologia di rendering e agli
strumenti di compositing del software proprietario dei Blue Sky Studios,
CGI Studio, gli animatori e gli artisti hanno usato Softimage per
modellare e animare Bunny, anche se, secondo quanto racconta il
fondatore Chris Wedge, Maya della Alias/Wavefront sta ultimamente
“prendendo quota”.
278
Inoltre, lo studio ha usato Amazon 3D della Interactive Effects e
Photoshop della Adobe per disegnare le texture map, e Cineon della
Kodak per un po’ di paint 2D e compositing di effetti.
Il software funziona su workstation Irix della Silicon Graphics.
Il rendering è stato realizzato su sistemi AlphaServer RenderPlex della
Compaq.
279
TARZAN
Chris Buck,Kevin Lima,1999
È facile capire perché, quando i registi della Disney Feature Animation
hanno pensato come realizzare il primo lungometraggi animato su
Tarzan, abbiano voluto superare le restrizioni dell’animazione
tradizionale (o cel animation), dando al “re della giungla” ampio spazio
per scivolare sui tronchi degli alberi come un surfista e saltare di ramo
in ramo come i suoi fratelli gorilla. “Volevo muovere la telecamera tra gli
alberi”, dice il direttore artistico Dan St. Pierre, “per creare un ambiente
in cui Tarzan si potesse muovere liberamente”. Il problema era come
farlo. Nella cel animation, creata usando strumenti digitali o tradizionali,
i personaggi 2D vengono posizionati su o tra disegni di sfondo, spesso
composti da più strati o “piani”.
Usando una camera “multipiano”, il regista può zoomare avanti e
indietro tra questi strati per creare un’illusione di profondità, oppure
carrellare a destra e a sinistra. Per Tarzan, questo non era sufficiente.
“Le camere multipiano non possono girare intorno agli angoli”, spiega
Kevin Lima, coregista del film con Chris Buck.
“Volevamo una macchina da presa che potesse seguire una corsa sulle
montagne russe”. Questo implicava una soluzione 3D.
In effetti, alcuni lungometraggi animati 2D hanno già usato scenografie
3D per scene che richiedevano un movimento di macchina simile a
quello delle riprese dal vivo; un esempio è la scena della sala da ballo
in La Bella e la Bestia della stessa Disney.
I registi di Tarzan ritengono però che quelle scene abbiano tipicamente
un aspetto che le fa distinguere dalle altre. “Non volevamo una
sequenza che facesse dire “Ecco, questa è computergrafica”, racconta
Buck. “Se la scenografia 3D non si fosse integrata perfettamente con i
fondali disegnati in 2D, non l’avremmo voluta”.
Aggiunge St. Pierre: “Volevamo che gli spettatori pensassero di
guardare un disegno 2D, ma poi, improvvisamente, vedessero la
camera entrare nel disegno, girare intorno a un angolo e a un altro
ancora”.
I registi hanno ottenuto ciò che volevano e ancora di più con una nuova
tecnica di rendering chiamata Deep Canvas, sviluppata dalla Disney
appositamente per Tarzan. Il Deep Canvas (letteralmente, dipinto
profondo) non solo conferisce alle scenografie 3D un look pittorico, ma
permette anche di animare i disegni in modo che, per esempio, quando
Tarzan guarda in basso verso il paesaggio disegnato sotto di lui, una
leggera brezza può, inaspettatamente, agitare le foglie degli alberi
sottostanti.
Il compito di supervisionare il software che avrebbe dato ai rendering
3D un aspetto pittorico è spettato a Eric Daniels, responsabile della CGI
e supervisore artistico per la produzione digitale di Tarzan.
280
Creando un fondale 3D, gli artisti della Disney hanno permesso ai
registi di Tarzan di muovere la telecamera attraverso gli alberi. L’idea
che ha prodotto il software Deep Canvas era semplice, ma la sua
creazione non lo è stata. “Sono contento di non aver saputo in anticipo
quanto sarebbe stato difficile il lavoro”, confessa Daniels, che si è reso
conto, dopo aver parlato con vari responsabili, che il software non solo
doveva integrare 3D e 2D, ma doveva anche inserirsi nella tradizionale
metodologia di produzione delle animazioni della Disney.
Con Deep Canvas, che è stato sviluppato principalmente da Tasso
Lappas e George Katanics, gli artisti dei fondali dipingono su
rappresentazioni 2D di scene 3D, usando una rielaborazione di uno
strumento di paint proprietario dedicato ai disegnatori tradizionali.
Mentre dipingono, le informazioni su ogni pennellata (colore, forma,
pressione del pennello...) vengono memorizzate in forma di dati, non
pixel, in modo che il software possa poi applicare le pennellate a una
posizione appropriata nello spazio 3D. “È come se le pennellate
attraversassero lo spazio per arrivare sulla superficie desiderata
dall’artista”, spiega Daniels. Per esempio, una sfera può rappresentare
un’area coperta da foglie.
Il disegnatore dipinge le foglie con lo stile da lui preferito, e mentre lo fa,
vengono memorizzate le informazioni su ogni pennellata.
“Quando viene renderizzato un fotogramma con quelle foglie, la sfera
sparisce, ma le pennellate si posano a mezz’aria e vi rimangono”,
spiega Daniels. “Il computer riproduce ogni pennellata in ogni
fotogramma e se l’oggetto cambia forma (perché la camera si muove),
le pennellate possono seguire il cambiamento”. Ciò su cui lavorano i
disegnatori sono rappresentazioni in 2D di modelli molto dettagliati ad
alta risoluzione.
Le loro pennellate, però, vengono in effetti applicate a superfici più
larghe ottenute a partire dal modello in alta risoluzione. Se le pennellate
venissero applicate al modello finemente dettagliato, tutte quelle che
fuoriescono dai contorni del modello verrebbero tagliate nel rendering
del fotogramma, producendo quindi un contorno netto. Invece, dato che
le pennellate vengono applicate alle superfici più grandi, i disegnatori
non devono rimanere entro i contorni, e la scena viene renderizzata con
un aspetto più pittorico. “Il modo in cui Deep Canvas renderizza i
modelli in CG è completamente diverso dalle altre applicazioni
esistenti”, spiega Daniels. “Praticamente ogni renderer segue lo stesso
paradigma di RenderMan: si parte da una superficie e le si assegnano
coordinate UV. Poi si applica un foglio di gomma alla superficie, e su
quel foglio di gomma c’è un’immagine.
Se, per esempio, state cercando di creare la texture del tronco di un
albero, prima dovete fare un disegno della texture e poi avvolgerlo su
un cilindro per farlo assomigliare a un tronco.
Il problema è che, come ci siamo accorti realizzando Tarzan, il risultato
finale non assomiglia al dipinto di un albero. Anche se si parte da una
281
texturemap che è dipinta, quando si avvolge quel foglio di gomma
infinitamente sottile e deformabile intorno al cilindro, si ottiene sempre
un oggetto dai contorni netti.
Noi invece miriamo a un aspetto più grezzo, uno stile più
impressionista”. Nel rendering, le aree non dipinte risultano trasparenti.
Se la telecamera inquadra un’area non dipinta di un oggetto, per
esempio la parte posteriore, il reparto che si occupa dei layout produce
una nuova rappresentazione 2D, in modo che i disegnatori di fondali
possano riempire le zone vuote. I fotogrammi vengono renderizzati alla
risoluzione di 2048 pixel. L’idea del rendering delle pennellate non è
nata con il gruppo di Daniels. Barbara J. Meier, per esempio, ha scritto
un articolo, “Painterly Rendering for Animation”, pubblicato negli atti del
SIGGRAPH ’96, nel quale descrive una tecnica di rendering delle
pennellate sviluppata quando era direttore tecnico/artistico alla Disney
Feature Animation.
“Se non fosse stato per Barb Meier, non avremmo realizzato Deep
Canvas”, afferma Daniels. “Lei ha dimostrato che si poteva fare. Ma il
suo progetto era centrato sull’automazione. Per Tarzan, volevamo un
controllo artistico”. Quel controllo inizia con il gruppo responsabile dei
layout.
Dato che questo gruppo disegna tradizionalmente gli elementi che
verranno dipinti dagli artisti dei fondali e pianifica i movimenti della
macchina da presa, è spettato a loro creare i modelli 3D per le scene di
Deep Canvas e fornire le rappresentazioni 2D in base ai movimenti
della telecamera. Zimmerman ha collaborato con il reparto dei layout
durante la produzione, aiutandoli a creare i modelli, gli ambienti 3D, vari
arredi scenici e anche effetti come l’acqua. Il gruppo ha usato i software
Houdini della Side Effects Software e PowerAnimator e Maya della
Alias/Wavefront, tutti funzionanti su workstation SGI. Houdini è stato
usato principalmente per le “scene problematiche”, per usare le parole
di Zimmerman, e PowerAnimator per i modelli e le animazioni più
semplici.
“Se dovevamo muovere una foglia, allora ricorrevamo a
PowerAnimator”, specifica Daniels. Houdini, invece, è stato utilizzato
per rappresentare la pioggia, le superfici dell’acqua, gruppi di farfalle e
altri elementi di scena che sarebbero stati difficili da realizzare con Alias
“o con qualsiasi altro pacchetto”, secondo Daniels.
Lo stesso Deep Canvas non è stato utilizzato solo per le scene nella
giungla, ma anche in quelle in cui compare l’acqua. “La superficie
dell’acqua è stata realizzata in Houdini, ma è stata anche applicata la
tecnica di Deep Canvas ai detriti galleggianti”. Per esempio, nelle scene
iniziali del film, dove si vede il salvataggio di Tarzan bambino da un
naufragio, si vedono le onde possenti di un mare in tempesta che
trascinano molti rottami della nave. I rottami sono gestiti da Deep
Canvas, mentre la superficie dell’acqua è stata renderizzata in Houdini.
Complessivamente, la Disney ha usato Deep Canvas in più di 100
282
scene, per un totale di circa 10 minuti d’immagini disseminate in diversi
punti del film. “Generalmente, abbiamo usato questa tecnica nei
momenti del film in cui cercavamo di far capire che Tarzan è realmente
in contatto con il suo ambiente”, commenta Daniels. “Quando scivolate
sugli alberi insieme a lui, quando diventate anche voi parte del suo
ambiente, avete una sensazione diversa della giungla rispetto a una
rappresentazione piatta”. Se non riuscirete a individuare la transizione
dai fondali 2D a quelli gestiti da Deep Canvas, i registi avranno
raggiunto il loro scopo.
283
TOY STORY 2
John Lasseter, 1999
Il 24 novembre del 1999, la Walt Disney Pictures e la Pixar Animation
Studios hanno presentato nelle sale cinematografiche statunitensi Toy
Story2, il seguito del loro film del 1995.
Creato ancora una volta dalla Pixar e diretto da John Lasseter, il sequel
vede il ritorno di Woody, Buzz Lightyear e degli altri giocattoli della
stanza di Andy, oltre all’intero cast di voci originali (che ovviamente in
Italia non sentiremo) come Tom Hanks per Woody e Tim Allen per
Buzz.
I sequel dei film di animazione della Disney vengono normalmente
creati esclusivamente per il video, e questa era l’intenzione originale
anche per Toy Story 2. In effetti, la produzione video era già ben
avviata quando gli studios hanno deciso di passare alla pellicola.
“La storia di base che vede Woody rubato da un collezionista di
giocattoli è rimasta la stessa”, dice Ash Brannon, coregista insieme a
Lee Unkrich, “ma abbiamo dovuto ristrutturarla passando da un video di
un’ora a un film di 80 minuti”.
Il cambiamento ha offerto più spazio per i colpi di scena e per
l’arricchimento della trama, ma ha anche significato più lavoro per il
team della Pixar, che ha dovuto reinquadrare tutto per tenere conto
dell’aspect ratio più largo della pellicola e della maggiore risoluzione,
oltre che per gestire i 20 minuti aggiuntivi e l’aumento di complessità.
La Pixar ha usato Alias Studio della Alias/Wavefront per la
modellazione, Amazon Paint della Interactive Effect (Irvine, CA, USA)
per il painting, e molto software proprietario per modellazione,
animazione e compositing, tutti funzionanti su macchine SGI. Per il
rendering, lo studio ha usato il proprio software RenderMan funzionante
su macchine Sun.
La render farm della Pixar è ora cresciuta a 1.400 processori e anche
così, Toy Story 2 ha spinto le capacità di rendering dello studio ai limiti.
Nel film ci sono 122.699 fotogrammi, secondo Thomas Jordan, direttore
tecnico, che, con un team di dieci “pastori del rendering”, ha guidato i
fotogrammi finali attraverso la pipeline di rendering.
Secondo Jordan, il tempo richiesto per renderizzare ogni fotogramma
andava da 10 minuti a tre giorni, con alcuni fotogrammi che erano
grandi 4 GB.
L’output più veloce è stato 284 metri di pellicola, o 14.880 fotogrammi,
in una settimana.
Oltre a quello della complessità, gli artisti e lo staff tecnico della Pixar
hanno dovuto affrontare altri due problemi principali.
Uno era quello di rimanere fedeli al mondo di Toy Story anche se le loro
capacità tecniche e artistiche erano migliorate negli ultimi quattro anni.
284
Il secondo era quello di trovare un modo per ottimizzare il loro lavoro
per rispettare i tempi di produzione accelerati richiesti dal passaggio
dalla produzione solo per il video a quella su pellicola.
Angosce da giocattolo
Alla base della storia c’è l’ormai familiare concetto di Lasseter che i
giocattoli sono vivi, quando gli esseri umani non stanno guardando.
Nell’originale Toy Story, il cowboy-giocattolo Woody salva Buzz, il
nuovo space ranger-giocattolo, dalle grinfie di Syd, un bambino cattivo
distruttore di giocattoli. Nel corso della storia, Buzz scopre di non
essere un vero space ranger, ma solo un giocattolo.
In Toy Story2, i ruoli sono invertiti: Buzz deve salvare Woody.
“Per portare un oggetto inanimato alla vita, dovete capirne la funzione”,
spiega Lasseter. “I giocattoli sono pensati per far giocare i bambini, ed
è questo che vogliono sopra ogni cosa”.
Nelle prime scene di Toy Story 2, vediamo Andy che rompe
accidentalmente il braccio di Woody, poi butta il giocattolo rotto su uno
scaffale e parte per un campeggio senza di lui.
Sullo scaffale insieme a Woody c’è Wheezy, un asmatico pinguino
giocattolo con il fischietto rotto, che sta lì a prendere polvere dopo
essere stato abbandonato.
Quando la mamma di Andy butta Wheezy in uno scatolone per la
svendita di roba vecchia e lo porta fuori casa, capiamo quanto possano
andare male le cose per un giocattolo.
Ma con una manovra coraggiosa, Woody balza a cavallo di Buster, il
bassotto di famiglia, e salva Wheezy.
Sfortunatamente, Woody cade a terra all’esterno della casa e, dato che
stanno arrivando gli esseri umani, è costretto a rimanere fermo dov’è. I
giocattoli di Andy guardano inorriditi mentre Al della Al’s Toy Barn, un
collezionista di giocattoli, ruba Woody, e questo prepara il campo per il
salvataggio di Buzz.
Al porta Woody nel suo appartamento e qui Woody rimane sbalordito
dalla scoperta di avere un passato: era infatti la star di uno spettacolo
televisivo di cowboy degli anni’50.
Al ha collezionato versioni giocattolo degli altri protagonisti di Woody’s
Round-Up: Jesse la cowgirl, Pete il cercatore d’oro, e Bullseye, il
cavallo di Woody, insieme a moltissimi altri cimeli come borse, fumetti,
giradischi, cappelli, cinture...
Con l’aggiunta di Woody, la collezione è completa, e Al tira fuori tutto
dagli imballaggi. Questo fa nascere il conflitto: Woody, perfettamente
riparato, rimarrà con i suoi nuovi amici, in modo che la collezione possa
andare in un museo dove qualcuno se ne prenderà cura per sempre?
Oppure, se Buzz e i giocattoli di Andy arriveranno in tempo, Woody
tornerà indietro insieme a loro col rischio di essere abbandonato da
Andy?
285
Per gli animatori, molti dei quali hanno lavorato sul primo film, una delle
scene più difficili di Toy Story 2 è stata la prima, secondo quanto
dichiara Mc-Queen.
“Dato che vedevamo Woody e Buzz ogni giorno, la tentazione è stata
quella di rompere gli schemi. Ma la prima volta che il pubblico vede i
personaggi, dovevamo essere sicuri di catturare la loro essenza e che
non ci fosse niente di strano nella loro interpretazione”, spiega.
Inoltre, anche gli altri personaggi familiari dovevano avere un aspetto
simile a quello di quattro anni fa, così come l’ambiente in cui si
muovevano. D’altra parte, in questi quattro anni, la Pixar ha prodotto il
cortometraggio Geri’s Game, il cui protagonista è senza dubbio un
essere umano tecnicamente e artisticamente migliore di quelli di Toy
Story, e lo studio ha anche realizzato un secondo
lungometraggio, A Bug’s Life, nel quale sono stati usati modelli molto
complessi d’illuminazione e di shading per creare un ambiente
visivamente più ricco rispetto a quello di Toy Story.
Il trucco è stato quello di usare i miglioramenti tecnologici in modo
selettivo. Per esempio, il nuovo essere umano di Toy Story 2, Al, è più
complesso della mamma e di Andy; tuttavia, anche questi ultimi sono
stati migliorati.
Il nostro punto di vista alla Pixar è che la mamma di Andy ha ora un
nuovo guardaroba, un nuovo “look” e ha fatto ginnastica, ma ha sempre
l’aspetto della mamma.
“Non abbiamo mirato a produrre un essere umano perfettamente
realistico”, dice Lasseter. “Gli esseri umani sono ancora cartoon”.
Ma anche così, sono più realistici degli esseri umani di Toy Story, in
particolare Al.
286
L’elemento umano
“Al è decisamente odioso, ed è anche un modello molto complesso”,
dice Eben Ostby, supervisore dei modelli.
“Se dovessi fare una stima grossolana, direi che tutti i file sorgenti usati
per la sua realizzazione arrivano a 200 MB. Woody arriva all’incirca a
un decimo”.
Come in Geri’s Game, i direttori tecnici della Pixar hanno usato la
tecnologia delle superfici di suddivisione per creare la pelle di Al e degli
altri esseri umani. Ma invece di cercare di simulare le proprietà fisiche
della pelle, come hanno fatto per gli esseri umani del Toy Story
originale, hanno applicato quello che hanno imparato da A Bug’s Life
per creare le texture delle superfici.
“Abbiamo imparato che cosa possono fare bene gli shader e i painter,
quindi invece di modellare fisicamente la pelle, abbiamo creato
strumenti per i painter”, spiega Brad West, supervisore dello shading.
Più specificamente, i direttori tecnici hanno sviluppato un gigantesco
shader di RenderMan per creare caratteristiche della pelle come pori,
macchie, vene, luccichii, sudore, e persino baffi che lo shader può far
crescere in modo procedurale.
Quelle caratteristiche sono diventate strumenti a disposizione dei
painter quando i direttori tecnici le hanno aggiunte all’interfaccia di
Amazon Paint. I painter hanno iniziato con un rendering di base del
modello, poi ci hanno disegnato sopra vari strati per ritoccare il
rendering.
Al aveva più dettagli di tutti, ma dato che non volevano che sembrasse
troppo diverso dagli altri esseri umani del film, hanno aggiunto dettagli
anche alla mamma e ad Andy.
“Solo che a questi ultimi la telecamera non si avvicina mai così tanto”,
spiega West. “La parte di Al da me preferita sono i baffi”, aggiunge. “Al
ha un’ombra sul volto, la sua pelle è macchiata, e in un’area ha una
piccola cicatrice dove non cresce la barba.
Ha anche dei foruncoli”.
Per creare le linee sotto gli occhi e intorno alla bocca di Al, i painter
hanno usato shader di displacement. Per creare i peli sulle braccia, i
direttori tecnici hanno usato la geometria.
La Pixar ha usato due tecniche diverse per creare i peli.
Per i peli e i capelli sulle superfici rigide come il cranio umano, Guido
Quadroni(che lavorava all’italianissima Gestel ed è tra gli autori di
SolidThinking, ndr), direttore tecnico facente parte del team per la
modellazione e lo shading degli esseri umani, ha creato un plug-in di
Alias.
Il plug-in offriva ai direttori tecnici capelli o peli guida composti da
primitive geometriche, che potevano essere usati per descrivere il look
e il movimento di migliaia di peli al momento del rendering.
287
Per i peli sulle superfici deformabili come le braccia di Al e il cane, i
painter hanno usato texture map.
Per creare i vestiti, i direttori tecnici hanno scelto d’impostare a mano le
posizioni invece di usare una simulazione dinamica.
“Il reparto di ricerca stava ancora lavorando sul simulatore per Geri’s
Game quando abbiamo iniziato”, racconta Oren Jacob, direttore tecnico
associato. “Geri è un vecchietto magro che indossa una giacca larga. Al
è un grassone con vestiti belli tesi, e doveva essere presente in molte
più scene di Geri”.
Quindi, hanno deciso di modellare le cuciture e le pieghe per certe
pose, e poi usare l’interpolazione delle forme tra i cambiamenti di
posizione. “Tutto quello che dovevano fare gli animatori era animare il
modello, e i vestiti ne avrebbero seguito i movimenti”, dice Jacob.
“Abbiamo tonnellate di geometria in questo film”, asserisce Galyn
Susman, direttore tecnico supervisore.
“In A Bug’s Life, la complessità era nelle superfici. In Toy Story 2, la
complessità è nella geometria”.
Susman fa notare che due delle scene geometricamente più complesse
avvengono in un quartiere del centro città e in un aeroporto.
“La scena ambientata in città è molto onerosa”, concorda Jordan.
“Ogni isolato ha 10 alberi o più, ogni albero ha migliaia di foglie, ogni
auto ha una o due persone, e ogni persona ha migliaia di capelli”. Poi ci
sono case, grate, semafori e parchimetri.
Le case hanno sporgenze e finestre coperte di sporco.
“Niente di tutto questo è finto”, dice Susman parlando di questa scena.
“È tutta geometria. Avremmo potuto sicuramente usare il painting, ma
volevamo usare movimenti molto fluidi della telecamera. Quando si
muove la telecamera, anche di poco, l’occhio allenato scopre che c’è
qualcosa di sbagliato”.
Tutta questa geometria contribuisce a rendere la scena visualmente più
complessa ma è il modo in cui i modelli interagiscono con la luce che li
rende visivamente ricchi.
“Abbiamo usato molte tecniche tratte da A Bug’s Life, che fanno in
modo che la luce crei scene visivamente più ricche”, osserva Ostby.
“Abbiamo arrotondato i bordi per creare aree che catturassero la luce e
abbiamo evitato di creare cose troppo piatte, anche per gli oggetti di
sfondo”.
“Abbiamo riscritto il modo in cui le superfici e la luce si parlano, e
abbiamo usato i nuovi strumenti e processi di A Bug’s Life per
migliorare questo film dal punto di vista artistico”, spiega Sharon
Calahan, direttore della fotografia.
“Pensiamo in modo cinematografico, ma siamo anche nel mondo
dell’illustrazione. Creiamo effetti fisici e un mondo credibile, ma non è
reale. Vogliamo anche influenze pittoriche, ma senza appiattire le
immagini. Vogliamo spazi che sembrano profondi.
288
Il look del nostro studio si sta evolvendo, e questa è la parte divertente.
Penso che, complessivamente, questo film sia più delicato e profondo
di Toy Story.”.
Per creare Toy Story, lo studio ha usato366 oggetti.
In Toy Story 2, ci sono approssimativamente 1.200 modelli, con
dimensioni che vanno da una matita a un aeroporto, più variazioni,
secondo quando afferma Susman.
Per le “comparse” umane, i modellisti hanno mescolato insieme pezzi di
circa una mezza dozzina di modelli.
“Abbiamo messo facce diverse sullo stesso corpo e viceversa”, spiega
Ostby.
Per aiutare gli animatori a creare la recitazione delle comparse, il
reparto di ricerca e sviluppo ha sviluppato nuovi controlli delle
articolazioni per i modelli.
Chiamato Geppetto, il software, che è stato scritto dal ricercatore senior
Tony DeRose e dal progettista di software grafico Dirk VanGelder, è
un’evoluzione della tecnologia proprietaria della Pixar PET(Patch
Editing Tool).
“Geppetto rappresenta un modo per raggruppare punti e collegare una
variabile articolata”, spiega Susman.
“Ci offre un modo per costruire strutture scheletriche e trasferirle da
personaggio a personaggio e per definire in modo procedurale quello
che deve succedere”.
Con Geppetto, un modellista può importare un’intera struttura
scheletrica in un altro essere umano, richiedendo solo piccoli ritocchi
per tenere conto delle dimensioni diverse.
Effetti speciali
Questa attenzione ai dettagli è evidente anche negli effetti.
Per esempio, la Pixar ha creato sequenze dello spettacolo televisivo di
Woody usando la computergrafica 3D.
Quell’animazione è stata renderizzata a colori, convertita in video
bianco e nero, e poi fatta passare attraverso un programma di
compositing per aggiungere saltelli, graffi del negativo, peli, macchie di
caffè, linee di scansione, bagliori e statiche, tutto quello che potrebbe
essere successo a un cinescopio per TV degli anni ’50.
Il risultato è stato mappato su un modello CG di un televisore Philco, e
poi deformato per adattarlo allo schermo.
“Siamo passati attraverso tutte le fasi, come se il programma fosse
stato creato con il vecchio processo”, afferma Jacob.
Persino la polvere sullo scaffale di Wheezy è stata creata con
particolare cura. “Avremmo potuto usare effetti di particelle per creare la
polvere, ma pensavamo che non sarebbe stato convincente”, dice
Jacob. “Invece, abbiamo deciso d’inserire milioni di pezzi di materiale
nella scena”, 2,4 milioni di pezzi, per la precisione, inclusi piccoli “peli”,
289
macchie grosse due o tre pixel, e piccole sfere. “Lo scaffale è coperto
da una crosta di polvere spessa 3 millimetri che è porosa”, racconta
Jacob. “Ha una struttura interna”. Quindi, quando Woody mette le mani
nella polvere, questa viene schiacciata, e quando rialza le mani, la
polvere rimane attaccata. Il team degli effetti ha anche creato nugoli di
polvere usando una struttura volumetrica.
“Li abbiamo messi nel catalogo dei modelli, in modo che il team
responsabile dei layout può posizionarli dove vuole”, dice Jacob.
Tra le scene di effetti preferite da Jacob, però, ci sono quelle create per
le sequenze spaziali: esplosioni, onde d’urto e folle di robot. “In una
scena, Buzz è circondato da 280 mila robot indipendenti che gli
sparano tutti addosso contemporaneamente”, racconta. “Uno dei motivi
di successo di Toy Story è che i giocattoli sono ottimi soggetti per
l’animazione 3D”, dice Lasseter.
“Potete inserire dettagli che non è possibile inserire nelle animazioni
disegnate a mano: autoadesivi, giunture, chiodi, viti, elmetti lucidi,
camicie di stoffa e jeans di tela”.
Per facilitare la gestione di quei dettagli, la Pixar ha sviluppato molti
schemi per ottimizzare la produzione, inclusa, per esempio, la
generazione automatica di dettagli a seconda della vicinanza di un
modello alla telecamera. “Un essere umano può avere 200 mila capelli,
ma se la telecamera è molto vicina o molto lontana, se ne hanno
bisogno di soli 500”, dice Susman. Penso che il pubblico sia rimasto
molto sorpreso dalla storia di Toy Story2. Ci sono lo humour e
l’avventura del primo Toy Story, ma il livello emozionale che Woody e
Jesse in particolare riescono a suscitare è più profondo. Le cose che
impediscono di apprezzare i giocattoli sono il fatto di essere rotti, persi
o rubati, ma la più difficile da accettare è il fatto di essere superati. Il
film mostra questi aspetti dal punto di vista dei giocattoli.
È vero che i giocattoli prima o poi vengono normalmente considerati
superati e, d’altra parte, la stessa cosa succede alla tecnologia. Ma le
storie possono vivere per sempre.
290
DINOSAUR
Eric Leighton, Ralph Zondag,2000
La sequenza d’apertura di Dinosaur è mozzafiato: inizia con un primo
piano di un grande uovo all’interno di un nido sul terreno. Poi la
macchina da presa carrella all’indietro per rivelare un paesaggio
tropicale pieno di migliaia di dinosauri che pascolano tranquilli.
Improvvisamente, un brutale predatore irrompe nella scena,
distruggendo tutto quel che incontra sulla sua strada a parte l’uovo, che
è stato afferrato da un oviraptor.
La macchina da presa segue il raptor mentre sorvola il paesaggio,
supera una scogliera e si lancia verso l’acqua sottostante continuando
a tenere in modo precario l’uovo tra gli artigli.
Tutti gli animali in questa scena e in tutto il film sono stati creati con la
computer-grafica3D.
Lo sfondo è reale, una fusione di paesaggi ripresi in varie location.
Questo film della Touchstone Pictures, diretto da Ralph Zondag ed Eric
Leighton, offre una visione unica di un mondo preistorico pieno di
dinosauri e lemuri 3D animati, fotorealistici e parlanti.
Una follia diventata realtà
Quando la Disney ha approvato il progetto nel 1995, sapeva che per
creare il film avrebbe dovuto costruire un nuovo studio digitale partendo
da zero.
Battezzato ora “Feature Animation Northside”, lo studio si trova in un
edificio che prima era di proprietà della Lockheed a Burbank, in
California (USA). In questo edificio sono stati installati i computer,
principalmente macchine SGI, per creare un render-farm e offrire
workstation per artisti, progettisti software e direttori tecnici.
Gli strumenti software sono stati valutati, acquistati, installati, linkati e
scritti, ed è stata messa in piedi una pipeline di produzione. Il team si è
spostato nell’edificio Northside nel gennaio del 1997, e l’animazione è
ufficialmente iniziata otto mesi dopo, anche se il lavoro era già iniziato.
All’apice della produzione, lo staff di Dinosaur è arrivato a 360 persone.
Complessivamente, questo team ha creato un film di 76 minuti i cui
protagonisti sono più di 30 specie di animali in CG fotorealistici, con
dimensioni che vanno dalle lucertole da 30 centimetri a brachiosauri da
100 tonnellate e 35 metri di lunghezza (per una spesa complessiva che
secondo alcuni supererebbe i 300 miliardi di lire).
Dieci di questi animali, sei dinosauri e quattro lemuri, parlano.
Il mondo di 65 milioni di anni fa in cui abitano questi animali è stato
creato principalmente a partire da location riprese in varie parti del
mondo in un periodo di 18 mesi.
I paesaggi nella scena d’apertura, per esempio, sono stati assemblati
partendo da riprese in pellicola effettuate in Florida, Venezuela,
291
Australia, Hawaii e all’Arboretum di Los Angeles, che sono state poi
scansite, incollate insieme e arricchite digitalmente
per creare l’ambientazione del periodo Cretaceo.
Sono state utilizzate anche alcune miniature. Complessivamente, due
troupe hanno ripreso più di 243 chilometri di pellicola, inclusi particolari
come gli spruzzi usati dal team degli effetti per facilitare la fusione dei
personaggi in CG negli sfondi dal vivo.
Solo in una scena, che si svolge all’interno di una caverna, vengono
utilizzati sfondi interamente in CG.
“Pensavamo di creare sfondi in compositing per circa il 20-30% del film,
ma alla fine abbiamo utilizzato il compositing per circa l’80-90% degli
sfondi”, racconta Jimbo Hillin, supervisore del compositing degli effetti.
La ripresa degli sfondi
Gli storyboard creati nel 1996 e nel 1997 si sono evoluti in animatic (o
workbook, come vengono chiamati dallo staff della Disney) 2D, che poi
sono diventati workbook 3D, creati con Softimage 3D della Avid.
Oltre a mostrare la storia mediante un abbozzo di animazione dei
personaggi, il workbook 3D descriveva anche gli sfondi, è come un set
virtuale. In molte scene si muovono branchi di dinosauri che sono stati
ripresi a distanze variabili da 10 a 30 metri. Hanno dovuto trovare
location che fossero molto simili al mondo preistorico descritto nel
workbook 3D e che avessero una scala corretta per ospitare i
giganteschi animali.
Dato che pochi luoghi soddisfacevano quei requisiti, hanno filmato
paesaggi sapendo che sarebbero poi stati manipolati e composti in
digitale per creare uno sfondo.
Per esempio, una vallata rocciosa che appare verso la fine del film è
stata ripresa in due location, Death Valley e Lone Pine, in California. Il
canyon della Death Valley è stato trattato come se fosse una miniatura
in scala dimezzata.
Per seguire l’azione dal punto di vista di un dinosauro, lo staff ha creato
la “Dino-Cam”, una gru computerizzata per la macchina da presa
composta da due torri collegate da un cavo.
La camera si può muovere con una velocità di 56 chilometri all’ora tra le
due torri e fino a 22 metri di altezza; può anche panoramicare e
inclinarsi di 360 gradi.
Per le riprese, la troupe ha usato quattro macchine da presa Vistavision
di grande formato per tutte le scene tranne quelle dall’elicottero. La
troupe ha usato i dati estratti dai workbook 3D per controllare la
macchina da presa in motion-control.
I dati rilevati nelle location sono stati riportati nei workbook 3D per
aiutare i direttori tecnici e gli animatori a posizionare con precisione i
personaggi in CG negli elementi filmati.
292
Primi passi
Prima di poter animare i personaggi, bisognava crearli, e prima di
poterli creare, dovevano esistere due cose: gli strumenti software e il
design dei personaggi. Per il software, il team ha scelto una
combinazione di prodotti commerciali e ha anche creato numerosi
strumenti proprietari. Un team di ricerca e sviluppo composto da 15
progettisti software ha scritto 450 programmi, dei quali più di 120 sono
plug-in per il software di animazione.
Questi programmi andavano da script MEL usati in Maya della
Alias/Wavefront a programmi in C++ che funzionavano con Maya o
Softimage 3D, a software di conversione per spostare file da un
programma all’altro, a codice standalone.
I tre programmi principali creati dal team per completare le applicazioni
standalone sono: Fur Tool, usato per i lemuri e per creare piume ed
erba; Body Builder, una collezione di strumenti per creare pelle e
muscoli; e Mug Shot, un tool per la fusione di forme che lavora
all’interno di Maya per gestire l’animazione facciale e la
sincronizzazione labiale.
Inoltre, il team ha creato un programma di stitching per conservare la
continuità delle patch, e ha realizzato HOIDs, un software di
animazione di folle general-purpose.
David Krentz, un artista che in passato sognava di diventare
paleontologo, ha supervisionato il design e lo sviluppo visuale dei
personaggi. Per i dinosauri, la Disney ha coinvolto alcuni esperti per
effettuare ricerche scientifiche, e, tenendo presenti quelle informazioni,
Krentz ha creato disegni che andavano dal completamente accurato al
caricaturale.
Una volta che il disegno veniva approvato, disegnava viste ortogonali
dell’animale dall’alto, di fronte e di lato, e questi disegni venivano
scansiti in Power Animator della Alias perché, secondo Krentz, i
modellisti potevano lavorare più velocemente in base ai suoi disegni
che partendo dalla digitalizzazione di modelli in creta.
Oltre al design della struttura, Krentz ha realizzato dipinti per le texture
della pelle. Krentz ha anche creato i design per i lemuri.
L’animazione dei personaggi
Quando nella scena d’apertura il raptor lascia cadere l’uovo di
dinosauro, questo atterra intatto sull’Isola dei Lemuri, dove non ci sono
dinosauri. Lì, un clan di lemuri che vive sulla pacifica isola alleva il
nuovo nato, un iguanodonte di nome Aladar.
Una notte, una meteora arriva sulla Terra, distruggendo l’isola.
Aladar raccoglie i quattro lemuri della sua famiglia e fugge sulla terra
ferma, dove vede per la prima volta i dinosauri.
293
Lui e i lemuri si accodano a un branco in marcia attraverso il deserto
per raggiungere un nuovo luogo di nidificazione.
Cibo e acqua scarseggiano, e i carnotauri assetati di sangue sono un
costante pericolo. Inoltre, la simpatia di Aladar per i membri più deboli
in coda al branco, che verrebbero mangiati per primi dai predatori, lo
mette contro Kron, il rigido capobranco, e Bruton, il suo vice. La difficile
missione di Aladar sarà quella d’insegnare al branco a essere
adattabile e cooperativo.
I lemuri fanno da parafulmini emozionali e richiamano l’importanza dei
legami e dell’educazione familiare.
Come si fa di solito nelle animazioni della Disney, ogni personaggio
parlante è stato assegnato a un supervisore dell’animazione che ha
diretto altri animatori.
Greg Griffith descrive il suo ruolo di supervisore dell’animazione come
quello di chi determina che cosa il personaggio può fare fisicamente in
modo che la sua integrità venga preservata.
Per esempio, Griffith ha creato una camminata zoppicante per il
dinosauro Eema e una libreria di forme di fonemi che hanno consentito
al personaggio di parlare senza far pensare al fatto che ha un becco.
Come nell’animazione 2D, gli animatori di Dinosaur hanno potuto
lavorare con “X-sheet”, che offrono dettagli per ogni scena con la
precisione del fotogramma.
Inoltre, ogni animatore poteva sovrapporre le riprese dal vivo alla
scenografia virtuale per avere i riferimenti del terreno.
Gli animatori hanno creato prima i movimenti del corpo in Softimage e
poi hanno utilizzato Maya per realizzare le espressioni facciali in Mug
Shot della Disney. Anche se ogni singolo personaggio presentava delle
difficoltà specifiche, i dinosauri hanno posto alcuni problemi comuni agli
animatori.
“Questi personaggi non hanno mani per gesticolare”, spiega Eamonn
Butler, supervisore dell’animazione per Kron. “Dovevamo renderli
espressivi, ma non potevamo sfruttare molto il linguaggio del corpo”.
Butler ha fornito ai modellisti i disegni di 250 forme di volti, in modo da
riuscire a far parlare il dinosauro e aiutare la creazione di espressioni
per Kron.
In una scena, per esempio, Kron sta cercando l’acqua. Arriva sulla
sommità di una collina, ma l’acqua non è dove si aspettava.
Cammina proprio davanti alla telecamera. Le sue labbra sono così
secche da rimanere incollate.
“In questa scena, abbiamo cercato di dire tutto con l’espressione del
suo muso, senza usare le parole”, racconta Butler.
Naturalmente, c’era anche la questione delle dimensioni.
Mike Belzer, supervisore dell’animazione per Baylene, un brachiosauro
che è l’animale più grande del film, ha studiato gli elefanti per farsi
un’idea di come si muovevano.
294
Ha presto scoperto che una creatura otto volte più grande ci avrebbe
messo cinque minuti per fare un passo.
“Occasionalmente, c’è il tempo nel film per far vedere un passo di
questa camminata, ma se il personaggio sta parlando, preferiamo
concentrarci sul suo volto”, dice Belzer.
“L’elemento che aiuta a far capire le sue dimensioni è il modo in cui si
muovono la pelle e i muscoli sottostanti”.
Griffith aggiunge: “Abbiamo cercato di creare l’illusione del peso
mostrando lo sforzo necessario per muovere una parte della massa a
una certa distanza”. E poi c’erano i problemi delle differenze di
dimensioni. “Aladar è lungo 9 metri e passa metà del sul tempo a
parlare con i lemuri”, dice Mark Austin, supervisore dell’animazione per
Aladar. Il volto di Aladar è lungo un metro e mezzo; i lemuri sono alti
meno di un metro quando sono completamente distesi. “Ogni primo
piano è stato una sfida”.
Anche gli animatori dei lemuri hanno avuto le loro gatte da pelare.
Larry White, supervisore dell’animazione per Suri, un lemure di otto
anni, è arrivato a questo progetto provenendo dall’animazione
tradizionale. La cosa che White ha trovato sorprendentemente difficile è
stata la coda del lemure. Per esempio: “Durante un salto, la coda segue
e si sovrappone al movimento”, spiega.
Quindi, la coda è come un personaggio separato con una vita propria.
“In 2D, è facile dare l’idea in modo naturale dell’intero movimento del
corpo, ma in computergrafica, si devono muovere parti del corpo”.
295
Muscoli, peli e Hoids
Una volta animati, i personaggi sono arrivati alla fase di “finalizzazione”,
durante la quale un team capeggiato da Sean Phillips ha aggiunto
l’animazione secondaria come la flessione dei muscoli e l’oscillazione
della pelle.
Il gruppo ha usato uno strumento proprietario chiamato Body Builder
che funziona all’interno di Maya.
Con questo strumento, i direttori tecnici hanno creato muscoli
collegando una spline con sezioni a forma di disco allo scheletro.
Mentre le bone si muovono, la spline cambia forma, facendo cambiare
forma anche alle sezioni e, di conseguenza, facendo flettere i “muscoli”.
I muscoli vengono anche influenzati da calcoli d’inerzia che aiutano ad
aggiungere l’impressione del peso ai massicci dinosauri.
Per controllare la quantità di pieghe sulla pelle, i direttori tecnici hanno
usato mappe di attributi e smoothing di mesh elastiche.
Mentre Body Builder è stato particolarmente importante per i dinosauri,
per i lemuri la difficoltà è stata la creazione della loro pelliccia,
soprattutto tenendo conto che il lavoro è iniziato nel 1995, quando
erano disponibili pochi o nessun pacchetto commerciale adatto allo
scopo.
I lemuri hanno peli dritti e corti insieme a peli curvi e lunghi.
I nostri artisti dovevano poter far crescere i peli, e farli sembrare bagnati
o polverosi. E bisognava reggere alcuni primissimi piani.
Quindi, il team di sviluppo software ha scritto uno strumento proprietario
di gestione della pelliccia basato su un’interfaccia di SGI Inventor e
RenderMan della Pixar per il rendering.
Per la dinamica, il team ha usato Maya.
Per animare branchi che arrivavano fino a mille dinosauri, i direttori
tecnici hanno usato lo strumento di animazione delle folle HOIDs, che
rappresenta un’evoluzione degli strumenti di questo tipo usati in altri
film della Disney come Il Gobbo di Notre Dame, Il Re Leone e Mulan.
Effetti per dinosauri
Facendo collaborare insieme i disegnatori di texture e gli autori degli
shader, il team capeggiato da Cliff Brett, supervisore dello sviluppo
dell’aspetto esteriore, è riuscito a creare delle texture per la pelle dei
dinosauri che reggessero il dettaglio dei primi piani.
Il numero di patch NURBS per gli animali del film va da 240 a 800, e
ogni patch ha fino a nove texture map, quattro delle quali sono
displacement map.
Baylene, il vecchio brachiosauro, per esempio, ha richiesto 6 mila
texture map. La maggior parte delle mappe hanno una risoluzione di
2K, anche se alcune hanno una risoluzione di 4K e 8K.
296
Sono stati anche utilizzati shader per creare le spine di alcuni dinosauri,
riducendo in questo modo la dimensione del modello sottostante.
Inoltre, gli shader sono stati usati per gli effetti.
Con la tecnica degli “Sticky Shader”, una texture o un’immagine può
essere proiettata su una superficie che rimane sempre orientata verso
la telecamera. Questa tecnica è stata utilizzata, per esempio, per
aggiungere gli spruzzi nell’acqua.
Neil Escara, supervisore dell’animazione ha usato tutti i trucchi del
mestiere. Per esempio: per integrare i personaggi con il terreno, gli
animatori hanno creato “contact shadow”(ombre di contatto) in 2D e
altre volte hanno usato il rotoscopio.
Per dare l’impressione che una zampa stia camminando su un terreno
roccioso e accidentato, i direttori tecnici hanno a volte usato il
morphing, e se la cosa risultava troppo difficile, hanno semplicemente
nascosto la zampa.
Per far vedere le orme lasciate dalle zampe sul terreno, i painter hanno
aggiunto tracce sulla sabbia.
Oltre agli strumenti software scritti dal reparto di ricerca e sviluppo, il
team degli effetti ha scritto diversi “engine di effetti” per creare
esplosioni, polvere, sabbia, pioggia, neve, increspature e spruzzi. Per
l’acqua, il team ha spesso usato shader animati.
Per facilitare l’illuminazione dei personaggi in modo che sembrassero
far parte dello sfondo, Chris Peterson, responsabile dell’illuminazione,
ha usato il software proprietario della Disney Light Tool.
Quest’interfaccia per RenderMan gli ha consentito di lavorare
interattivamente con le luci.
Alla fine, tutto è stato composto in Illusion della Avid, pesantemente
modificato per e dalla Disney.
Praticamente ogni scena è un compositing, di elementi ripresi dal vivo,
miniature e computergrafica.
Dopo La Minaccia Fantasma, Dinosauri più di ogni altro film esemplifica
quanto siano diventati abili i cineasti a creare un film incollando insieme
elementi di computergrafica 2D e 3D, riprese dal vivo e miniature
filmate, e quanto bravi siano diventati gli animatori a lavorare con
animali 3D fotorealistici.
In questo film della Disney, la perfetta integrazione di pellicola e grafica
3D diventa particolarmente affascinante, in quanto si unisce all’idea
originale di dinosauri fotorealistici parlanti e al familiare stile di
animazione della Disney.
297
MOVIE STILLS
298
THE LOST WORLD: JURASSIC PARK
299
DRAGONHEART
300
JUMANJII
301
TITANIC
302
MIGHTY JOE YOUNG
303
THE MUMMY
304
MATRIX
305
STAR WARS:THE PHANTOM MENACE
306
MISSION TO MARS
307
TOY STORY 2
308
BUG’S LIFE
309
ANTZ
310
DINOSAUR
311
312
PARTE 5: CASE DI PRODUZIONE
313
INDUSTRIAL LIGHT & MAGIC
Industrial Light & Magic (ILM), è la divisione di Lucas Digital Ltd,
maggior società al mondo nel campo degli effetti visivi, ha
standardizzato la sua infrastruttura di rete di nuova generazione sulle
soluzioni end-to-end Gigabit Ethernet di Foundry Networks. Origine dei
film più esplosivi e premiati di Hollywood (tra i titoli si annoverano
StarWars, Terminator 2: Judgment Day e Jurassic Park,) ILM elabora
ogni giorno una mole di dati superiore a qualsiasi altra società attiva nel
settore estremamente competitivo degli effetti video e della postproduzione.
La creazione degli spettacolari effetti speciali dei film di oggi richiede il
trasferimento sulla rete di file estremamente grandi. Per soddisfare i
suoi obiettivi di sviluppo e per sostenere la reputazione di miglior
struttura di post-produzione al mondo, ILM sta implementando una
nuova infrastruttura di rete scalabile, fault tolerant ad alte prestazioni.
La rete di nuova generazione di ILM sarà utilizzata per supportare la
creazione di prossimi film spettacolari ad alto profilo.
ILM ha scelto Foundry come fornitore di prima scelta: la società
installerà l'intera linea di router e di switch Gigabit Ethernet di Foundry
Networks per avere una soluzione di rete completa. Ciò garantirà che il
traffico generato dalle attività ILM possa sempre attraversare la rete e
arrivare a destinazione alla massima velocità possibile.
"Avevamo bisogno di un fornitore di rete su cui potere fare affidamento
e Foundry Networks è proprio quella società," ha dichiarato Andy
Hendrickson, Direttore Systems Development per ILM.
"Foundry ci mette a disposizione le migliori prestazioni di throughput per
Layer 2/3, la maggior densità Gigabit Ethernet, il prezzo più contenuto e
il supporto tecnico più completo oggi disponibile sul mercato. La cosa
più importante è che Foundry è la prima società ad offrire queste
capacità in una soluzione end-to-end che si estende dai confini della
rete per arrivare fino al cuore delle nostre server farm e della nostra
rete," ha sottolineato Raleigh Mann, Manager Network Operations per
ILM.
314
FILMOGRAFIA
1999
STAR WARS EPISODE I
WILD, WILD WEST
SUPERMAN
THE MUMMY
1998
SAVING PRIVATE RYAN
DEEP IMPACT
MEET JOE BLACK
MERCURY RISING
SNAKE EYES
DEEP RISING
MIGHTY JOE YOUNG
SMALL SOLDIERS
REACH THE ROCK
FROST
1997
MEN IN BLACK
STAR WARS SPECIAL EDITIONS
THE LOST WORLD: JURASSIC PARK
TITANIC
SPEED 2: CRUISE CONTROL
CONTACT
SPAWN
STARSHIP TROOPERS
FLUBBER
MIDNIGHT IN THE GARDEN OF GOOD AND EVIL
AMISTAD
DECONSTRUCTING HARRY
1996
TWISTER
DRAGONHEART
MISSION: IMPOSSIBLE
ERASER
STAR TREK: FIRST CONTACT
DAYLIGHT
MARS ATTACKS!
101 DALMATIANS
THE TRIGGER EFFECT
SLEEPERS
1995
IN THE MOUTH OF MADNESS
VILLAGE OF THE DAMNED
CASPER
315
CONGO
THE INDIAN IN THE CUPBOARD
JUMANJII
SABRINA
THE AMERICAN PRESIDENT
1994
FORREST GUMP
THE MASK
STAR TREK GENERATIONS
THE FLINTSTONES
THE HUDSUCKER PROXY
RADIOLAND MURDERS
MAVERICK
BABY'S DAY OUT
DISCLOSURE
1993
JURASSIC PARK
ALIVE
FIRE IN THE SKY
THE NUTCRACKER
LAST ACTION HERO
RISING SUN
MANHATTAN MURDER MYSTERY
METEORMAN
SCHINDLER'S LIST
1992
MEMOIRS OF AN INVISIBLE MAN
DEATH BECOMES HER
1991
TERMINATOR 2: JUDGEMENT DAY
SWITCH
THE DOORS
HUDSON HAWK
BACKDRAFT
THE ROCKETEER
HOOK
STAR TREK VI: THE UNDISCOVERED COUNTRY
1990
AKIRA KUROSAWA'S DREAMS
JOE VS. THE VOLCANO
THE HUNT FOR RED OCTOBER
BACK TO THE FUTURE PART III
DIE HARD 2: DIE HARDER
GHOST
THE GODFATHER PART III
1989
316
THE ABYSS
THE 'BURBS
SKIN DEEP
FIELD OF DREAMS
INDIANA JONES AND THE LAST CRUSADE
GHOSTBUSTERS II
BACK TO THE FUTURE PART II
ALWAYS
LEVIATHAN
1988
WHO FRAMED ROGER RABBIT
WILLOW
CADDYSHACK II
COCOON: THE RETURN
THE LAST TEMPTATION OF CHRIST
THE ACCIDENTAL TOURIST
1987
INNERSPACE
THE WITCHES OF EASTWICK
HARRY AND THE HENDERSONS
BATTERIES NOT INCLUDED
EMPIRE OF THE SUN
1986
THE MONEY PIT
LABYRINTH
HOWARD THE DUCK
STAR TREK IV: THE VOYAGE HOME
THE GOLDEN CHILD
1985
COCOON
BACK TO THE FUTURE
THE GOONIES
EXPLORERS
YOUNG SHERLOCK HOLMES
ENEMY MINE
OUT OF AFRICA
1984
INDIANA JONES AND TEMPLE OF DOOM
STAR TREK III: THE SEARCH FOR SPOCK
THE NEVERENDING STORY
STARMAN
1983
RETURN OF THE JEDI
TWICE UPON A TIME
1982
E.T. - THE EXTRA TERRESTRIAL
317
POLTERGEIST
STAR TREK II: THE WRATH OF KAHN
THE DARK CRYSTAL
1981
RAIDERS OF THE LOST ARK
DRAGONSLAYER
1980
THE EMPIRE STRIKES BACK
1977
STAR WARS
318
MOVIE STILLS
319
THE LOST WORLD: JURASSIC PARK
LIVE ACTION E WIREFRAME
La pellicola viene digitalizzata e inserita come backgound.
I modelli in wireframe dei dinosauri sono sovrapposti allo sfondo.
LIVE ACTION E MODELLI 3D
I dinosauri sono stati modellati, illuminati, mappati, animati e
compositati con le riprese dal vero.
320
DRAGONHEART
DRACO E BOWEN
Draco aiuta Bowen ad accendere il fuoco…
DRACO SOTTO LA PIOGGIA
Per creare l'impressione della pioggia battente sulle ali di Draco, Euan
Macdonald della ILM ha scritto uno shader di displacement per l'acqua in
RenderMan.
321
JUMANJII
IL LEONE (making)
Il corpo del leone è stato modellato da Paul Hunt con l'aiuto di Carolyn
Rendu e Rebecca Petrulli-Heskes, che si sono occupate anche della
criniera, e Geoff Campbell, che si è occupato delle dieci espressioni del
leone.
IL LEONE (scena finale)
Il supervisore Carl Frederick ha affidato al capo programmatore Jeff Horn,
insieme a David Benson, John Horn e Florian Kainz, lo sviluppo del software
per i peli corti e lunghi utilizzati per le scimmie e il leone.
322
TITANIC
ACQUA E COMPARSE DIGITALI
In queste scene, al modellino in scala 1:8 sono stati aggiunti stuntman reali,
acqua digitale, stelle digitali, gente in acqua digitale e un migliaio di
comparse digitali.
STUNT-MAN DIGITALI
Gli artisti della Digital Domain sono partiti dai movimenti catturati da stunt-man
in carne e ossa che si gettavano da set inclinati a 45 e 90 gradi. Gli animatori
hanno poi usato questi movimenti come riferimento per l’animazione in
keyframe.
323
MIGHTY JOE YOUNG
JOE
Per la maggiorparte della gente, Joe è un mito e una leggenda...
Per Jill che è la sola a proteggerlo, è come un padre, un amico…
Per Gregg O’Hara è la creatura più stupefacente del pianeta…
DALL’AFRICA A LOS ANGELES
Joe, non ha rispettato il semàforo….
324
THE MUMMY
IL VOLTO DI SABBIA
Attraverso un’accurata modellazione e un displacement map, gli artisti della
ILM fanno emergere dal deserto di sabbia, un volto terrifficante.
IMHOTEP
Dopo un sonno durato 3000 anni, la mummia scatena la sua vendetta.
325
MATRIX
NEO E SMITH
La tecnica chiamata Flow-Motion consente al regista una flessibilità quasi
illimitata nel controllo della velocità e dei movimenti degli elementi inquadrati.
BULLET TIME
Keanu Reeves schiva una serie di pallottole, i cui percorsi vengono
rappresentati come file di dischi 3D d’argento.
326
STAR WARS:THE PHANTOM MENACE
DROIDI
Mille droidi da combattimenti invadono la terra dei Naboo.
IL MAESTRO JEDI E WATTO
Qui-Gon Jinn discute con Watto, un rigattiere di Tatooine che possiede come
schiava Shmi, la madre del giovane Anakin Skywalker .
327
MISSION TO MARS
IL VOLTO DELLA MONTAGNA
Il radar degli astronauti colpisce la montagne rivelando una gigantesca
struttura a forma di volto.
IL SALVATAGGIO
Il Dott. Terri Fisher cerca di recuperare il valoroso astronauta che
sacrificò la sua vita per salvare la moglie e i suoi colleghi in missione
su Marte.
328
TOY STORY 2
REX E AMICI
Una delle tecniche d'illuminazione più difficili in computergrafica,
l'illuminazione da dietro, aiuta a separare i personaggi dal fondale.
Lo dimostra questa immagine al tramonto di Bo Peep, Rex (il timido
dinosauro) e gli altri giocattoli.
I MUTANTI
Dal momento che i giocattoli mutanti, che sono costituiti da una mescolanza di
parti di altri giocattoli, sono creature tristi e raccapriccianti, per ispirarsi gli
animatori hanno studiato i movimenti d'insetti come ragni o di rettili come
lucertole e serpenti.
329
BUG’S LIFE
FLIK E I CIRCENSI
Flik, realizza finalmente che i suoi eroi sono semplici acrobati e che non
possono aiutarlo a salvare l’ Isola delle Formiche.
TRASPARENZE
Heimlic, l’affettuoso bruco-Slim, il saggio stecco, Francis, la coccinella e
Rosie, la vedova nera.
Sullo sfondo la spettacolare vegetazione con le foglie che rivelano trasparenze
e dettagliate texture.
330
ANTZ
LA PRINCIPESSA BALE E Z-4195
LA GOCCIA
La principessa Bala prova disperatamente a salvare Z, che è racchiusa dentro
una gocciolina d’acqua.
331
DINOSAUR
LEMURI
Due curiose lemuri,guardano un piccolo dinosauro uscire dal guscio.
ALADAR E EEMA
Aladar, un ruffiano iguanodonte dà una spinta al suo indisposto compagno di
viaggio, un dinosauro chiamato Eema.
332
DIGITAL DOMAIN
Fondato nel 1993 dal mago degli effetti speciali Stan Winston, dal
direttore esecutivo Scott Ross e dal regista James Cameron, Digital
Domain è uno dei più rappresentativi studi di produzione americani nel
campo dell’animazione digitale per il cinema di fiction.
Digital Domain nasce da una costola dell’IBM per poi svilupparsi con il
contributo della Cox Enterprises di Atalanta, inizialmente per la
realizzazione in proprio degli effetti speciali digitali nel film di James
Cameron True Lies.
Da questa esperienza lo studio si è sempre più specializzato in
immagini di sintesi, realizzando gli effetti visivi di grandi produzioni
cinematografiche come: Intervista col vampiro (1994), Apollo 13 (1995),
Red Corner (1997), Kundun (1997), Damte’s Peak (1997), Il quinto
Elemento (1997), Ed TV (1998) e Armageddon (1998).
L’esperienza maturata con la partecipazione a film di tale spettacolarità
ha garantito alla casa di produzione Digital Domain un ruolo di primo
piano nel settore, concretizzatosi con vari premi Prix Pixel INA al
Festival Imagina di Monaco e un carnet di quattro nomination agli Oscar
per i migliori effetti visivi negli ultimi cinque anni.
Ma è stato soprattutto grazie allo sbalorditivo lavoro svolto per il film
campione d’incassi Titanic, diretto dall’esperto James Cameron che la
casa di produzione ha ottenuto i maggiori consensi e menzioni per la
sua “Outstanding”, vincendo il suo primo Oscar e il premio per i migliori
effetti speciali Prix Pixel INA.
Digital Domain ha raggiunto, infatti, i suoi primi grandi risultati grazie a
questo regista che ha sempre spinto all’estremo le possibilità della
tecnologia digitale, verso orizzonti in continua evoluzione.
Il salto di qualità da un film come True Lies ad uno come Titanic è
impressionante proprio per l’inedita capacità di immergere i corpi reali
degli attori e delle comparse in un’ambientazione totalmente virtuale,
prodotto di un’elaborazione digitale immateriale al di fuori dello
schermo.
Ciò si può vedere chiaramente anche nel recente Al di là dei sogni
(1998); in questo film gli scenari fantastici e favolistici in cui si immerge
il protagonista Robin Williams sono addirittura delle animazioni
tridimensionali di dipinti e incisioni appartenenti alla storia dell’arte.
Quindi l’uomo può muoversi liberamente nello spazio indefinito di uno
sfondo mentale, reso però reale dalla sintesi di un elaboratore
elettronico.
Non poteva mancare una presenza della Digital Domain nel campo
dell’animazione digitale 3D, con la realizzazione del suo primo
cortometraggio interamente di sintesi, Tightroupe (1998); mentre il
filmato tridimensionale Terminator 2-3D, realizzato per i parchi a tema
333
degli Universal Studios, ha visto il suo ingresso nella produzione di
attrazioni virtuali, riunendo tre grandi esperti di effetti speciali come
James Cameron, Stan Winston e John Bruno e il cast del film originale.
Il risultato è stato la più quotata attrazione dell’Universal Studios
Florida, finora insuperabile per l’effetto di suono e immagini che avvolge
il pubblico.
Una nuova divisione New Media si è inserita nel settore dei cd-rom
interattivi realizzando Barbie Fashion Designer, ispirato alla popolare
bambola della Mattel Media e progettandone uno per la Lego Media
International.
Nel campo della pubblicità la Digital Domain si è affermata con spot di
qualità in cui si è avvalsa di noti registi, e lavorando per i più importanti
marchi come Coca Cola, Budweiser, Nike, Mercedes, Helwett-Packard,
Pepsi e Levi’s.
334
FILMOGRAFIA
2000
HOW THE GRINCH STOLE CHRISTMAS
X-MEN
RED PLANET
1999
SUPERNOVA
FIGHT CLUB
1998
WHAT DREAMS MAY COME
ARMAGEDDON
1997
TITANIC
DANTE'S PEAK
THE FIFTH ELEMENT
RED CORNER
KUNDUN
1996
SGT. BILKO
T2-3D: BATTLE ACROSS TIME
THE ISLAND OF DR. MOREAU
CHAIN REACTION
1995
STRANGE DAYS
APOLLO 13
1994
TRUE LIES
INTERVIEW WITH THE VAMPIRE
1993
COLOR OF NIGHT
Commercial: TIMEX
Music Video – THE ROLLING STONE
335
DREAM QUEST IMAGES
Nel 1996 la Dream Quest Images, entra a far parte dell’impero
disneyano, diventando la divisione degli effetti speciali per i
lungometraggi animati. L’unità interna degli animatori della Disney e il
talento dei computer-animator della Dream Quest Images si uniscono
per formare il TSL, (Il Laboratorio Segreto).
The Secret Lab (TSL), si basa sulla computer-animation, fornisce
l’animazione avanzata dei personaggi in CG e gli effetti visivi per diversi
Studi, inoltre provvede alla formazione attraverso il reparto di ricerca e
sviluppo monitorando lo stato dell’arte e l’evoluzione della CG nel
mondo.
Thomas Schumacher, presidente della Walt Disney Future Animation e
Andrew Millstein, vice presidente e direttore generale della Dream
Quest Images saranno i responsabili del TSL.
Commentando l'annuncio, Schumacher ha detto, "Questa fusione
rappresenta una tremenda coalizione di talenti e risorse. Entrambi i
gruppi sono coinvolti nella creazione di spettacolari immagini digitali e la
formazione del The Secret Lab riunisce un gruppo di esperti negli effetti
speciali che sono i migliori nel loro campo. Disney ha costruito uno
studio digitale di prima classe ed insieme alla Dream Quest Images
continuerà ad estendere i confini del film digitale."
Millstein ha aggiunto, " Dream Quest Images ha creato alcuni degli
effetti visivi più emozionanti e più innovatori per oltre 150 film dal
relativo inizio nel 1979. Sotto la direzione creativa di Hoyt H. Yeatman
Jr. e Richard Hoover, l'azienda ha vinto ogni premio immaginabile ed il
rispetto dei relativi pari.
L'unità di computer-graphics della Disney ha da poco completato
Dinosaur, che unisce l’animazione tradizionale con le sbalorditive
immagini digitali e le riprese dal vivo per le ambientazioni.
Il reparto di animazione della Disney è da sempre molto attento alle
innovazione tecniche come dimostrano le sequenze di alcune famose
pellicole: Beauty and the Beast (la sequenza del ballo nella stanza),
The Lion King (la fuga precipitosa degli animali), The Hunchback of
Notre Dame (le scene della folla), Ercole (la battaglia di Hydra), Mulan
(l'attacco dell'esercito di Hun) e Tarzan (che ha introdotto una nuova
applicazione chiamata "Deep Canvas" per aggiungere profondità e
dimensione alla giungla).
Il reparto artistico e la direzione amministrativa della Dream Quest
Images si trovano nella sede di Burbank, mentre la produzione fisica
(reparto modelli, ingegneria e costruzione del modello) continua ad
essere nella Simi Valley. La Dream Quest Images ha ottenuto gli
Academy Awards per gli effetti speciali di Total Recall e The Abyss così
come le nominations per il relativo lavoro su Armageddon, Mighty Joe
Young e The Mask.
336
Dall'incorporazione con la Disney, Dream Quest Images ha prodotto gli
effetti visivi per The Rock, Jungle 2 Jungle, Con Air, George of the
Jungle, Flubber, Kundun, Deep Rising, Six Days, Seven Nights e
Inspector Gadget,Stigmata, Bicentennial Man, Mission to Mars, Gone in
60 Seconds, Shanghai Noon, Tennessee e 102 Dalmatians.
337
FILMOGRAFIA
2001
102 Dalmatians
Gone in 60 Seconds
Shanghai Noon
Tennessee
2000
BICENTENNIAL MAN
MISSION TO MARS
1999
INSPECTOR GADGET
1998
MIGHTY JOE YOUNG
SIX DAYS SEVEN NIGHTS ARMAGGEDON
DEEP RISING
1997
CON AIR
FLUBBER
GEORGE OF THE JUNGLE
JUNGLE 2 JUNGLE
KUNDUN
HONEY, WE SHRUNK OURSELVES
1996
THE ARRIVAL
THE ROCK
1995
CRIMSON TIDE
DR. JEKYLL AND MS. HYDE
DRACULA: DEATH AND LOVING IT WATERWORLD
HOW TO MAKE AN AMERICAN QUILT
1994
THE THREE MUSKETEERS
THE CROW
THE MASK
THE SHAWSHANK REDEMPTION
LITTLE BIG LEAGUE
WYATT EARP
THE SWAN PRINCESS
1993
CONEHEADS
THE SECRET GARDEN
ROBIN HOOD: MEN IN TIGHTS
1992
FINAL ANALYSIS
HERO
TOYS
338
1991
DEFENDING YOUR LIFE
FREDDY’S DEAD
GRAND CANYON
HOT SHOTS!
1990
TOTAL RECALL
THE EXORCIST III
1989
THE ABYSS
EARTH GIRLS ARE EASY
1987
PREDATOR REAL MEN THE LOST BOYS
1986
SHORT CIRCUIT HOUSE
1985
D.A.R.Y.L.
EUROPEAN VACATION
PEE-WEE’S BIG ADVENTURE
1984
THE ADVENTURE OF BUCKAROO BANZAI Banzaï
BEST DEFENCE
1983
THE TWILIGHT ZONE
BLUE THUNDER
339
BLUSKY/VIFX
Nell’agosto del 1997, Twentieth Century Fox annuncia la fusione di due
importanti società produttrici di effetti speciali: la Blue Sky, casa di
animazione 3D di New York e la VIFX di Hollywood.
L’enorme talento degli animatori 3D della Blu Sky, e l’esperienza in
compositing, 2D e 3D del team della VIFX e del reparto di modellini e
animatronics, fanno della BluSky/VIFX una struttura completa ed
efficace, una nuova forza nell’industria cinematografica degli effetti
speciali.
La nuova società ha ora 250 dipendenti, e può essere considerata tra le
più grandi strutture degli studios hollywoodiani, è la quinta società del
pantheon formato dalla ILM, Digital Domain, Dream Quest Images e
Sony Pictures Imageworks.
Richard Hollander, uno dei fondatori della VIFX/ Video Image, è il
presidente della nuova impresa, mentre l'ex presidente della Blu Sky,
David Boyd Brown, intraprenderà la posizione del CEO.
L'azienda avrà la sede principale in Los Angeles ma, la sede di New
York continuerà a funzionare.
La fusione delle due società è la prova dello sviluppo che il settore degli
effetti speciali sta compiendo.
La Twentieth Century Fox, titolare della Blue Sky|VIFX, è diventata un
industria cinematografica potentissima, così come la Walt Disney
acquistando la Dream Quest Images e la nascita della Sony con la
Sony Pictures Images.
340
FILMOGRAFIA
1998
THE X-FILES
BLADE
FIRESTORM
ARMAGEDDON
1997
TITANIC
HOME ALONE 3
ALIEN RESURRECTION
MOUSEHUNT
1999
STAR TREK: INSURRECTION
341
DUBOI
Fondata nel 1991 da Antoine Simikine, Pitof, Bernard Maltaverne,
Pascal Hérold e Rip O’Neil, la Duboi è una società specializzata nella
creazione di effetti speciali digitali per i lungometraggi di fiction, per gli
spot pubblicitari e per i video musicali.
Per il cinema Duboi ha lavorato alla realizzazione di effetti di
animazione spettacolari ed effetti invisibili fotorealistici, supportando le
creatività visionarie di registi come Jean-Pierre Jeunet, che Duboi ha
seguito dal film d’esordio Delicatessen, (1991) all’ultimo Alien:
Resurrection; (2000) e Luc Besson per cui ha sviluppato le scenografie
futuribili de Il Quinto Elemento, (1997).
Duboi sembra prediligere la creazione di effetti marcatamente digitali,
lavorando sulle iperboli da cartoon come ne I Visitatori di Jean marie
Poiré, o in Asterx & Obelix contro Cesare di Claude Zidi.
Per la pubblicità Duboi Ha sviluppato numerose animazioni 2D e 3D,
per prodotti e marchi internazionali, da Mastro Lindo a France Telecom,
da Fanta a Microsoft, da Ford a Barilla; lavori spesso realizzati
avvalendosi del contributo di grandi registi e sviluppando appositi effetti
visivi per rendere spettacolari anche i piccoli film pubblicitari.
Da 10 anni, DUBOI lavora sull’immagine digitale, dal disegno all’effetto
speciale fino alla consegna del prodotto finito. Oltre 100 i lungometraggi
che hanno attraversato le mani degli artisti grafici, esperti in effetti
speciali, editori, animatori, esperti di post-produzione, direttori e
sviluppatori di software: in tutto, cinquanta individui ugualmente capaci
di gestire le produzioni su grande scala e i piccoli progetti innovativi.
Non ci sono film minori con effetti speciali secondari. Gli effetti speciali
accompagnano la storia o aggiungono una nota spettacolare. Gradiamo
essere coinvolti fin dal principio se è possibile, in moda da poter creare
gli effetti visivi più idonei all'interno di preventivi che, (raramente sono
elastici); in questo modo possiamo lavorare insieme al regista, al
direttore della fotografia ai progettisti e tutti riescono a trarre vantaggio
dall’esperienza di ognuno. Da 10 anni, stiamo sviluppando i nostri
strumenti, modificando i software allo scopo di velocizzare il lavoro
rendendolo il più semplice possibile soprattutto per le sequenze che
coinvolgono gli effetti speciali.
La nostra post-produzione ha l’abilità di produrre immagini altamente
complesse adoperando strumenti così leggeri che se ci fosse la
necessità, potremmo spostarci in ogni parte del mondo.
Abbiamo diversi strumenti con un gran numero di workstations come,
Inferno, Flame, Matador, Softimage, Scanner Genesis, 2 solitaires Ciné
III flx, Arrilaser, Spirit Dataciné, Spectre vdc Philips, Pandora Megadef,
Hdcam Motion Control e un brillante gruppo di giovani artisti e tecnici.
342
DUBOICOLOR
In occasione della 57° Mostra Internazionale d'arte cinematografica di
Venezia, il Future Film Festival - Le nuove tecnologie del cinema
d'animazione - promuove la presentazione, in prima mondiale, di
DUBOICOLOR, la nuova tecnologia ideata dalla Duran Duboi, leader
europeo nella produzione di effetti speciali.
Il sistema DUBOICOLOR è stato utilizzato per la prima volta da Hervé
Schneid montatore dell'ultimo film The man who cried della regista Sally
Potter, presente in concorso al Festival di Venezia 2000.
Alla presentazione oltre allo stesso Hervé Schneid sono intervenuti
anche Antoine Simkine, presidente e direttore generale della Duboi e
Tommaso Vergallo, direttore delle produzioni di Duboicolor.
Il rivoluzionario sistema DUBOICOLOR consente di avere in mano un
solo strumento per tutte le operazioni, dal montaggio al prodotto finale,
e può essere applicato ad ogni film, con o senza effetti speciali,
consentendo ad ogni utente di fruire dei benefici di un processo
interamente in alta definizione digitale. Il bilanciamento del colore e i
cambiamenti di formato non sono più eseguiti in laboratorio, ma si
possono comporre direttamente con il computer. Il risultato finale è
quindi un internegativo a colori, che può essere utilizzato direttamente
per le stampe da distribuire.
DUBOICOLOR copre ogni passo del processo digitale, dalla
scannerizzazione del negativo al trasferimento finale su pellicola.
Grazie a nuovi potenti mezzi - scanner ad alta velocità, bilanciamento
del colore in tempo reale e trasferimento veloce su pellicola (6 giorni
per il trasferimento di un intero lungometraggio, invece di 55 giorni) DUBOICOLOR può sostenere un lungometraggio di qualsiasi formato,
in digitale.
Questo nuovo servizio supera lo stadio finale del lavoro manuale di
laboratorio - montaggio manuale dei negativi e bilanciamento ottico dei
colori - permettendo ai film-makers di vedere il loro prodotto completato
con grande anticipo.
343
FILMOGRAFIA
2000
LA VENGEANCE D'UNE BLONDE
LA TAULE AUSSIE
ALIEN RESURRECTION
1999
TOUT BAIGNE
1998
THE VISITORS
RONIN
RESTONS GROUPES
MICHAEL KAEL CONTRE LA WORLD NEWS COMPANY
1 CHANCE SUR 2
HASARDS OU COINCIDENCES
1997
LE CINQUIÈME ELEMENT
ARLETTE
LE PARI
MORDBÜRO
DIDIER
1996
LE ROI DES AULNES
UN SAMEDI SOIR SUR LA TERRE
LES 1001 RECETTES DU CUISINIER AMOUREUX
BEAUMARCHAIS
SIGNATURE 100 ANS
MA FEMME ME QUITTE
LE JAGUAR
LE CAPITAINE CONAN
1995
LE BONHEUR EST DANS LE PRE
THE CITY OF LOST CHILDREN
LA HAINE
1994
LA VEUVE DE SAINT-PIERRE EPITHETE
CASQUE BLEU
GROSSE FATIGUE
GIORGINO
GRAND NORD
1993
METISSE
1992
RIENS DU TOUT
THE MUPPET CHRISTMAS
1991
344
DELICATESSEN
GHOSTS WITH A DRIVER
345
IMAGEWORKS
La Sony Pictures Imageworks, ha istituito una dinamica comunità di
artisti, filmmakers e sceneggiatori dove grazie alle ultime tecnologie e ai
software più sofisticati si realizzano le ultime evoluzioni della CG.
È un ambiente in cui le idee sono finalizzate alla creazioni di nuovi
scenari, attraverso lo studio approfondito delle leggi fisiche e dinamiche
di ogni ambiente e personaggio animato.
Questo grazie al coordinamento dei migliori supervisori come Rob
Legato, John Dykstra e Pat McClung, Ken Ralston, Jerome Chen e
Sheena Duggal ed all’impegno della squadra creativa.
Imageworks è una delle società più importanti nel campo
dell’animazione computerizzata e degli effetti speciali digitali nel mondo.
Sony Pictures Imageworks rappresenta lo stato dell’arte della
produzione digitale degli effetti speciali e della computer-animation.
La società vanta pellicole come Charlie's Angels, Hollow Man, What
Lies Beneath, Stuart Little, Big Daddy, Patch Adams, Snow Falling on
Cedars, Godzilla, City of Angels, Contact, Anaconda, Michael, The
Ghost and the Darkness, James and the Giant Peach e Starship
Troopers.
Imageworks attualmente sta lavorando ai lungometraggi Spider-Man,
(diretto da Sam Raimi con John Dykstra come supervisore agli effetti
speciali e Karen Goulekas, soprintendentea agli effetti speciali), e Cast
Away, (diretto da Robert Zemeckis con Ken Ralston in qualità di
supervisore agli effetti speciali).
Attraverso il fotorealismo, l’animazione tridimensionali e la ricostruzione
di ambienti e scenari spaziali, gli artisti della Imageworks diventano così
veri e propri filmmekers.
Più, gli artisti della Imageworks lavorano con i registi più si sviluppano
progetti per futuri lungometraggi esplorando nuovi confini e nuove
possibilità creative per inventare situazioni e tecniche nuove.
Con l'arrivo di Ken Ralston verso la fine del 1995 come presidente e
Tim Sarnoff nel 1997 come vice presidente esecutivo e direttore
generale, l'azienda ora ha oltre 350 artisti, assistenti tecnici, tecnici e
personale ausiliari alloggiati in un edificio di 14000 metri quadrati
progettato per gli artisti della produzione digitale.
Sony Pictures Digital Entertainment (SPDE), è l'unità operativa della
Sony Pictures Entertainment (SPE), si occupa della produzione digitale
e online la quale include la Sony Pictures Imageworks, Sony Online
Entertainment e Colombia Tri-Star interattiva.
Le aree principali della SPDE sono tre:
q
Produzione e sviluppo degli effetti visivi e dell’animazione al
computer.
q
Animazione digitale dei personaggi.
q
Servizi per il cinema, televisione, online e PlayStation.
346
Le risorse della Sony Pictures Entertainment, (raccolte di film
cinematografici e per la televisione), sono fonte d’ispirazione nello
sviluppo di nuove forme e servizi online, giochi e programmi interattivi,
Lo scopo della Sony Pictures Entertainment è di fornire video-surichiesta (video-on-demand), la televisione interattiva e la distribuzione
di altre forme di contenuti digitali su reti a banda larga d'emissione.
347
FILMOGRAFIA
1998
SPHERE
CITY OF ANGELS
GODZILLA
SNOW FALLING ON CEDARS PATCH
1997
STARSHIP TROOPERS
CONTACT
ANACONDA
THE POSTMAN
AS GOOD AS IT GETS
THE GHOST IN THE DARKNESS
1996
JAMES AND THE GIANT PEACH
THE CABLE GUY
PHENOMENON
MICHAEL
1995
DIE HARD WITH A VENGEANCE
HIDEAWAY
JOHNNY MNEMONIC
MONEY TRAIN
TO DIE FOR
1994
SPEED
WOLF
1993
LAST ACTION HERO
IN THE LINE OF FIRE
MY LIFE
SO I MARRIED AN AXE MURDERER
348
PIXAR
L'inventore di Star Wars, dopo aver fondato nel 1977 l’Industrial Light &
Magic, dà vita a un laboratorio di ricerca sulle immagini di sintesi, la
Pixar Animation Studios. Grazie a Steve Jobs, che la rileva nel 1984 e
ne è l'attuale presidente, la Pixar è cresciuta come società autonoma,
leader nella ricerca per l'animazione digitale.
Gli inizi
E' stato John Lasseter a dare le indicazioni originarie.
Il regista e animatore firma i primi cortometraggi. The Adventures of
André and Wally B (1984) è il segno che non è più necessaria la
materia ovattata dei soliti toons. A rendere familiari i personaggi
bastano i colori vivaci e l'effetto 3D. La stessa geometricità è un limite
stimolante: così è per Luxo Jr. (1986, Oscar come miglior
cortometraggio), in cui mamma lampada è alle prese con i giochi di un
figlio irrequieto e pasticcione. Non servono neppure aggiustamenti
antropomorfi: sono più importanti le definite psicologie dei protagonisti.
Con Red's Dream (1987), Tin Toy (1988) e Knicknack (1989) si gettano
le basi per le coproduzioni Disney.
Disney Relationship
Nel 1991, la Pixar ha preso parte ad un accordo con gli studi del Walt
Disney per la creazione e la produzione di tre lungometraggi in CG,
realizzati mediante l’animazione tridimensionale. Toy Story fu la prima
pellicola fatta sotto questo accordo. Nel 1997, Pixar ha annunciato un
nuovo accordo con la Disney. In conformità al nuovo accordo, i due
studi saranno soci uguali dei cinque prossimi film (comprese le due
pellicole restanti sotto il vecchio accordo) e su tutta la merce relativa. La
prima pellicola realizzata dopo l'accordo del 1997 fu A Bug's Life che è
uscita nel 1998. I seguiti non contano come una delle cinque pellicole,
quindi, Monsters, prevista per il 2001, è la seconda pellicola realizzata
con la Disney.
Sotto il consiglio di John Lasseter, Pixar ha costruito un'intera squadra
creativa, compreso il reparto di animatori altamente specializzati, un
reparto di sceneggiatura e un reparto di arte.
Questa squadra fu responsabile della creazione, della sceneggiatura e
dell'animazione di tutte e tre le pellicole.
349
La tecnologia
Pixar è responsabile di molte importanti innovazioni nell'applicazione
della computer-grafica. Le squadre tecniche e creative della Pixar
hanno collaborato dal 1986 per sviluppare tre sistemi di software
dedicati:
Marionette, un sistema di software per la modellistica, l'animazione e
l’illuminazione.
Ringmaster, un sistema di software per la gestione della produzione,
per la programmazione, la coordinazione e il traking in computer
animation.
RenderMan, un sistema di software per la rappresentazione (rendering)
di alta qualità e immagini foto-realistiche che Pixar usa internamente ed
autorizza ai terzi.
Awards
Toy Story 2 è stato onorato dall'associazione di Hollywood Foreign
Press con un Golden Globe per migliore immagine, musica e storia. La
pellicola è stata anche scelta come miglior lungometraggio animato
dalla Broadcast Film Critics Association.
Il compositore Randy Newman ha ricevuto un Golden Globe così come
un’Academy Award per la partitura in Toy Story 2.
A Bug's Life è stata scelta come Favorite Family Film by the
Blockbuster Entertainment Awards nel 1999. Inoltre nel 1999, il
compositore Randy Newman ha vinto un Grammy per la sua
composizione musicale per A Bug's Life (Best Instrumental Composition
Written For A Motion Picture, Television or Other Visual Media) e si è
nominato per il la miglio Commedia Musicale (Best Original Musical or
Comedy Score).
Agli Annie Awards (premi per lo sviluppo dell’animazione) del 1996, Toy
Story ha vinto tutti e otto gli honors cinematografici, vincendo ciascuna
delle categorie nominate. Oltre la vincita del premio per il migliore
lungometraggio animato,
Pixar ha ricevuto il riconoscimento per: Direzione, che è andato al
direttore di Toy Story, John Lasseter; Produzione, ricevuto da Ralph
Guggenheim e Bonnie Arnold; Sceneggiatura, ricevuto da Andrew
Stanton, Joss Whedon, Joel Cohen e Alec Sololow; Disegno di
produzione, ricevuto da Ralph Eggleston; Animazione, che è andato a
di Peter Doctor; e musica, ricevuto da Randy Newman.
Sempre per Toy Story, gli studi di animazione della Pixar hanno
ricevuto uno special technical achievement award per gli straordinari
avanzamenti tecnici nell’animazione tridimensionale generata al
computer.
I premi di Annie sono patrocinati dalla società internazionale per i
lungometraggi animati.
350
Per più di undici anni, le squadre creative e tecniche della Pixar hanno
lavorato molto attentamente per produrre i cortometraggi e gli spot
pubblicitari per la televisione, usando l’animazione tridimensionale al
computer e continuando a sviluppare software proprietari e abilità
tecnica.
Nel 1986, esce il primo cortometraggio Pixar, Luxo Jr., ricevendo un
Academy Award per il miglior cortometraggio animato. Geri's Game è il
sesto cortometraggio della Pixar, ha ricevuto nel 1997 il premio
dell’Academy Award come miglior cortometraggio animato. Nel totale,
gli impiegati della Pixar hanno ricevuto diciotto premi dell’Academy
Award.
Questione di metodo
Nella società si distinguono un Art department e uno Story department,
ma le somiglianze con l'animazione tradizionale finiscono presto:
costruiti i prototipi dei personaggi, scansionati da una penna ottica o
realizzati al computer con un programma di computer sculpting, si
lavora sulle scene con il regista, attraverso il raugh bloking, una
rudimentale animazione al computer, prima di dare il rendering
definitivo. L'interesse principale è associare nuove tecniche a quelle
classiche, per dare alle immagini di sintesi un effetto di realtà
indipendente dalla ricerca del dettaglio visivo e a favore di un'estetica
tutta da inventare.
Allo scopo di attrarre e mantenere i più esperti animatori, l'azienda ha
fondato la Pixar University, che sviluppa corsi e aggiornamenti per gli
animatori e i tecnici.
Pixar ha una squadra completa di produzione che dà all'azienda la
possibilità di gestire tutti gli elementi relativi alla produzione di
lungometraggi.
Le sedi
La sede centrale della Pixar si trova in California ad Emeryville, qui
sono impiegati circa 500 dipendenti.
Steven P. Jobs, è direttore generale della Pixar, Edwin E. Catmull, è
vice presidente esecutivo e capo del dipartimento tecnologico, Ann
Mather, vice presidente esecutivo ed ufficiale finanziario principale,
John Lasseter, vice presidente esecutivo, del dipartimento creativo,
Sarah McArthur è vice presidente esecutivo di produzione.
351
FILMOGRAFIA
2001
MONSTERS
1999
A BUG’S LIFE
TOY STORY 2
1997
GERI’S GAME
1995
TOY STORY
1990
KNICKNACK
1988
TIN TOY
1987
RED’S DREAM
1986
LUXO JR.
1984
THE ADVENTURES OF ANDRÉ AND WALLY B
352
STAN WINSTON
Più volte vincitore degli Academy Award Stan Winston è effettivamente
il primo creatore al mondo delle creaturine meccaniche, protagoniste di
molti film fantascentifici, da The Terminator e ai mostri extra-terrestri di
Aliens agli incredibili dinosauri di Jurassic Park e del personaggio
fantastico di Edward Scissorhands, Winston ha vinto quattro Academy
Awards e nove nomination. Può vantare tre British Academy of Film
and Television Arts Awards, due Emmys e numerosi altri premi per
l’industria cinematografica.
Winston ha vinto la sua prima nomination all’Oscar per il make-up nel
film Heartbeeps del 1981, anno in cui gli speciali make-up vengono
riconosciuti come categoria ufficiale.
Ha ricevuto le nomination all’Oscar per Aliens, Predator, Edward
Scissorhands, Terminator 2: Judgment Day, Jurassic Park, Batman
Returns e The Lost World.
Ha ricevuto per Aliens, anche il BAFTA Award; due per Terminator 2:
Judgment Day come Best Make-Up e Best Visual Effects e un altro
BAFTA Award per i migliori Effetti Speciali; e il suo quarto Oscar per
l’adattamento dei dinosauri con le live-action in Jurassic Park
La carriera nel modo degli effetti speciali, comincia nel 1969 presso la
Disney, in qualità di apprendista truccatore e gia nel 1972 riceve il suo
primo Emmy Award per il film Gargoyles.
Dal 1973 al 1979 ottiene altri cinque nomination per l’Emmy Award.
Nel giro di pochi anni Stan Winston compie una carriera impressionante
lavorando insieme a registi famosi come James Cameron, Arnold
Schwarzenegger, Joel Silver, Tim Burton, Tom Cruise e Steven
Spielberg, per citarne alcuni.
Nel 1999 Winston realizza otto progetti: Touchstone Pictures' Instinct,
protagonista Anthony Hopkins e Cuba Gooding, Jr.; Phoenix Pictures'
Lake Placid, con Bill Pullman and Bridget Fonda; per la Disney realizza
Inspector Gadget con Matthew Broderick e Rupert Everett; Austin
Powers: The Spy Who Shagged Me, e il fenomenale Bruce Willis nel
film The Sixth Sense per Disney's Hollywood Pictures.
Nel 1999 si conclude anche il film d’azione di Schwarzenegger End of
Days, Deuce Bigalow: Male Gigolo della Disney, e il film di fantascienza
della DreamWorks Galaxy Quest.
Il 2000 ha visto l’uscita del film What Lies Beneath dellaDreamWorks'
diretta da Robert Zemeckis.
Il 2001 vede l’uscita del film Pearl Harbor diretto da Michael Bay.
Lo studio di Stan Winston a Los Angeles continua ad allargare le sue
competenze dal disegno, al make-up alla realizzazione dei modelli.
Abbracciando la tecnologia della CG, Winston assicura al suo studio un
brillante successo.
353
FILMOGRAFIA
2001
PEARL HARBOR
2000
GALAXY QUEST WHAT LIES BENEATH
1999
END OF DAYS
GALAXY QUEST
DEUCE BIGALOW END OF DAYS
THE SIXTH SENSE
LAKE PLACID
AUSTIN POWERS
THE SPY WHO SHAGGED ME
INSTINCT
1998
INSPECTOR GADGET
SMALL SOLDIERS
PAULIE: A PARROT'S TALE
MOUSEHUNT
1997
THE LOST WORLD
THE RELIC
1996
THE GHOST & THE DARKNESS
COMMERCIAL: BUDWEISER
JOHN CHAMBERS: MAESTRO OF MAKEUP
THE ISLAND OF DR MOREAU
1995
CONGO
TANK GIRL
1994
INTERVIEW WITH THE VAMPIRE
ADVENTURES OF GNOME NAMED GNORM
1993
JURASSIC PARK
1992
BATMAN RETURNS
1991
TERMINATOR II JUDGMENT DAY
1990
EDWARD SCISSORHANDS
1987
PREDATOR II
1989
LEVIATHAN
354
1988
ALIEN NATION
PREDATOR
PUMPKINHEAD
MONSTER SQUAD
1986
ALIENS
INVADERS FROM MARS
1985
THE TERMINATOR
STARMAN
1983
SOMETHING WICKED THIS WAY COMES
1981
THE ENTITY
DEAD & BURIED
HEARTBEEPS
1982
THE THING
1978
THE WIZ
1976
W.C. FIELDS & ME
355
TIPPET STUDIO
Phil Tippet inizia a lavorare nella pubblicità all’età di diciassette anni,
mentre frequenta una scuola d’arte. Segnalato da Muren operatore di
effetti speciali alla ILM, viene assunto con Jon Berg come animatore
per il film Guerre Stellari.
Per L’Impero colpisce ancora, disegna diverse creature, occupandosi
anche dell’animazione.
Il lavoro svolto con Dennis Muren, Stuart Ziff, Gary Leo, Tom St. Amand
per il film Il drago del lago di fuoco è determinante per lo sviluppo della
nuova tecnica di animazione per miniature, definita go-motion.
Per la sua opera prestata nel film Il ritorno dello Jedi, ha avuto
l’Accademy Award.
Il suo primo lavoro indipendente è un cortometraggio intitolato:
Prehistoric Beast.
Quello fu un importante passo avanti per l'uomo che una volta era
supervisore dell’officina delle creatura della ILM.
In sedici anni, quindici lungometraggi sei nomination all’Oscar e un
piccolo studio che diventa una grande società con più di 125 artisti,
progettisti, assistenti tecnici e animatori.
Sotto la direzione di Phil e dei suoi soci, di Jules Roman (vice
presidente e produttore esecutivo) e di Craig Hayes (direttore creativo e
supervisore agli effetti speciali), lo studio è diventato uno degli studi
principali di effetti speciali e animazione tridimensionale del mondo.
Dai dinosauri di Jurassic ai giganteschi insetti di Starship Troopers, le
notevoli immagini create da Tippett Studio continuano a stupire e
dilettare il pubblico di tutto il mondo.
Phil Tippett, fondatore e presidente del Tippett Studio in BerkeleyCalifornia, grazie alla sofisticata conoscenza di filmaker e alla potente
abilità di visualizzare una sequenza per mezzo di dinamici movimenti
ha meritato due Oscar e sei nomination, così come due Emmy award.
La carriera del Phil ha percorso oltre 20 anni dal suo inizio come
animatore in go-motion alla direzione di una completa società di effetti
speciali con più di 150 impiegati.
All'età di sette, Phil vede la saga dei Viaggi di Simbad, con gli effetti
speciali di Ray Harryhausen, il film orienterà non solo i suoi studi ma
l’intera sua vita. Phil laureatosi all’Università d’Arte di Irvine in California
inizia a lavorare presso la Cascade Pictures a Los Angeles.
Nel 1978, Phil dirige il reparto di animazione della ILM con Jon Berg per
The Empire Strikes Back.
Nel 1982 sviluppa la tecnica di animazione chiamata Go-Motion per
Dragonslayer ricevendo la suo prima nomination all’Academy Award
per l’animazione straordinariamente realistica del drago.
Nel 1984 Tippett, riceve il suo primo Oscar, grazie ai modelli realizzati
per l’ILM nel film Return of the Jedi.
356
Nel 1983 Phil lascia l’ILM per fondare la Tippett Studio e realizza il suo
primo cortometraggio della durata di 10 minuti, un film sperimentale
intitolato Prehistoric Beast.
Il realismo dei dinosauri e la descrizione teorico-scientifica ne fanno un
contemporaneo documentario che viene trasmesso nel 1985 dalla CBS
col nome di Dinosaur!
Tippett Studio ha vinto il suo primo award, un Emmy per gli Effetti
Speciali Visivi, per le sequenze animate dei dinosauri nella trasmissione
della CBS.
Nel 1985 il produttore Jon Davison affida a Phil Tippett le sequenze
animate del robot per Robocop.
Phil decide di affidare parte del lavoro a Craig Hayes, il quale disegna e
progetta il robot ED209.
Questo progetto segna l'inizio d'una lunga collaborazione fra Phil e
Craig.
Nel 1991, grazie all’esperienza acquisita attraverso lo studio del
comportamento dei dinosauri, Phil ottiene da Stven Spielberg l’incarico
di coordinare il reparto di animazione dell’ILM. In qualità di direttore
dell’animazione, Phil supervisionò, per Jurassic Park, entrambi gli studi,
il Tippet Studio e il reparto di animazione dell’ILM.
Per il realismo dei dinosauri il lavoro di Phil fu premiato da un Oscar, e
grazie a questo film la tippet Studio e Craig Hayes svilupparono il
Dispositivo di input Digitale-DID-, il quale trasferisce i dati in stopmotion al computer, cosicché possano essere ricreati velocemente
dagli animatori, i movimenti registrati.
Nel 1995, il Tippett Studio è stato chiamato in aiuto per creare le giganti
e ostili aracnidi aliene nell'adattamento di Paul Verhoeven al romanzo di
fantascienza di Robert Heinlein Starship Troopers.
Tippett ha ordinato una squadra di 100 animatori, creatori di modelli,
digital-artist e tecnici espandendo così il reparto di CG.
Tippett ha ricevuto nel 1997 la sesta nomina all’Accademy Award.
La fine degli anni 90 sono stati un momento di notevole sviluppo per il
Tippett Studio. Phil ha supervisionato l’animazione e gli effetti in Virus
per la Universal e My Favorite Martian per Disney.
Recentemente ha supervisionato gli effetti con Craig Hayes, nel film di
Jan De Bont, The Haunting per la Dreamworks.
357
FILMOGRAFIA
2000
Mission to Mars
Hollow Man
1999
Virus
My Favorite Martian
The Haunting
1997
Starship Troopers
1996
Dragonheart
1995
Three Wishes
Tremors II: Aftershocks
1993
Jurassic Park
RoboCop 3
1990
RoboCop 2
1987
RoboCop
358
WALT DISNEY
Pur tra innovative coproduzioni (i lungometraggi Pixar) e coraggiose
distribuzioni (La principessa Mononoke), la storica Walt Disney
conserva ancora il proprio inconfondibile stile nel cinema di animazione
contemporaneo.
In principio erano Topolino e le Silly Simphonies, poi arrivò qualche
abitante di Paperopoli e nel 1937 - quando Walt Disney aveva 36 anni Biancaneve e i sette nani, primo lungometraggio della casa.
Due milioni di dollari e quattro anni di lavorazione. Seguiranno altri
adattamenti da intramontabili fiabe (su tutte Cenerentola, 1950), da
classici della letteratura e del teatro (Peter Pan, 1953, era una pièce di
James M. Barrie) e anche soggetti originali (uno dei più celebri è Gli
Aristogatti, "perché resister non si può al ritmo del jazz").
Negli anni '80 la Disney sembra aver perso il suo smalto, fino a quando
il dirompente Chi ha incastrato Roger Rabbit (1988) non ne risolleva le
sorti, ridando anche vita ad un filone con precedenti illustri
(cartoon+umani = I tre Caballeros, 1945, o Mary Poppins, 1964, tanto
per fare due nomi).
Dal 1989 (La sirenetta), la Disney sforna un lungometraggio di
animazione all'anno, senza contare i sequel per l'Home Video, e
sfoggia un vero e proprio lifting della propria immagine. In termini di
qualità artistica ma soprattutto d’impatto promozionale (a partire dai
gadget in regalo nell'Happy Meal di MacDonald). A ben vedere, però, i
connotati della produzione sono sempre gli stessi ed è nella ripetizione
della formula che si nasconde il segreto del suo successo.
Walt aveva un sogno: unire in matrimonio le forme rotondeggianti dei
suoi personaggi con armoniose melodie musicali. Realizzare
un'immagine che nascesse dal suono, un'animazione il cui movimento
fosse stabilito da partiture illustri. L'inventore di tanti characters
rincorreva un'imprevista esigenza del suo popolo cartoonistico: la
connessione di sperimentazioni visive delle avanguardie anni '30 alla
dolcezza delle forme, al coinvolgimento emotivo per un cinema
d'animazione narrativo e didattico. E Topolino aveva bisogno di un
nuovo ingaggio. Nacque così Fantasia (1940).
Che siano estremamente orecchiabili o terribilmente sdolcinate, le
canzoni targate Disney ipnotizzano i bambini. Oltre a essere un
accompagnamento, assolvono precise funzioni narrative: fanno
evolvere gli eventi o mettono in luce alcuni aspetti dei personaggi. C'è
poi sempre un motivetto particolarmente trascinante che accompagna il
momento clou di allegria e di ipercineticità di ogni film (vedi "Akuna
Matata" ne Il re leone, 1994). Il recente Tarzan non è però un classico
musical-cartoon in cui gli stessi protagonisti "interpretano" i pezzi,
attraverso doppiatori più o meno celebri, ma affida alla voce esterna di
359
Phil Collins il commento di quanto avviene in scena (e anche la morale
della favola).
Il motto firmato Walt Disney è valido ancor oggi per i suoi eredi di
sangue e di penna.
Nel lontano 1940, significava gettare nel calderone commercio e
aspirazioni artistiche, sperimentazioni tecniche e gusto per il kitsch.
Il celebre direttore d'orchestra Stokowski che dialoga con Topolino,
"direttore di stelle" nei sogni di apprendista stregone; la presenza di
Stravinskji, adattatore del proprio spartito La sagra della Primavera; la
Philadelphia Orchestra al completo, protagonista degli intermezzi e del
primo episodio (Toccata e fuga in re minore, di Bach): non si trattava di
una semplice sfilata di star musicali e cartoon-cinematografiche.
Il senso profondo era racchiuso in una vaga aspirazione del creatore.
"Fantasia è un'idea che vive di vita propria." Un'idea ripetibile ad libitum,
come è scritto in fondo alle partiture musicali. Walt insegue il fascino
che il disegno animato emana da se stesso. Il primo Fantasia si apre
con un affermazione programmatica: "…questa è musica fine a se
stessa".
Anno 2000: Roy Disney jr., nipote del primo Disney, non si è fatto
spaventare dal fallimento di Fantasia. L'opera che avrebbe dovuto
rivoluzionare il cinema d'animazione fu un fiasco clamoroso. A chi non
piacque la scelta delle musiche (adattate alle conoscenze "turistiche" di
un pubblico incolto), chi criticò l'eccessiva rotondità del tratto, chi la
banalità dei presupposti ideologici. Terminata l'epoca del one man show
di Walt Disney, gli staff si sono sparsi per il globo e non sempre hanno
perseguito la stessa alta professionalità. Così l'insieme di Fantasia
2000 si presenta più eterogeneo. Tranne che per il primo episodio,
simile di concetto all'avvio di Fantasia '40 (farfalle color pastello
volteggiano lottando con forme geometriche nere, malvagie), tutti i
nuovi episodi hanno una struttura narrativa più solida e sofisticata,
anche se peccano di ingenuità nel presentare al pubblico smaliziato del
2000 un universo ancora nettamente diviso tra bene e male (è il caso
dell'ultimo episodio, Suite l'uccello di fuoco). Questa volta, però, al
centro dell'attenzione non è tanto la possibilità di unire musica e
immagini in un connubio artistico ed emotivo altissimo. Acquisita la
tecnica del videoclip musicale, rotte le barriere della narrazione
tradizionale, sembra che gli staff Disney cerchino di rinverdire il
concetto-Fantasia affiancandolo alle infinite alternative grafiche che in
questo secolo si sono offerte allo spettatore di ogni arte visiva.
Le meraviglie del digitale danno consistenza e peso alle enormi balene
in volo verso una supernova esplosa (I pini di Roma); il tratto
volutamente schematico, i colori brillanti, la bidimensionalità
dell'insieme di Rapsodia in blu sono non solo un omaggio a Hirschfierld,
famoso caricaturista, ma anche la testimonianza del fatto che i
disegnatori conservano sempre - con tutti gli strumenti tecnici a loro
360
disposizione - un proprio stile, che può anche andare contro le immagini
correnti e corrive.
361
PACIFIC DATA IMAGES
Pacific Data Images ha creato meravigliose immagini per film e spot,
includendo l’ottimo lavoro svolto per T2, Batman Forever e Natural Born
Killers. PDI è stata una delle prime società ad utilizzare la tecnica del
morphing per i video di Michael Jackson, ed è una delle migliori società
di animazione tridimensionale al mondo.
All’età di 23 anni, Carl Rosendahl fonda la PDI.
PDI recentemente collabora con la DreamWorks SKG al fine di coprodurre film d’animazione.
362
FILMOGRAFIA
1999
ANTZ
1997
THE PEACEMAKER
BATMAN & ROBIN
A SIMPLE WISH
TITANIC
1996
BROKEN ARROW
THE ARRIVAL
ERASER
EXECUTIVE DECISION
1995
BATMAN FOREVER
1994
TRUE LIES
NATURAL BORN KILLERS
DENNIS THE MENACE
1993
HEART & SOULS
CARLITO'S WAY
ANGELS IN THE OUTFIELD
THE BABE
1991
TERMINATOR 2: JUDGMENT DAY
TOYS
363
PARTE 6: LA SITUAZIONE EUROPEA
364
COME MIGLIORARE LA COMPETITIVITÁ DEL SETTORE
AUDIOVISIVO EUROPEO
Il contesto generale: competere sul mercato globale
La forte presenza delle produzioni americane sul mercato audiovisivo
europeo e, di fatto, sul mercato audiovisivo globale è una caratteristica
ormai tradizionale del nostro secolo. Attualmente, la massima parte dei
mercati europei sono caratterizzati da una "bipolarità" dualistica:
la programmazione televisiva consiste principalmente in materiali di
origine nazionale o statunitense; in generale, i materiali americani sono
più numerosi di quelli nazionali;
sui mercati cinematografici si riscontra il predominio, in gradi diversi, dei
film statunitensi, mentre gli altri film presenti sui rispettivi mercati sono
per la massima parte di produzione nazionale.
In entrambi i casi i materiali europei non nazionali si situano in genere a
un lontano terzo posto, almeno sui mercati più vasti. Il punto di
maggiore debolezza dell’Europa è il mercato dei lungometraggi non
nazionali: proprio in questo mercato la presenza statunitense è più
forte.
I motivi del successo riscosso dai prodotti statunitensi, soprattutto in
campo cinematografico, sui mercati audiovisivi mondiali e in particolare
europei. Si possono sintetizzare in quanto segue:
q
i prodotti americani si possono vendere sul mercato mondiale a
condizioni molto concorrenziali, perché di norma i costi vengono
recuperati, in misura superiore che in ogni altro paese, grazie alle
vendite sul grande e omogeneo mercato nazionale;
q
I vantaggi in termini di esportazione dovuti alla lingua inglese.
q
Commercializzazione e pubblicità quanto mai efficaci.
q
Il successo di Hollywood, in questo secolo, nel creare un tipo di
linguaggio e grammatica audiovisivi globali.
q
Il dinamismo dell’imprenditoria americana e la qualità di molti dei
suoi prodotti e della loro commercializzazione.
q
L’incapacità di altre imprese audiovisive di raccogliere la sfida.
q
L’appoggio forte e sostanziale del governo statunitense.
q
I contenuti riflettono gli interessi del consumatore: le esigenze
europee di sviluppare politiche lungimiranti intese a consentire alle
società europee di diventare più competitive sul mercato globale.
È un fatto concreto che, per realizzare profitti, il settore audiovisivo
americano dipende sempre più dalle esportazioni, le quali costituiscono
attualmente il 43% degli introiti delle "grandi società" americane.
Inoltre, il propulsore della crescita sono le vendite ai canali televisivi non
americani, in particolare quelli della TV a pagamento.
I redditi della TV a pagamento costituiscono il 30% dei proventi totali
delle maggiori società americane.
365
Oltre che a esportare semplicemente programmi, queste società
predominanti stanno anche impiantando in Europa canali televisivi
tematici.
La forte posizione dell’industria statunitense nel settore audiovisivo
mostra l’importanza del nesso tra produzione e distribuzione: gli US
sono eccellenti in entrambe tali attività, mentre in Europa la produzione
è solida in termini quantitativi ma la capacità del settore audiovisivo di
distribuire i propri prodotti lascia molto a desiderare, specialmente fuori
del paese di produzione. Tali differenze sottolineano l’esigenza di un
aumento del sostegno pubblico a tale settore ed evidenziano la
necessità di passare da strutture frammentarie e basate sulla
produzione a un’impostazione integrata basata sulla distribuzione.
L’Europa non è ancora capace di riconoscere l’importanza strategica di
controllare i cataloghi di diritti sui contenuti di pregio. Non si tratta
semplicemente di un concetto culturale: chi controlla i diritti sui
contenuti influirà in misura considerevole sulle modalità della loro
distribuzione.
Il controllo sui contenuti conferisce controllo sulla distribuzione e anche
sulle proiezioni: le massime società statunitensi, per esempio, stanno
investendo massivamente in sale cinematografiche in Europa.
È importante che le società europee del settore dei mass media
cerchino di massimizzare i proventi dei contenuti che esse producono
e/o controllano avvalendosi al massimo grado di tutti i mezzi possibili di
distribuzione, compresi quelli forniti dai nuovi media on- e off-line.
Nel tentare di tenere il passo con il rapido aumento della domanda di
lungometraggi e di sceneggiati televisivi, l’Europa può imparare molto
da Hollywood in termini di competitività. Per esempio:
occorre incrementare in grande misura il tempo e il denaro da destinare
allo sviluppo di sceneggiature e si deve frenare la tendenza europea a
procedere alla produzione prima che la sceneggiatura sia completata.
Per le sceneggiature, i produttori europei spendono in media l’1% del
bilancio di un film, mentre le massime società statunitensi stanziano a
tale scopo il 10% dei loro bilanci (che sono di gran lunga superiori):
i produttori e i responsabili della produzione devono proseguire la loro
formazione per potenziare la propria efficienza commerciale e la
conoscenza del mercato;
si devono incrementare a livello europeo gli investimenti nella
formazione professionale e nella riqualificazione di produttori, registi,
autori e tecnici;
si deve potenziare e migliorare il marketing: spesso le massime società
statunitensi stanziano a tale scopo sino al 50% del bilancio di un film;
si devono creare dispositivi per ripartire i rischi degli investimenti
cinematografici su un pacchetto di film.
Per la televisione, che costituisce il nucleo del mercato, è stato più
evidente lo spostamento dell’audience dai programmi americani a quelli
europei. È difficile quantificarne gli effetti concreti, ma sembra proprio
366
che a questo successo stiano contribuendo i vari dispositivi di sostegno
del settore audiovisivo europeo introdotti negli ultimi dieci anni a livello
europeo e nazionale.
Non si tratta, tuttavia, di un fenomeno totalmente nuovo ed è troppo
presto per proclamare la rinascita della cinematografia europea.
L’effetto principale dell’avvento del digitale sarà un enorme aumento
della domanda di materiali audiovisivi. Per l’Europa, quindi, si pone il
seguente interrogativo:
Quest’enorme aumento della domanda di contenuti audiovisivi, in
particolar modo di film, sceneggiati e documentari televisivi, verrà
soddisfatta con materiali d’archivio e d’importazione oppure con una
nuova programmazione nazionale?
Il finanziamento della produzione ad opera della televisione
Nell’esaminare le modalità per migliorare la competitività del settore
audiovisivo europeo, si deve riconoscere che le emittenti televisive
svolgono una funzione guida nel finanziare la produzione di programmi
non soltanto cinematografici ma anche televisivi (e, in molti casi, si
tratta di programmi realizzati da loro stesse).
È difficile ottenere cifre precise riguardanti gli investimenti dei canali
televisivi europei nella produzione: in parte, ciò è dovuto al fatto che il
loro contributo al finanziamento può concretarsi in forma di unico
produttore, coproduttore o acquirente di diritti di distribuzione. Un altro
problema è distinguere tra gli investimenti in sceneggiati televisivi (film
televisivi, serie, miniserie ecc.) e lungometraggi. Nel Regno Unito, in
Italia, in Francia e in Portogallo è previsto l’obbligo, per i canali
televisivi, di investire nella cinematografia: in effetti, in questi paesi gli
investimenti dei canali televisivi nella produzione di film è sostanziale.
Nel Regno Unito, per esempio, oltre un terzo dei film prodotti sono
finanziati parzialmente da emittenti televisive.
Detto questo, si deve rammentare che la produzione non riguarda
soltanto i lungometraggi: le produzioni destinate unicamente alla
televisione possono avere altrettanta importanza culturale delle
produzioni cinematografiche e sono essenziali per lo sviluppo del
settore.
Negli ultimi anni la produzione televisiva europea è in crescente
incremento, grazie a vari fattori principali:
l’avvento delle televisioni private ha accresciuto la concorrenza e la
domanda di nuove produzioni;
il pubblico ha espresso una netta preferenza per programmi nella loro
lingua e rispondenti alla loro cultura;
le produzioni americane stanno diventando più care e sembrano soffrire
di una "carenza di creatività".
L’attuale livello elevato degli investimenti nella produzione audiovisiva è
dovuto all’aumento delle spese di programmazione delle emittenti
367
private e pubbliche (le prime hanno incrementato in misura
considerevole le loro spese rispetto ai bassi livelli iniziali, mentre le
seconde mantengono e anzi stanno aumentando i loro livelli
tradizionalmente elevati d’investimenti nella produzione europea).
Le
emittenti
devono
rivolgere
maggiore
attenzione
alla
commercializzazione come parte integrante del processo di produzione
e di distribuzione. Il successo delle produzioni hollywoodiane si spiega
in gran parte con il fatto che, in proporzione, i budget per la
commercializzazione sono molto più ingenti a Hollywood che nelle
produzione europee e molto maggiore è anche l’attenzione che si
rivolge alla commercializzazione. A tale riguardo, poiché i canali
televisivi privati europei dipendono per la loro sopravvivenza dal valore
commerciale dei loro programmi, essi possono apportare al processo
della produzione audiovisiva la perizia e l’esperienza che sono tanto
necessarie.
Le misure di sostegno
Il settore audiovisivo non è semplicemente un’industria come un’altra:
svolge una funzione culturale e sociale d’importanza vitale. Se il
mercato audiovisivo europeo sarà dominato dai prodotti culturali di
un’altra società, il risultato finale sarà la parziale alienazione di un
popolo dal proprio contesto culturale e storico. Preoccupazioni di
questo tipo non sono puramente europee: sono condivise da numerose
società dell’Estremo Oriente e persino da paesi nel continente
americano, quali il Canada. Inoltre, questo settore presenta un’enorme
rilevanza economica, considerato il suo potenziale per la crescita e la
creazione di posti di lavoro in Europa. Nondimeno, gli interventi pubblici
dovrebbero limitarsi in linea di massima a campi nei quali si manifesti
un’evidente debolezza del mercato; inoltre, nelle misure di sostegno a
livello europeo (relativamente esigue nella loro portata rispetto alle
sovvenzioni nazionali) si deve tener conto della diversità delle situazioni
nazionali, cercando di agire in forma complementare rispetto alle
politiche nazionali e aggiungendo una dimensione europea.
La situazione ideale consisterebbe in un settore audiovisivo europeo
che non necessiti più di sostegni e interventi pubblici, ma ciò sembra
impossibile nel futuro prevedibile. L’interrogativo è quindi: quale forma
debbano assumere le misure di sostegno e gli interventi per conseguire
risultati ottimali?
I contenuti informativi (servizi di attualità, finanziari e ricreativi, oltre ai
documentari) raramente creano un valore in termini di catalogo di
programmi. L’eccezione è costituita dai documentari, sebbene in
genere siano notevolmente meno costosi dei lungometraggi. Di
conseguenza, le barriere che si frappongono all’accesso in tale settore
di contenuti sono relativamente basse e si può ritenere che i programmi
368
di questo genere (tranne i documentari) non debbano costituire una
priorità per le misure di sostegno a livello europeo.
I contenuti ricreativi comprendono due categorie principali: lo sport e i
lungometraggi.
A parte poche eccezioni, quali la Formula 1, non si può dire che lo sport
abbia veramente un’audience internazionale: persino manifestazioni
quali i Giochi olimpici e la Coppa del mondo di calcio spesso richiedono
una presentazione diversa in funzione del pubblico nazionale. Inoltre, in
ogni singolo paese il livello d’interesse per tali manifestazioni dipende in
gran parte dalla partecipazione ad esse di squadre o rappresentanti
nazionali (non è una coincidenza che, per la finale della Coppa del
mondo 1998, la televisione francese abbia registrato un’audience di 28
milioni). Gli Stati membri hanno la facoltà di chiedere che alcune
manifestazioni di grande importanza sociale siano accessibili sulla
televisione gratuita. I programmi sportivi in quanto tali, per i quali la
domanda e i prezzi sono elevati e l’offerta è più che abbondante,
costituiscono un esempio di contenuti che non richiedono sostegno
europeo. Invece i lungometraggi, pur avendo un ampio potenziale
internazionale, sono costosi da produrre: di conseguenza, all’accesso a
questo segmento del mercato si frappongono barriere elevate. Quanto
si è detto si applica, mutatis mutandis, agli sceneggiati e ai documentari
televisivi, i quali, in termini di contenuto, presentano al contrario il
massimo valore a lungo termine grazie al loro valore per i cataloghi di
programmazione. Se sono necessarie misure di sostegno, è proprio qui
che vanno applicate. Qui di seguito si presentano le proposte del
Gruppo per simili misure di sostegno.
Fondi di finanziamento mediante titoli
Un grave problema di fronte al quale si trovano i produttori europei
consiste nel finanziamento. Nelle sue conclusioni del 28 maggio 1998, il
Consiglio dei ministri si è riferito specificamente all’interesse espresso
dai professionisti del settore intervenuti per la creazione di uno
strumento finanziario atto ad attirare capitali privati nella produzione
europea. Si tratta di un riferimento alla proposta della Commissione di
costituire un Fondo europeo di garanzia, che è stata accolta con favore
dal settore industriale, dal Parlamento europeo e dalla maggioranza
degli Stati membri, ma non ha ottenuto la necessaria unanimità in sede
di Consiglio. Tuttavia, anche quegli Stati membri che non sono stati in
grado di unirsi alla maggioranza favorevole a tale proposta hanno
espresso interesse per il principio (di uno strumento comunitario atto ad
attirare in misura maggiore gli investimenti del settore privato nella
produzione di opere europee aventi potenziale di vendita
internazionale) in misura sufficiente perché l’idea non venga
abbandonata puramente e semplicemente. Al contrario, l’alternativa è
continuare a sostenere con energia l’idea del Fondo di garanzia oppure
369
elaborare una nuova e diversa serie di proposte da presentare al
Parlamento europeo e al Consiglio in occasione del riesame del
programma MEDIA II.
In tale contesto presenta interesse il dispositivo finanziario noto come
"finanziamento mediante titoli", a cui hanno fatto ricorso la Fox e la
Universal (due delle massime società statunitensi del settore) e la
Polygram. Tale dispositivo prevede l’impiego di una base limitata di
capitale netto (di norma fra il 3 e il 4%) di un terzo partecipante, più
l’assunzione di debito bancario mediante garanzia costituita da titoli
negoziabili. I fondi raccolti in tal modo servono per finanziare i costi
negativi (cioè la produzione) dei film prodotti negli studios, i quali
conservano tutti i diritti per la loro distribuzione. Gli studios non
garantiscono il rimborso del debito bancario, ma sono tenuti ad
assumere una quota di debito subordinato, cioè ai fini del ricupero dei
propri costi di distribuzione e di commercializzazione, i quali costi, per
assicurare una adeguata diffusione dei film, devono essere pari ad
almeno il 60% dei costi negativi. Questa condizione minima di spesa in
posizione subordinata, combinata con il cumulo dei risultati ottenuti da
tutti i film finanziati mediante questo schema, fornisce alle banche un
"garanzia" efficace (ma non assoluta).
Il dispositivo che si è qui descritto, il quale consente agli studios
hollywoodiani di procurarsi per i loro pacchetti di film ingenti importi di
finanziamento relativamente a basso costo, potrebbe servire da
modello per un’analoga struttura comunitaria. Per esempio, si potrebbe
prevedere la seguente struttura:
la Comunità potrebbe individuare un numero limitato di società di
produzione e/o distribuzione (oppure consorzi comprendenti più
società) aventi una capacità di produzione internazionale di circa 10 film
ciascuna per un triennio. Dovrebbe trattarsi di film atti ad essere
commercializzati sul mercato internazionale;
la Comunità fornirebbe il capitale netto, necessario per ottenere altri
finanziamenti dalla banche, così da costituire un fondo coperto da
società assicuratrici;
quest’importo sarebbe distribuito alle società o consorzi selezionati, che
se ne servirebbero per finanziare principalmente lo sviluppo e la
produzione dei film in questione, secondo livelli preconcordati.
Del totale delle spese di produzione, un importo minimo sarebbe
sborsato da società indipendenti dai consorzi. In tal modo, questa
struttura potrebbe contribuire a mantenere in una situazione di sana
autonomia il settore di produzione in Europa;
le società o consorzi partecipanti dovrebbero sostenere con mezzi
propri, per la stampa e la pubblicità, il 60% dei costi negativi dei loro
film (cioè i costi effettivi di produzione). Sarebbe consentito alle società
o consorzi di assicurarsi contro la perdita di parte di questo 60%,
prelevando ricevuta.
370
Questo finanziamento, oltre ad essere relativamente poco costoso, non
figurerebbe nel bilancio ufficiale delle società partecipanti, il che
costituisce un vantaggio di rilievo in termini contabili (per esempio
evitando inutili preoccupazioni da parte degli azionisti).
Questo tipo di struttura si è già rivelata efficace per grandi società in
grado di offrire il necessario pacchetto di film.
L’interrogativo principale per quanto riguarda la fattibilità di questo
dispositivo in Europa è se sia possibile costituire consorzi,
possibilmente comprendenti società di più Stati membri, che siano in
grado di offrire congiuntamente il necessario potenziale di produzione e
di distribuzione. Se la risposta è positiva, l’incidenza strutturale di un
simile dispositivo sarebbe di grande rilievo e, di conseguenza,
fornirebbe un notevole corrispettivo rispetto al denaro impiegato. Poiché
l’importo del contributo comunitario sarebbe relativamente esiguo, non
è necessario presentare al riguardo una proposta a sé stante e si
potrebbero includere le necessarie disposizioni in una proposta globale
di riesame del programma MEDIA II.
Una rete di scuole cinematografiche e televisive in Europa
In Europa vi è una grande tradizione di scuole cinematografiche e
televisive che forniscono un’offerta molto abbondante di corsi di
formazione iniziale a livello nazionale. Ci si potrebbe avvalere di tale
tradizione per svilupparla a livello europeo secondo tre modalità:
le scuole devono scambiarsi le prassi migliori e stimolare
reciprocamente le proprie idee per mantenere e migliorare il loro livello
di eccellenza e aggiungervi la dimensione europea;
è necessario integrare gli attuali programmi di studio mediante corsi che
pongano in grado i professionisti europei in erba di acquisire le capacità
commerciali internazionali che li rendano capaci di concorrere su
mercati globali;
si dovrà prevedere un Centro simbolico per il potenziamento della
qualità nei settori cinematografico e televisivo europei.
In termini concreti, ciò si tradurrà in incremento delle sovvenzioni del
programma MEDIA a favore di una rete di istituti che impartiscano a
titolo permanente corsi di formazione professionale sulle
specializzazioni in gestione societaria dei mass media internazionali
(affari, finanze, commercializzazione e questioni giuridiche).
La rete dovrà offrire formazione anche nella redazione e nello sviluppo
di sceneggiature per il mercato internazionale, e inoltre negli effetti
speciali e nell’animazione tramite le nuove tecnologie e il computer.
Le organizzazioni che attualmente ricevono finanziamenti dal
programma MEDIA saranno invitate ad adoperarsi al massimo per
estendere le loro attività, in termini al tempo stesso geografici e
linguistici, al di là dell’Europa settentrionale e occidentale, per
371
correggere l’attuale squilibrio a sfavore dell’Europa meridionale e
orientale.
Per rafforzare e ampliare le reti di formazione europea nell’ambito del
programma MEDIA, è necessario, ai fini della coerenza, un grado
elevato di coordinamento fra i centri di alta qualità: ciò sarebbe
agevolato - ed i settori cinematografico e televisivo europei sarebbero
così dotati di un simbolico "Centro dei centri" - istituendo una "Scuola
europea cinematografica e televisiva", cioè un Centro nel senso di un
luogo fisico concreto dove si possano svolgere le attività di
coordinamento e possano riunirsi periodicamente i professionisti in fase
di formazione. Questo Centro sarebbe finanziato in parte in forma
autonoma e in parte con il contributo del settore, più sovvenzioni
aggiuntive (almeno all’inizio) da parte del programma MEDIA e dei
governi nazionali.
Dei premi europei di prestigio.
Anche se il settore audiovisivo europeo sarà dotato del necessario
capitale di base, di un contesto normativo e di formazione, richiederà
pur sempre una manifestazione per presentare le sue produzioni
televisive e cinematografiche. Già da qualche anno l’Accademia
cinematografica europea ha organizzato premi cinematografici
(chiamati un tempo premi "Felix") e sta adoperandosi al massimo per
migliorarne la qualità.
Negli Stati Uniti vi sono gli Academy Awards (gli "Oscar") e i loro
equivalenti per la televisione (gli "Emmy"), che servono da eccellenti
strumenti di commercializzazione. Il settore europeo trarrebbe grande
vantaggio da una mostra a premi avente analoga incidenza. A giudizio
del Gruppo di alto livello, quest’idea potrebbe essere elaborata in tempi
brevi da operatori interessati del settore, in particolare l'Accademia, con
l’apporto della Commissione per consentirne lo sviluppo.
372
IL PROGRAMMA MEDIA
Il programma MEDIA costituisce un complemento necessario dei
programmi nazionali di sostegno. Data la limitatezza dei finanziamenti
disponibili, il programma deve rimanere incentrato sulla promozione
della distribuzione paneuropea di film europei e sull’appoggio alle
imprese europee perché diventino operatori validi a livello non soltanto
europeo ma anche internazionale.
In base all’esperienza acquisita con il programma MEDIA I, nel MEDIA
II si sono selezionati tre settori cruciali:
q
la formazione
q
lo sviluppo
q
la distribuzione.
Il programma è entrato in vigore il 1° gennaio 1996.
Il Gruppo ha approvato il varo, nel 1997, di un sistema di "sostegno
automatico" per la distribuzione dei film nelle sale cinematografiche,
secondo il quale è stabilito un nesso tra le sovvenzioni a favore dei film
e il loro successo in termini di incassi sui mercati non nazionali di tutta
Europa. Questo dispositivo di sostegno ricompensa il successo e
contribuisce quindi a rendere più competitivo il settore audiovisivo
europeo; inoltre, consente di raccogliere dati statistici quanto mai
importanti, che contribuiscono a far conoscere meglio il mercato
europeo. Quindi si dovrebbe dare base permanente a questo sistema di
sostegno, incrementando il bilancio stanziato per il sostegno
"automatico" (in opposizione a quello selettivo). Si deve inoltre
esaminare a fondo l’opportunità di ampliare la portata del sostegno
automatico ad altre forme di distribuzione, per esempio tramite video
(anche in questo caso sui mercati non nazionali).
Nel settore della formazione professionale permanente, il programma
MEDIA può contribuire in misura decisiva a costituire la rete di scuole
cinematografiche e televisive europee. Inoltre, si deve accrescere il
bilancio destinato allo sviluppo: si suggerisce che le sovvenzioni U.E.
allo sviluppo non siano più un prestito singolo, una tantum, di cui è
esclusa una seconda erogazione, ma vengano concesse per fasi,
valutando ad ogni fase il potenziale della sceneggiatura, con la
conseguente possibilità che il totale raggiunga un massimale molto più
elevato. Si può prevedere un’impostazione "a due livelli": il primo aperto
a tutti, come nell’attuale sistema, e il secondo destinato a imprese che
abbiano un passato di comprovati successi, una comprovata capacità di
sviluppare un pacchetto di film e dimostrabile accesso al finanziamento
in partnership.
Si dovrebbe abolire del tutto il sistema di pagamenti e rimborsi previsto
agli inizi del programma MEDIA II. Se un film sovvenzionato dal Fondo
di sviluppo del programma MEDIA non arriva alla fase della produzione,
le sovvenzioni andranno stornate al 100%. A meno che non vi sia
373
rottura del contratto da parte del produttore, la responsabilità
dell'insuccesso spetta tanto al Fondo di sviluppo, che ha deciso di
sostenere il progetto, che al produttore. Penalizzare un produttore dopo
che questi ha visto naufragare un progetto è errato e punitivo.
Finanziare lo sviluppo costituisce un investimento a rischio molto
elevato: le sovvenzioni ai produttori vanno erogate secondo modalità
ancora più rigorose, tenendo conto di criteri al tempo stesso industriali e
culturali.
I progetti prescelti vanno seguiti sintantoché appaiano validi, possono
ricevere sovvenzioni supplementari quando se ne debba perfezionare
lo sviluppo oppure vanno abbandonati quando sembra che procedano
male.
I prodotti video fruttano spesso proventi molto più cospicui delle
produzioni cinematografiche. Tuttavia, l’unica forma di sovvenzione
prevista dal programma MEDIA II sono delle indennità per il flusso di
tesoreria; inoltre, gli importi disponibili sono troppi esigui. La struttura
attuale serve a poco e va riveduta: ancora una volta, si dovrebbe
prevedere un sistema di sostegno automatico, tenendo conto del
potenziale dei videodischi digitali DVD.
Incoraggiare gli investimenti nella produzione da parte delle emittenti
televisive.
Di solito le emittenti finanziano la produzione audiovisiva, in particolare i
lungometraggi, in forma diretta, ma sono molto numerose le altre
possibilità della televisione di svolgere funzioni di maggiore rilievo nel
finanziamento o nel sostegno della produzione. Per esempio:
le emittenti potrebbero incrementare i loro preacquisti dei diritti di
diffusione di lungometraggi;
nei paesi di dimensioni più ridotte, spesso le emittenti hanno problemi a
causa della limitatezza dei rispettivi mercati: accordi con le emittenti di
altri paesi potrebbero incrementare i finanziamenti disponibili e il
mercato potenziale. Ciò potrebbe essere agevolato mediante un
sistema di sostegno automatico;
inoltre, le emittenti potrebbero organizzare lo scambio di film e di altri
programmi, consentendo così un rinnovo più rapido delle riserve e,
anche in questo caso, ampliando i mercati potenziali.
si potrebbero stabilire punti permanenti di contatto tra produttori
televisivi e cinematografici;
infine, la pubblicità televisiva di lungometraggi può avere effetti di rilievo
sul loro successo sul mercato: le emittenti potrebbero procedere a tale
pubblicità come parte del finanziamento.
Molto di quanto le emittenti possono fare per sostenere la produzione
può provenire dall’iniziativa delle emittenti stesse oppure, nel caso delle
emittenti pubbliche, tramite la missione di servizio pubblico. Tuttavia,
possono svolgere una funzione importante anche gli accordi di
partnership "volontaria" tra le pubbliche autorità e le emittenti private.
374
Il rimborso da parte dello Stato può servire per finanziare altra
produzione audiovisiva: l’emittente può scegliere all’interno di tutta una
serie di produzioni, comprese quelle selezionate dagli Istituti del cinema
e del settore audiovisivo, e quindi può optare per quelle produzioni che
risultino più adatte alla sua particolare audience. Il finanziamento può
essere diretto o tramite azione promozionale. L’emittente ne trae
profitto poiché acquisisce il controllo, in certa misura, sui progetti
selezionati per il finanziamento e in quanto avrà il diritto di trasmettere il
film. Il produttore trae profitto dall’intensa azione promozionale a favore
del film e dalla garanzia che verrà presentato in televisione. Il risultato
globale è l’accrescimento della produzione. La Comunità e gli Stati
membri dovrebbero esaminare come favorirne la diffusione e in
particolare come tradurre in realtà il potenziale transnazionale dei film e
dei programmi prodotti.
375
RISULTATI DEL PROGRAMMA MEDIA II
Giunto al suo ultimo anno, il Programma MEDIA II (1996-2000) a
sostegno del cinema e delle opere audiovisive ha permesso ad oggi:
di sviluppare 1350 opere europee (film, telefilm, documentari,
animazione, multimediale) tra le quali "Elisabeth" di Sheka Kapur (sei
premi al BAFTA 1999 e al Golden Globe 1999), "East is East" di
Damien O'Donnell (Premio Alexander Korda per il miglior film britannico
BAFTA 2000 e l'Espigo de Oro a Valladolid), "Solas" di Benito
Zambrano (5 riconoscimenti ai Premi Goya 2000 e Iris d'Or al Festival
di Bruxelles) "Dancer in the Dark" di Lars von Trier (Palma d'Oro al
Festival di Cannes 2000) o ancora "Pane e Tulipani" di Silvio Soldini (7
riconoscimenti al David di Donatello 2000), e "Kirikou et la sorciere" di
Michel Ocelot (Gran Premio del lungometraggio al festival d'animazione
di Annecy nel 1999);
di sostenere lo sviluppo di 210 imprese di produzione europee;
di sostenere più di 1830 campagne di promozione e di distribuzione per
360 film europei: "Aprile" di Nanni Moretti, "On connaît la chanson" di
Alain Resnais (7 Césars ed il Premio Louis Delluc nel 1998), "La vita è
bella" di Roberto Benigni (Oscar Miglior Film Straniero 1999 e Gran
Premio della Giuria a Cannes 1998), "Festen" di Thomas Twycker,
"Todo sobre mi madre" di Pedro Almodovar (Premio per la regia al
Festival di Cannes 1999, Oscar per il Miglior Film Straniero 2000),
"Asterix" di Claude Berri;
In quattro anni, il numero di film distribuiti al di fuori del loro Paese di
produzione è aumentato dell'85%, passando da 246 nel 1996 a 456 nel
1999. In rapporto ai film prodotti in Europa nello stesso periodo, la
proporzione di film distribuiti al di fuori del loro Paese d'origine è
passata da 13,71% a 22,19%.
di coprodurre e distribuire 275 opere televisive (fiction, documentari,
programmi d'animazione) quali "Il Conte di Monte Cristo", "St. Ives",
"Carvalho", "Mobutu Roi du Zaïre" oppure "Simsalagrimm";
di editare e distribuire in video circa 200 cataloghi di opere europee;
di sostenere 350 sale cinematografiche, totalizzando 831 schermi in
213 città d'Europa, impegnate in una programmazione maggioritaria di
film europei per un totale di 75 milioni di spettatori;
di sostenere annualmente 64 festival cinematografici con una
programmazione 7.500 opere europee, illustrando la creatività e la
diversità delle cinematografie europee, per un pubblico di più di
2.000.000 persone.
- di sostenere 145 iniziative di formazione che hanno permesso a più di
4.000 professionisti (produttori, sceneggiatori, autori,...) di accrescere le
loro competenze sul mercato internazionale.
376
MEDIA PLUS
Mille miliardi di lire al servizio della creazione audiovisiva europea.
La Commissione Europea, la Banca Europea d'investimento (BEI) e il
Fondo Europeo d'investimento (FEI) propongono all'industria
audiovisiva europea una nuova fase di attività destinate a rinforzare la
sua base finanziaria e ad accelerare il suo adattamento alle nuove
tecnologie numeriche. Intervenendo a complemento del Programma
Media Plus (2001-2005), questo pacchetto finanziario si pone come
obiettivi l'aumento della competitività di questa industria e di favorire lo
sviluppo di contenuti audiovisivi europei.
Viviane Reding, commissario europeo responsabile della Cultura e
dell'Audiovisivo, e Philippe Maystadt, Presidente della Banca europea
d'investimento, hanno presentato oggi a Bruxelles una nuova strategia
di cooperazione tra le Commissioni, BEI e FEI che mettono in pratica,
nell'ambito dell'audiovisivo, il mandato consegnato a Lisbona nel Marzo
2000 dai capi di Stato e di governo dell'Unione europea (UE) mirato a
facilitare la transizione dei Quindici verso un'economia e una società
fondata sull'informazione e la conoscenza. Della durata iniziale di 3
anni, l'iniziativa "i2i-Audiovisivo" conta di concedere importanti risorse
economiche: alcune stime, basate sulle prime operazioni in corso di
valutazione, permettono di considerare un volume iniziale di
finanziamento del gruppo BEI superiore al mezzo miliardo di EURO,
ovvero mille miliardi di Lire.
Sono state presentate quattro linee d'azione:
Linee di credito (o "prestiti globali") della BEI al settore bancario
specializzato nell’audiovisivo per il finanziamento di piccole imprese di
creazione audiovisiva e di tecnologie audiovisive.
Il finanziamento a medio e lungo termine del BEI, in cooperazione con il
settore bancario, di grandi gruppi privati o pubblici di televisione, di
produzione o di distribuzione audiovisiva per i loro investimenti
d'infrastrutture (studi, installazioni numeriche, stazioni di emissione, et.)
o di creazione (produzione di "bouquets" di film, distribuzione di opere o
di cataloghi).
Il finanziamento di fondi di capitale a rischio specializzati
nell'audiovisivo attraverso la partecipazione del FEI.
Azioni congiunte del gruppo BEI e la Commissione Europea mirate ad
assicurare una migliore complementarità tra le risorse bancarie del
Gruppo e le sovvenzioni comunitarie del programma Media Plus, il
quale è dotato di un budget di 400 milioni di EURO su 5 anni per
sostenere la cooperazione tra distributori europei (campagne di
distribuzione, etc.) per sviluppare i servizi "on-line", valorizzare gli
archivi cinematografici e sviluppare i canali numerici tematici
377
Inoltre, Viviane Reding e Philippe Maystadt sperano di incoraggiare il
dialogo tra i finanzieri europei dell'audiovisivo, che fino ad ora lavorano
con poca collaborazione su dei progetti europei.
Commentando questa decisione, Philippe Maystadt ha dichiarato: " è
fondamentale che l’Europa prenda il suo posto nell’industria
audiovisiva. Per questa ragione sia economica che culturale, è
indispensabile offrire un finanziamento adatto ai criteri europei. E’ ciò
che noi tentiamo di fare attraverso il programma "i2i" lanciato a seguito
del Summit di Lisbona."
Viviane Reding ha stimato che "questa iniziativa congiunta vuole fare
entrare l’Europa dell’audiovisivo in un circolo virtuoso. Poiché se
riguadagnassimo delle parti di mercato, i nostri creatori, vedendo la loro
audience aumentare, creerebbero loro stessi dei mezzi finanziari nuovi
e accrescerebbero così la possibilità di diffondere la nostra cultura in
altri paesi europei e nel mondo. Dobbiamo quindi avere un metodo
decisionista e rilanciare la sfida sui nostri impegni e sulle diversità
culturali.
Sostegno all’industria audiovisiva
Adozione da parte del Consiglio Cultura del programma MEDIA Plus di
sostegno all'industria audiovisiva europea
Il Consiglio riunito a Bruxelles ha raggiunto un accordo sul Programma
MEDIA Plus (2001-2005) con un budget di 400 millioni di EURO, come
proposto dalla Commissione. Tale programma comprende un'area di
"formazione continua dei professionisti dell'audiovisivo" (adeguamento
al digitale, tecniche di vendita, formazione alla scrittura di
sceneggiature, ecc.) che dispone di 50 milioni di EURO e un'area
"sviluppo, distribuzione, promozione" che dispone di 350 milioni di
EURO. Il budget di MEDIA II (1996-2000) era di 310 millioni di EURO.
I tre Stati membri che avevano suggerito un budget inferiore (RegnoUnito, Paesi Bassi, e Germania) hanno infine accettato il budget di 400
millioni di EURO. La fase "formazione" deve essere adottata dal
Parlamento (codecisione) in seconda lettura, prima dell'adozione finale
del Consiglio. La fase "sviluppo" (consultazione semplice e unanimità)
può essere adottata come punto A durante il prossimo Consiglio.
I ministri si sono accordati sulla seguente ripartizione indicativa del
budget MEDIA Plus area "sviluppo, distribuzione, promozione": almeno
il 20% per lo sviluppo, almeno il 57,5% per la distribuzione, l'8,5% per la
promozione, il 5% per i progetti pilota (novità di MEDIA Plus rispetto a
MEDIA II e destinata in particolare a facilitare il passaggio al digitale) e
almeno il 9% per i costi strutturali (in particolare i MEDIA Desk negli
Stati membri)
Viviane Reding si è rallegrata che il Consiglio abbia adottato la proposta
della Commissione, che "dà un segnale forte ai professionisti
dell'audiovisivo circa la volontà dei Quindici di sostenere il cinema
378
europeo e accrescere la sua competività dal momento che il digitale
offre un formidabile potenziale di crescita e di impiego". Il commissario
ha ribadito ai ministri la volontà della Commissione di gestire MEDIA
Plus in piena trasparenza ed ha insistito perché vengano dati dei mezzi
sufficienti ai MEDIA Desk, che sono la chiave di volta del sistema
nell'informare e sostenere i professionisti che intendono prendere parte
al programma. Grazie a MEDIA, la proporzione dei film europei che
circolano al di fuori del loro Paese d'origine è passata da meno del 14%
nel 1996 a più del 22% nel 1999 e più del 60% dei film europei
distribuiti in altri Paesi rispetto a quello di produzione sono sostenuti da
MEDIA.
Inoltre, Viviane Reding ha comunicato ai ministri che sono sul punto di
concretizzarsi i colloqui della Commissione con la Banca Europea degli
Investimenti (BEI) volti ad attivare, per il settore audiovisivo, strumenti
quali i prestiti, le garanzie o il sostegno a fondi di capitale a rischio.
LA COMMISSIONE ADOTTA LE PROPOSTE
PER IL PROGRAMMA MEDIA PLUS (2001-2005)
La Commissione ha adottato la proposta di Decisione del Parlamento
Europeo e del Consiglio sull'attuazione di un nuovo programma di
Formazione di professionisti nel settore audiovisivo (MEDIA PlusFormazione) ed una proposta di Decisione del Consiglio sull'attuazione
di un nuovo Programma di incentivi allo Sviluppo, Distribuzione e
Promozione di opere audiovisive europee (MEDIA Plus- Sviluppo).
Le due Decisioni andranno a coprire il periodo dal 2001-2005.
Il Programma Media Plus sarà introdotto nel 2001 come proseguimento
del Programma Media II (1996-2000), e sarà incentrato in modo
specifico sulla circolazione di opere audiovisive europee, dentro e fuori i
paesi dell'Unione Europea, con un maggior legame tra i risultati
conseguiti sul mercato ed il sostegno concesso. Il programma sarà
inoltre sufficientemente flessibile da consentire, durante il suo periodo
di attuazione, di sostenere nuovi tipi di progetti legati all'evoluzione di
tecnologie digitali. Media Plus presterà una particolare attenzione alle
esigenze dei Paesi nei quali l'industria audiovisiva è poco sviluppata e/o
ad aree linguistiche e geografiche ristrette.
MEDIA PLUS sarà inoltre aperto ad accettare sia quei paesi che hanno
fatto domanda di adesione, a patto che la loro legislazione sia
sufficientemente allineata con la politica stabilita dalla Comunità per ciò
che concerne il settore dell'audiovisivo, sia altri paesi europei.
MEDIA PLUS interverrà in modo complementare con i sistemi nazionali
di finanziamento all'audiovisivo, cioè a monte e a valle della produzione
dell'opera. Esso sarà inoltre complementare con altre iniziative
comunitarie, come il 5° Programma Quadro/Ricerca (1998-2002) o
379
l'iniziativa e-Europe (finanziamento con capitale a rischio nella fase di
avvio nel settore audiovisivo).
A commentare le proposte sulle decisioni di Media Plus, Viviane
Reding, neo membro della Commissione con specifica responsabilità
per l'educazione e la cultura, ha espresso il suo pieno appoggio alla
" produzione audiovisiva europea che non dovrà più contare solo sulla
sua inventiva ed originalità, riflesso della sua diversità culturale, ma
dovrà anche disporsi in modo risoluto ad attirare un pubblico europeo e
mondiale".
Media Plus - Formazione
Il Programma Media Formazione è rivolto ai professionisti
dell'audiovisivo, formatori e a quelle imprese che lavorano nel settore
dell'audiovisivo. Esso promuoverà la formazione legale e commerciale,
la formazione nell'uso delle nuove tecnologie (in particolare la computer
grafica e il multimediale), la formazione per sceneggiatori professionisti
nella redazione e nello sviluppo di sceneggiature rivolte ad un pubblico
non nazionale. MEDIA PLUS incoraggerà inoltre network di istruttori e
professionisti nei relativi paesi.
Il Cofinanziamento Comunitario dei progetti avverrà attraverso dei fondi,
in genere non superiori al 50%. La maggioranza dei partecipanti nel
settore della Formazione dovrà essere di nazionalità diversa da quella
del paese in cui il corso di Formazione avrà luogo.
La Decisione del Programma Media-Formazione si è basata sull'art.150
del Trattato (Formazione professionale - codecisione e maggioranza
qualificata). Il budget proposto per il Programma Media -Formazione è
di 50 milioni di Euro per il periodo 2001-2005.
Media plus - Sviluppo
Poiché l'aiuto pubblico nazionale all'industria audiovisiva nazionale è
diretto principalmente alla produzione, il Programma MEDIA Sviluppo è
incentrato sulla fase di sviluppo e di distribuzione delle opere.
Il sostegno finanziario della Comunità deve essere considerato come
un incentivo per l'industria in grado di smuovere investimenti finanziari
complementari. Il finanziamento comunitario avviene sotto forma di
prestito, in generale non superiore al 50% del costo del progetto.
MEDIA PLUS-Sviluppo comprende quattro forme di sostegno; sviluppo,
distribuzione, promozione e progetti pilota.
Per poter assistere nello sviluppo del contenuti audiovisivi idonei ad
attrarre un pubblico europeo ed internazionale, i progetti individuali
(sceneggiatura, ricerca di un partner finanziario ed artistico, studi di
marketing) presentati dai produttori europei e che rispondano a questo
criterio saranno eleggibili per il cofinanziamento comunitario.
Le imprese di produzione saranno incoraggiate attraverso
l'assegnazione di un aiuto non rimborsabile per sviluppare pacchetti di
progetti che incontrino una strategia di sviluppo a medio-termine. Sarà
particolarmente incoraggiato l'uso di nuove tecnologie.
380
Lo schema di sostegno alla distribuzione è altamente sviluppato,
compreso, nel caso del cinema, lo schema di supporto selettivo nella
forma di un anticipo non rimborsabile inducendo i distributori di opere
europee a raggrupparsi in network e ad investire nella distribuzione e
nel multilinguismo (doppiaggio, sottotitolaggio e produzione
multilingue).
Si aggiunga un sistema di sostegno automatico proporzionale al
numero di biglietti venduti per film europei non-nazionali, da reinvestire
nello sviluppo di produzioni europee. Altre forme di sostegno come
l'aiuto per la realizzazione della colonna sonora per film europei e l'aiuto
per esercenti cinematografici affinché programmino un numero
significativo di film europei nelle principali sale cinematografiche per un
periodo minimo di programmazione sono inclusi in MEDIA PLUS.
Novità per quanto riguarda la distribuzione "off-line" (videocassette,
DVD),dove viene previsto un sistema di sostegno automatico, con
l'obbligo di reinvestimento nella edizione, distribuzione e promozione di
opere europee.
Nel caso della televisione, un sostegno andrà ad incoraggiare la
cooperazione tra i distributori televisivi apparteneneti a differenti aree
linguistiche. Per quanto riguarda la distribuzione di opere europee on line (Internet, pay-per-view, etc.) lo scopo è quello di incoraggiare lo
sviluppo di cataloghi di opere in formato digitale.
Quanto alla promozione, le misure del programma mirano ad aiutare i
professionisti ad ottenere l'accesso al mercato europeo ed
internazionale accrescendo la loro presenza nei principali mercati
professionali e festival anche attraverso una migliore utilizzazione dei
cataloghi di programmi europei.
I progetti pilota, infine, riguarderranno in particolare la digitalizzazione di
archivi di programmi europei.
La Decisione sul Programma di MEDIA-Sviluppo è basata sull'art.157
del trattato TCE (industria - unanime decisione del Consiglio a seguito
della consultazione del Parlamento). Il budget proposto per il
Programma MEDIA-Sviluppo è di 350 milioni per il periodo 2001-2005.
381
IL DIGITALE IN ITALIA
Ad un esame, anche sommario, sul totale della produzione
cinematografica nostrana, risulta subito evidente quanto poco successo
abbia riscosso l'utilizzo degli effetti speciali, soprattutto se paragonato
alla produzione made in USA.
Infatti, a differenza dei cineasti statunitensi che, proverbialmente intenti
a confezionare film spettacolari, hanno impiegato tempo ed energie
nella ricerca di soluzioni sempre più sofisticate, tra i nostri registi e
produttori fino a pochi anni fa - e in parte tuttora - la concezione
dominante è stata quella di impronta neorealista.
Il motto di questa corrente artistica sostiene che in un film il regista
debba "Parlare del portiere di casa"; ora, con questa forma mentis dalle
sembianze vagamente tradizionaliste, in che modo il cinema italiano
avrebbe potuto adeguarsi al cammino innovativo e sperimentale - in
senso tecnologico- intrapreso negli Stati Uniti? Come sarebbe stato
possibile giustificare il ricorso ad un qualunque tipo di effetto speciale,
che altro non è che un'alterazione intenzionale del reale?
Quei pochi pionieri che nel nostro paese hanno scelto la strada della
trasgressione, comunque, non hanno potuto - per l'indifferenza del
mondo dello spettacolo - o saputo distaccarsi da una concezione
statica, primitiva, dell'idea di effetto speciale.
Il risultato di questo insieme di circostanze sfavorevoli è stato l'impiego
di trucchi artigianali, semplificati all'estremo, cristallizzati in uno stato e
affatto destinati all'evoluzione: gli 'esperti' di effetti speciali si sono
arrangiati con ghiaccio secco, modellini e trippa (per gli horror).
Soltanto a partire dalla seconda metà degli anni '70 inizia faticosamente
la formazione di un gruppo di veri esperti truccatori ed effettisti, costretti
però ad esportare all'estero il loro talento; fra questi possiamo ricordare
Carlo Rimbaldi, Mario Bava, Giannetto de Rossi e Sergio Stivaletti.
I loro contributi nel cinema italiano, si contano oggi sulle dita di una
mano, e sono rimasti limitati al genere horror e fantascientifico.
Soltanto in tempi recenti, a seguito delle grandissime trasformazioni
occorse nell'industria cinematografica mondiale con l'introduzione degli
interventi digitali in post-produzione, il mercato italiano sembra tentare i
primi passi verso un progressivo -seppur lento- adeguamento.
Il bisogno di definire un campo di autonomia rispetto alle issues più trite
del cinema americano è rimasto comunque uno dei tratti più marcati
della nostra produzione cinematografica.
Se negli Stati Uniti il ricorso ad interventi in post-produzione gioca un
ruolo primario sul piano della spettacolarità e della suggestione, in
un'Italia ancora legata alla tradizione la tendenza sembra all'inverso
quella di limitarne al massimo l'impiego e la visibilità: il ricorso all'effetto
digitale è consentito solo nei casi in cui questo contribuisca a ridurre i
382
costi e le difficoltà di filmare alcune riprese. Ad ogni modo, la sua
'invisibilità' è una prerogativa ineludibile.
Per quanto riguarda il primo incontro tra industria cinematografica e
visual effects, è d'obbligo citare Ritorno in casa Gori, divertente
commedia di Alessandro Benvenuti: nelle scene finali assistiamo, quasi
senza rendercene conto -la sequenza è infatti nulla se paragonata agli
effetti speciali made in USA- al primo intervento in post-produzione mai
realizzato su una pellicola italiana. Lo spirito di Adele (Ilaria Occhini)
volteggia sopra le teste degli altri protagonisti attoniti. Artefice del
miracolo è la Proxima.
In seguito a questo primo tentativo inizia timidamente a farsi strada il
desiderio di sperimentare le nuove tecnologie che, da interesse
esclusivo del mercato pubblicitario, si estende - pur senza superare i
limiti della pura curiosità - ad alcuni registi e case di produzione.
Nel 1996 Gabriele Salvatores tenta la rottura dallo schema tradizionale
della commedia all'italiana girando Nirvana, il capolavoro che, con 17
miliardi di investimento e 80 sequenze digitali, getta le basi per un
deciso processo di avvicinamento agli standard di produzione mondiali.
Gli effetti sono stati realizzati dalla Digitalia Graphics, azienda leader in
questo settore del mercato italiano, autrice di numerosi successi
cinematografici e pubblicitari.
La presentazione di Nirvana e l'enorme successo nazionale ed estero
hanno innescato un rapido processo di avvicinamento tra le nuove
tecnologie ed il mondo del cinema: anche i più scettici sostenitori del
valore della tradizione hanno dovuto ridimensionare il loro
atteggiamento di diffidenza, o almeno si sono trovati costretti a
fronteggiare una realtà che in precedenza si ostinavano ad ignorare.
I più autorevoli personaggi del panorama culturale italiano sono stati
chiamati ad esprimere opinioni sulla possibilità di un connubio tra
cinema e multimedialità: a tale scopo sono state organizzate varie
giornate di incontri (Montecarlo Imagina e Cinecittà).
La Camera di Commercio di Milano - sede delle più importanti imprese
nazionali nel settore della multimedialità - ha promosso il Progetto
DIMMI, nell'ambito del quale sono state realizzate alcune importanti
iniziative.
Successivi contributi alla realizzazione di film per il cinema sono stati
apportati ancora dalla Proxima in Fuochi d'artificio di Leonardo
Pieraccioni (le scene in questione sono due: il fulmine che colpisce
Ceccherini ed i razzi delle scene finali) e Ovosodo di Paolo Virzì
(ricostruzione digitale di una veduta panoramica) e dalla Digitalia in
Porzus di Renzo Martinelli (1998; tramite accurati interventi di morphing
i flashback dei protagonisti vengono resi più verosimili) e ne I piccoli
maestri di Daniele Lucchetti. Recentemente, Cinecittà ha compiuto un
importante passo di avvicinamento alle nuove tecnologie investendo
diversi miliardi nell'acquisto di sofisticati macchinari (laser scanner e
recorder Cineon Kodak per il trattamento delle pellicole e
383
multiprocessori Onyx per il restauro delle pellicole): negli studios è stato
girato il film di Giuseppe Tornatore, La leggenda del pianista
sull'oceano, in cui sono stati inseriti alcuni interventi realizzati dalla
Proxima, Zed VFX, e dalla Interactive Group.
Il digitale ormai si è prepotentemente imposto come nuova realtà
cinematografica, aprendo la via ad un'infinita serie di possibilità.
L'approccio italiano al digitale è ancora in una fase sperimentale e
rimane limitato a piccoli interventi.
Il problema è di ordine tecnico, poiché le apparecchiature di cui
disponiamo sono buone, ma purtroppo mancano delle organizzazioni
solide come la Industrial Light & Magic, le uniche in grado di formare
una categoria di tecnici veramente qualificata.
Gli effetti speciali nascono ad Hollywood, ma hanno spesso nomi
italiani. Questo succede per una questione puramente economica;
l'industria vera è ad Hollywood. Il rapporto tra la produzione
cinematografica italiana e quella americana può essere espresso in
termini di uno a cento... è ovvio quindi che i talenti si indirizzino dove c'è
più richiesta di lavoro e maggiori prospettive di guadagno.
384
DIMMI
DIMMI è il programma della Camera di Commercio di Milano per la
promozione del multimediale italiano (Digital Interactive Multimedia
Made in Italy).
Questo settore vede muoversi con successo alcune imprese
nell'editoria multimediale di nicchia (scuola, arti pittoriche e culinarie,
musica e sport) e soprattutto nel cinema. La Camera di Commercio di
Milano era presente alla rassegna con uno stand per la promozione
delle imprese italiane aderenti al progetto DIMMI.
Il Digital Interactive Multimedia Made in Italy (DIMMI), nato nel 1999
dalla collaborazione tra le aziende speciali della CdC di Milano
Cedcamera e Promos, si propone di:
* promuovere una più incisiva presenza del settore multimediale italiano
sul mercato internazionale.
* sostenere lo sviluppo di tale settore favorendo un miglior
coordinamento tra le imprese aderenti al DIMMI;
* valorizzare il patrimonio creativo della multimedialità italiana;
Le principali iniziative sono:
* Organizzazione di incontri d'affari tra le imprese aderenti al DIMMI e
potenziali partner esteri.
* Partecipazione alle principali fiere internazionali sulla multimedialità.
* Creazione di una banca dati con il repertorio della produzione
multimediale italiana.
* Costituzione di un supporto operativo di rete, con la collaborazione
della Camera di Commercio italiana a Los Angeles, che consentirà
l'attivazione per le imprese aderenti a DIMMI di servizi di interscambio e
di partnership con imprese statunitensi, specie nel campo degli effetti
speciali cinematografici.
385
LA FABBRICA DELL’IMMAGINARIO
Nel 1993 eravamo già convinti sulle positive opportunità di sviluppo
culturale e socio-economico date dalla affermazione della Società
dell'Informazione, promuoviamo il dibattito sulla promozione della
Cultura Digitale collaborando senza scopo di lucro con istituzioni,
amministrazioni pubbliche, università, centri di ricerca.
Nel 1994, con l'attivazione del programma di ricerca Umanesimo &
Tecnologia, abbiamo affermato il principio secondo il quale la
promozione della Cultura Digitale per lo sviluppo delle Scienze Umane
nell'Economia Digitale era uno degli obiettivi da perseguire per la
produzione di Contenuti di qualità nell'Industria dei Contenuti digitali che
si andava definendo in Europa.
Nel 1995, con l'attivazione di un laboratorio sperimentale in
collaborazione con l'Università, abbiamo promosso, primi nella Città di
Napoli, la Ricerca applicata all'uso delle nuove tecnologie nelle Scienze
Umane.
Nel 1996 abbiamo promosso il Manifesto multimediale "Napoli Città del
Lavoro e della Ricerca" - al quale hanno aderito istituzioni locali,
amministrazioni pubbliche, università, centri di ricerca - allo scopo di
contribuire a rendere sensibili le istituzioni verso le creazione di
condizioni ambientali favorevoli allo sviluppo della Società
dell'Informazione nella città di Napoli.
Nel 1997, attenti alle problematiche che si andavano evidenziando sul
mercato del lavoro con lo sviluppo della Società dell'Informazione,
abbiamo elaborato per il Comune di Napoli il progetto LINKED ed
abbiamo promosso la costituzione del Centro Studi Umanistici e
Ricerche Multimediali presso l'Istituto Universitario Orientale di Napoli.
Nel 1998 il gruppo di ricerca della Fabbrica dell'Immaginario aderisce al
Manifesto internazionale Technorelism e ne promuove i Contenuti in
Italia su Internet con la versione in lingua italiana.
Nel 1999 il Presidente della Provincia di Napoli sostiene moralmente il
progetto Umanesimo & Tecnologia, la Fabbrica dell'Immaginario si
attiva per la promozione della Cultura Digitale anche in altre regioni
italiane.
Nel 2000 la Fabbrica dell'Immaginario promuove l'accordo tra la
Provincia di Napoli, La Regione Toscana ed il Laboratorio Italiano
Digitale, cui fa capo Cinecittà Holding, per la Promozione della Cultura
Digitale.
386
John Attard in Chinatown.
John Attard co-fondatore della Fabbrica dell'Immaginario, dopo due
lunghi anni ritorna stabilmente in Italia a produrre effetti speciali digitali.
Il noto studio di pre e post-produzione milanese Chinatown ha stipulato
un contratto con l'artista digitale affidandogli la responsabilità del
reparto di produzione in computer grafica 3D e l'incarico di consulente
alla supervisione degli effetti speciali per le produzioni alla cui
realizzazione parteciperà la società.
John, che agli inizi della sua carriera di artista digitale ha lavorato
continuamente per tre anni al programma di ricerca Umanesimo &
Tecnologia, si è dichiarato entusiasta di ritornare a lavorare in Italia.
Nuovo corso in Chinatown la società di post-produzione milanese che
guarda al mercato internazionale con una nuova filosofia incentrata sul
Rinascimento Digitale.
Parlare di filosofia per una società di post-produzione appare un po'
azzardato ma in questo caso non c'è proprio nulla di esagerato.
Chinatown la più gialla delle società di post-produzione milanese, sta
rivoluzionando il suo metodo di lavoro per passare dal service evoluto
al Rinascimento Digitale con un nuovo responsabile del reparto 3D:
John Attard uno dei maghi degli effetti speciali.
Lo abbiamo incontrato per farci raccontare in che cosa si fonda questo
nuovo corso.
Tv Key: Rinascimento Digitale, il nome ríchiama un sublime periodo
della storia italiana, cosa ha a che fare con la tecnologia
dell'audiovisivo?
John Attard: Le tecniche si sono evolute, ma i principi sono rimasti
quelli dei pittori di 500 anni fa. Oggi ci sono strumenti elettronici al posto
dei pennelli, ma siamo in un'era di grandissima creatività artistica,
facilitata proprio dalla diffusione di queste tecnologie.
Tv Key: il Rinascimento ha visto eccellere grandi artisti, vede
un'analogia coi tecnici della post-produzione?
John Attard: In post-produzione non ci sono solo tecnici, ma dei veri
artisti. Spesso quello che manca è il metodo e talvolta l'esperienza. Il
mio compito è anche quello di coniugare queste differenti
caratteristiche, di introdurre un metodo di lavoro nuovo, funzionale
prima di tutto alla qualità del risultato. Questo si ottiene ottimizzando le
risorse e i tempi: avere più tempo a disposizione significa poter lavorare
meglio e quindi dare un risultato superiore.
Tv Key: In che modo il cliente recepisce questo diverso metodo di
lavoro?
387
John Attard: Mi rifaccio all'esperienza inglese, dove il primo passo è
stato quello di risolvere un punto centrale del rapporto col Cliente: di
cosa ha bisogno. Sembra banale, ma a volte la fretta e la mancanza di
metodo portano a una mancata convergenza tra le aspettative di chi
commissiona il lavoro e la sua attuazione. Questo è il primo passo.
Ogni fase del lavoro non è solo una conseguenza della fase
precedente, ma fa parte di un piano che deve tenere in ogni istante
perfettamente in conto quale deve essere il risultato.
Tv Key: Lei è considerato uno dei maestri mondiali del 3D, che cosa
l'ha spinta a venire in Italia e in Chinatown?
John Attard: Di Chinatown mi è piaciuto molto la mentalità, aperta alla
diffusione della conoscenza. Il limite delle strutture di post-produzione è
spesso costituito dalla tendenza a mantenere all'interno ciò che si
conosce e si apprende. Invece i successi si ottengono divulgando la
conoscenza per far crescere la cultura del mezzo e poi confrontandosi
sulle capacità e non sulle macchine.
In Chinatown ho trovato una totale adesione a quest'impostazione, ed
ecco il motivo del mio trasloco a Milano.
Tv Key: Per molti L'Italia è un territorio emarginato nell'Europa
dell'audiovisivo, non teme di aver fatto m una scelta che la mette fuori
dalle grandi produzioni continentali?
John Attard: Per me è esattamente il contrario. E' vero che l'Italia non è
una nazione di punta nel settore, ma sono convinto, anzi convintissimo
che quello che stiamo facendo in Chinatown contribuirà a cambiare le
cose, a beneficio anche dell'intero settore. Io sono qui per dare il mio
contributo per la costruzione di una grande struttura di post-produzione
europea per gli effetti speciali. Già oggi abbiamo moltiplicato i lavori
internazionali e il nostro metodo di lavoro, non mi stancherò di
ripetertelo, ci consente di gareggiare con i più prestigiosi concorrenti
europei e di vincere.
Tv Key: Intende rinforzare la squadra di Chinatown per aumentare
ancora la competitività internazionale?
John Attard: Uno degli elementi che mia ha spinto a venire a lavorare in
Chinatown è l'elevata competenza dell'attuale staff. Sono rimasto
davvero impressionato dalle capacità individuali e dalla lungimiranza
del management. Verranno sicuramente inserite nuove figure
professionali, ma attualmente Chinatown dispone già di persone
estremamente valide, in grado di affrontare qualsiasi progetto, e che
lavorano in squadra. Non ci sono prime donne, tutti lavoriamo per un
388
risultato collettivo e questo è fondamentale. Quello che ho trovato in
questa struttura è il piacere di lavorare insieme, un elemento vincente
per crescere e fare lavori di qualità.
Tv Key: Lei ridimensiona molto il valore delle tecnologie, ritenute però
un elemento fondamentale in una post-produzione.
John Attard: Le tecnologie non sono più un problema. Molti lavori di 3D,
anche complessi, possono essere eseguiti da giovani artisti che
lavorano a casa nel doposcuola. La potenza degli elaboratori e la
familiarità dell'interfaccia macchina hanno reso la tecnologia alla portata
di tutti. Questo è un bene, perché la diffusione della Cultura Digitale fa
crescere anche la qualità.
Chinatown lo ha compreso e oggi punta sulle capacità, sugli artisti
digitali e sull'integrazione delle professionalità di altissimo livello che
parte della squadra.
Tv Key: Non vi sentite solo dei tecnici, magari sofisticati, ma degli artisti,
quindi vorrete dire la vostra anche in fatto di creatività ?
John Attard: La creatività nel senso di ideazione non è cosa che ci
compete. Noi siamo dei creatori, non dei creativi.
Anche nel Rinascimento agli artisti veniva detto
cosa dovevano dipingere o scolpire. La differenza stava nella qualità
del risultato. Noi siamo nella stessa situazione. Possiamo certamente
interpretare in diversi modi le richieste dei creativi, ma il nostro compito
è soprattutto quello di creare un film armonioso, capace di dare
suggestioni, sia che si tratti di un effetto speciale mozzafiato, oppure un
super da collocare su una scatola. L'importante è saper usare gli
strumenti migliori e fare le cose con passione, insieme a gente capace.
Tv Key: Che differenze ha trovato tra l'impostazione anglosassone e
quella italiana nella produzione?
John Attard: Una cosa che mi ha molto colpito è che talvolta per film in
cui sono richiesti interventi di grafica o di effetti anche piuttosto
complessi, in Italia non si coinvolge la post-produzione in fase di studio.
Mi sono chiesto com'è possibile e le risposte che mi sono state date
non mi sono chiare.
Io sono abituato a considerare la genesi, la produzione e la
finalizzazione di un film come un unico lavoro, in cui entrano con pesi
diversi nelle diverse fasi tutte le professionalità coinvolte, con i loro
suggerimenti e le loro competenze. Qui mi dicono che le cose sul piano
della collaborazione sono molto migliorate, ma io sono comunque
rimasto stupito di come sia considerato talvolta secondario il ruolo della
post-produzione.
389
In Inghilterra, come negli Stati Uniti, è normale coinvolgere la postproduzione in fase di progettazione del film.
Non solo per avere preventivi molto precisi, ma anche per poter
beneficiare delle esperienza di chi poi dovrà finalizzare il prodotto.
Questo metodo consente molto spesso ai clienti di risparmiare denaro,
perché si arriva in post-produzione con tutto il materiale giusto e chi
deve mettere mano già lo conosce. Sono ore, addirittura giornate di
lavoro risparmiate e di conseguenza c'è più tempo per fare un lavoro
migliore.
Un altro elemento che mi ha stupito è la grande fretta. In Italia chiedete
spesso di lavorare in fretta. Si arriva all'ultimo momento, magari il film è
stato girato senza coinvolgere la post-produzione e poi si chiede di fare
in 3 giorni un lavoro che, per essere fatto bene, ne richiederebbe, in
quelle condizioni, cinque.
Se il metodo fosse diverso si potrebbe fare magari in tre giorni e meglio.
Tv Key: E quando siete in post-produzione i registi vi ascoltano ?
John Attard: Beh, la domanda è curiosa, ma giusta, perché io in effetti
ho sempre dato per scontato che il regista quando è in post-produzione
collabori in modo completo con chi lavora in 3D, agli effetti speciali, alla
grafica. Devo dire che più o meno in questi mesi le mie esperienze
sono state tutte positive, però ho sentito anche lo stupore dei miei
colleghi che si sentono spesso utilizzati solo come esecutori, come
tecnici che muovono le leve delle macchine. Io coi registi italiani mi
trovo bene, hanno in genere una elevata sensibilità per le immagini e
facilmente si costruiscono insieme tutti gli elementi che danno ancora
più valore ed emozioni al loro lavoro.
John Attard in Chinatown dall'inizio del 2000. Arriva da Londra dove ha
lavorato con Pison, per SWC, The Mill, Rushes, Framework.
Oltre ad innumerevoli spot e videoclip prestigiosi, nel suo portfolio,
figurano collaborazioni per gli effetti speciali realizzati in film come Lost
in Space, Merlin, Batman & Robin. Per le Nazioni Unite ha presentato
una relazione sullo stato della computer grafica nel Duemila.
390
FUTURE FILM FESTIVAL
Il Future Film Festival è il primo evento italiano dedicato alle produzioni
di immagini realizzate con le nuove tecnologie informatiche.
Svoltosi l’anno scorso a fine gennaio, il Future Film Festival ha riunito a
Bologna alcuni dei più grandi nomi a livello internazionale impegnati sul
fronte delle nuove tecnologie digitali per il cinema di animazione.
Cinque le giornate in programma, ricche di conferenze, proiezioni in
anteprima e presentazioni in esclusiva di altissimo livello tecnico ed
artistico, come raramente è possibile trovare nel nostra paese. Merito
forse anche della passione e competenza dei giovani organizzatori
(validamente supportati dalla Cineteca del Comune di Bologna). Unico
neo: la scarsa promozione della rassegna presso media e pubblico.
Le proiezioni di anteprime e retrospettive sono state accompagnate da
incontri con gli autori, che hanno analizzato la linea di confine che
accomuna il digitale all'animazione tout court, dando visibilità a nuove
tecnologie oltre che a nuovi prodotti.
La manifestazione nasce con l'intento di individuare i percorsi e le
sperimentazioni più interessanti all'interno di una produzione in grande
espansione.
Immagini digitali, personaggi 3D, tecniche di motion capture: sono solo
alcune delle nuove soluzioni elaborate dagli Animation Studios che
operano nel mercato dell'audiovisivo, e che sull'onda di un grande
successo commerciale si stanno impegnando in progetti sempre più
ambiziosi.
Le cinque giornate di proiezioni e incontri hanno ospitato film e serie tv
in anteprima italiana ed europea, con un attenzione particolare ai
protagonisti del mondo del digitale e dell'animazione.
Tutti gli ospiti presenti al Future Film Festival, durante gli incontri con il
pubblico, hanno mostrato materiali inediti e making of tratti dal loro
lavoro.
Il Future Film Festival, quest’anno è alla sua terza edizione, diventando
il punto di riferimento italiano per la riflessione sulle nuove tecnologie
dell'animazione, tenendo sempre presenti da un lato le tecnologie in
continua trasformazione e dall'altro la creatività e i progetti che gli autori
portano all'attenzione del pubblico.
Il FFF l’anno scorso, proponendo l’anteprima del nuovo Toy story, ci ha
fatto vedere forse il migliore esempio di buon cinema futuristico, niente
carta, niente inchiostro e niente matita, solo tasti di computer e
comandi. I due episodi di Toy story sono belli e importanti proprio
perché raccontano la “storia del gioco” e di conseguenza raccontano un
po’ della storia del cinema che è ed è stato sempre un bel gioco,
divertente e serio allo stesso tempo, basta guardare con che serietà ed
attenzione giocano i bambini. La storia di un gioco, dove prima Woody,
il gioco vecchio, ma anche il vecchio cinema, si scontra con Buzz, il
391
gioco nuovo e accantivante, Buzz il cinema del futuro (non a caso i tratti
somatici provengono dal viso di John Lasseter). Due giochi e due
cinema che si scontrano e alla fine si riconciliano. Nel nuovo episodio,
la storia metacinematografica mette in scena l’idea del gioco come
oggetto immortale, ma viene anche raccontato il rischio del gioco come
sterile oggetto da museo. Suggestioni che appartengono anche al
cinema, visto che il digitale permette al cinema di diventare un supporto
immortale, ma Lasseter rappresenta anche il rischio che ora il vecchio
cinema diventi oggetto da museo. Un film contro la museificazione a
favore della fruizione sotto il segno del carpe diem, cogli l’attimo,
goditelo finché puoi.
Chiudo questa piccola riflessione con un immagine. Alla conferenza
stampa Dylan Brown, curatore delle animazioni di Toy story 2, si
presenta con un pacchetto di fogli in mano, chiediamo se sono gli
schizzi originali dei personaggi. Dylan sorride e srotola questi fogli uniti
l’uno all’altro, alla fine quello che compare è una striscia di carta lunga
almeno tre metri con scritti lettere e numeri. Dylan sorride ancora e
dice: “Questo è Woody”. Un episodio carino, ma riflettendoci un po’
quella striscia di carta fa pensare, in fin dei conti come il “Neo” Keanu
Revees abbiamo appena visto la matrice, il “Matrix”, i comandi di una
nuova realtà: il cinema digitale.
In anteprima lo scorso anno al Future non soltanto quattro episodi
inediti dei ragazzini tondi postpeanuts dal colorino marcio e dal
linguaggio sboccato, ma soprattutto il lungometraggio South Park:
Bigger, Longer e Uncut, futura uscita cinematografica dei personaggi
creati da Trey Parker e Matt Stone.
In anterprima i pronipoti dei Simpson, non allegrissimi anch'essi, che
abitano le navi spaziali di Futurama, nuova serie di Matt Groening.
Anche in questo caso sono in arrivo episodi inediti, come pure per l'altra
serie Family Guy di Neil Afflek, preceduta a sua volta da una fama di
tragicomica irriverenza verso l'istituto familiare.
Nella sala del cinema Nosadella, viene proiettato il film di Tim Burton Il
mistero di Sleepv Hollow, che è la storia settecentesca del cavaliere
decapitato che batte le brughiere tagliando, teste altrui per ritrovare la
propria, e il macabro girotondo ha richiesto l'impegno di sofisticate
tecnologie animate.
E ancora con Principessa Mononoke, vediamo in anteprima la fiaba del
maestro dell'animazione giapponese Hayao Miyazaki,.
Giapponesi anche le retrospettive, dedicate a Makoto Tezka e a Go
Nagai, storico tra gli animatori giapponesi che due decenni fa
colonizzarono i pomeriggi dell'Occidente televisivo, padre di Mazinga e
Ufo Robot.
Go Nagai è stato anche il protagonista di uno dei numerosi incontri e
tavole rotonde che hanno costituito la tranche seminariale, con la
partecipazione di esperti della lndustrial Light and Magic, della Digital
392
Domani, delle principali firme francesi e inoltre, una sezione speciale
per far festa a Bruno Bozzetto.
Il Future Film Festival è stato anche l'occasione per una delle prime
dimostrazioni nel nostro paese del Cinema Elettronico, cioè delle
tecnologie digitali che vanno ad insidiare il dominio della pellicola nella
proiezione e distribuzione di film.
Electronic Cinema (o cinema digitale) viene definita la possibilità di
distribuire e, soprattutto, proiettare opere cinematografiche a partire da
supporti e mediante tecniche interamente digitali. La cara, vecchia
pellicola 35 mm è destinata ad andare presto in pensione, portando con
sé una intera epoca di cinema?
Il grande schermo perderà gran parte del proprio fascino (legato proprio
alle dimensioni e alla "uniformità" dell'immagine, se confrontata con
quella "a punti" dei supporti di natura video) oppure saprà trovare una
"seconda giovinezza"?
A queste e ad altre intriganti domande ha provato a rispondere Keith
Morris - manager della Barco (grande azienda belga produttrice di
monitor tv e di apparecchiature per il broadcast).
Il quadro internazionale sulla diffusione delle prime realizzazioni di
impianti di Cinema Elettronico è abbastanza incoraggiante. Sono già
disponibili sul mercato i primi esemplari di proiettori dal cuore
interamente digitale in grado di generare immagini di natura video su
schermi cinematografici di dimensioni standard con qualità del tutto
assimilabile (ed anzi, secondo molti, sensibilmente migliore) a quella
ottenuta dai proiettori a 35 mm. Tali nuove macchine trovano naturale
collocazione direttamente in cabina di proiezione, grazie a livelli di
luminosità che possono superare i 10.000 ANSI Lumen.
I prezzi sono inevitabilmente ancora piuttosto elevati ma si può
ragionevolmente ritenere che essi scenderanno non appena sarà
possibile operare in economie di scala, anche piccole.
Da giugno '99 - cioè dalla uscita anche in versione digitale di Star Wars
Episode 1 di George Lucas - sono già otto le sale digitali sorte in Usa,
ma l'area di sperimentazione sta allargandosi anche all'Europa, dove,
ad esempio, la Texas Instruments ha deciso di installare cinque dei suoi
nuovi proiettori.
Anche Technicolor si è dimostrata interessata, sostenendo il
finanziamento di un "digital system provider" in Nord America.
Le proiezioni in digitale dei primi tre film disponibili in tale versione (Star
Wars, Tarzan e Ideal Husband) sono state considerate ovunque un
successo.
Particolarmente interessante appare anche la riflessione sui vantaggi
che tali meccanismi di distribuzione potrebbero portare.
La sola eliminazione della necessità di stampare chilometri di pellicola
per garantire l'uscita in contemporanea in centinaia di sale dello stesso
titolo consentirebbe enormi risparmi in termini di spazio, di materiali e di
spese di trasporto.
393
Tale duplicazione verrebbe sostituita dalla produzione di leggeri, poco
ingombranti e resistentissimi dischi ottici (quando non la completa
"smaterializzazione" della diffusione stessa, affidata interamente a
transponder satellitari). Ma non solo: in caso di distribuzione "satellitare"
i gestori di sala cinematografica avrebbero la possibilità di adeguare
perfettamente la programmazione di un film all'afflusso giornaliero degli
spettatori, senza più preoccuparsi di fare previsioni con largo anticipo.
I distributori, dal canto loro, potrebbero sfruttare appieno i successi
imprevisti di alcuni titoli, programmandoli "all'istante" in nuove sale
secondo le richieste.
E' prevedibile che il digitale porterà considerevoli mutamenti anche sul
fronte del numero e della natura delle sale. I costi del cinema
elettronico, una volta "a regime", saranno realisticamente accessibili
anche a piccole sale (150 - 250 posti) di proprietà di comunità o situate
in piccoli centri abitati, oggi svantaggiate o escluse dai normali circuiti di
distribuzione.
La eliminazione del passaggio "obbligato" alla pellicola come unico
supporto di visualizzazione in ambito cinematografico (con tutti i costi e
le lavorazioni specialistiche che ne conseguono) potrebbe consentire
un accesso facilitato e de-strutturato al mezzo da parte di un numero
molto più alto di soggetti (anche indipendenti) rispetto a quello attuale.
Ciò potrebbe tradursi in una più ampia gamma di scelta per lo
spettatore e, soprattutto, nella maggiore visibilità per le opere più
innovative e coraggiose (oggi spesso penalizzate a favore di prodotti
più sicuri dal punto di vista degli incassi).
Un tempo realistico per l'avvio su larga scala del servizio di cinema
elettronico può essere stimato in tre - sette anni, ma tutto dipende,
come facilmente intuibile, da un lato dagli accordi che le varie industrie
coinvolte riusciranno a trovare riguardo agli standard tecnici da adottare
e, dall'altro, dalle strategie che Hollywood deciderà di attuare.
Forti sono anche le resistenze dei distributori, di molti gestori e di tutto
l'indotto che vive sulle lavorazioni in pellicola. In conclusione, appare
chiaro che la introduzione della proiezione/distribuzione digitale di film
apre un enorme ventaglio di nuove opportunità per un business che ha
da "reinventarsi" totalmente.
394
IL CINEMA ITALIANO SCOPRE GLI EFFETTI DIGITALI
Nirvana, è il film di Gabriele Salvatores che sembra aver dato il via
all'utilizzo dei visual effects nelle produzioni made in Italy.
Anche i produttori italiani stanno capendo che la tecnologia digitale non
solo aumenta la qualità del prodotto, ma può anche far risparmiare
tempo e denaro. Già si parla di "Hollywood sui Navigli" visto che si
trovano a Milano la gran parte delle strutture specializzate in effetti
digitali.
Tra queste, naturalmente, spicca Digitalia Graphics, "la boutique
milanese degli effetti speciali" che è stata la protagonista della
lavorazione grafica di Nirvana. In realtà, in Italia, la realizzazione di
effetti ha ben poco a che fare con la tendenza hollywoodiana del visual
effect.
Niente situazioni spettacolari, effetti catastrofici, mostri fantastici.
L'invisibilità è il punto cardine del visual effect all'italiana.
L'effetto speciale è nascosto, quasi impercettibile agli occhi dello
spettatore. Un tocco soft, leggero caratterizza il filone dominante
dell'effetto speciale nostrano, perfettamente integrato nella scenografia.
Evidentemente Digitalia Graphics fa tendenza ed i nuovi lavori acquisiti
da Paola Trisoglio e Stefano Marinoni lo confermano.
Digitalia vanta la post-produzione di ben 14 film per la distribuzione
cinematografica e 15 film per la TV.
Per 'Fatima', film per la TV, diretto da Fabrizio Costa, Digitalia ha
lavorato per moltiplicare le comparse presenti in una scena di folla.
Tramite un sapiente lavoro di sovrapposizione 150 persone sono
diventate alcune migliaia. Lo stesso è valso per le situazioni
meteorologiche particolari.
Gli effetti digitali del film sono un esempio di effettistica invisibile.
Oltre agli effetti evidenti, altri interventi di questo film sono di natura
sottile e comprendono una serie di arricchimenti alla fotografia, alla
scenografia e al racconto stesso. La scena che precede la prima
apparizione della Madonna è carica di aspettativa e di tensione,
conferita dalla tempesta di fiocchi di pioppo interamente costruita al
computer.
I fiocchi sono stati realizzati con un sistema di particelle tridimensionali
e quindi sovrapposti sul girato. La Madonna è stata girata su uno
sfondo blu e il contributo trattato in studio per realizzare l'effetto etereo
che avvolge la scena dell’apparizione. Un altro contributo evidente degli
effetti speciali la scena che racconta il miracolo del sole. In una giornata
buia e piovosa, improvvisamente le nuvole cominciano a rotolare
impazzite, liberando un sole pallido che inizia una sorta di danza nel
cielo. Questa scena è stata interamente realizzata con tecniche di
modellazione ed animazione tridimensionale. Infine vi sono scene in cui
l'apporto degli effetti speciali ha snellito il compito della produzione. E' il
395
caso della moltiplicazione delle comparse che, magicamente da 120
sono diventate 6000. Questo è stato possibile girando la scena più volte
con il gruppo di comparse ripreso in diverse posizioni; le riprese sono
state infine sovrapposte su un unico fondale pulito.
Il film per la TV "La Principessa ed il Povero" con Anna Falchi e
Lorenzo Crespi come protagonisti. Un film dolce dove chi parla con la
luna ha il raro privilegio di sentirsi rispondere. Ma una luna dal viso
rotondo e simpatico non è l'unica curiosa stranezza del film. Le persone
si smaterializzano, le gocce vengono seguite nella loro caduta con
riprese impossibili, le cisterne si crepano ed esplodono.
"La principessa e il povero" è stata per Digitalia un'esperienza
divertente in cui è stato dato libero sfogo alla fantasia. In questo film il
regista Lamberto Bava ha richiesto un'effettistica appariscente, irreale,
quasi paradossale. Settantasei sequenze con effetti molto evidenti,
come nella migliore tradizione degli effetti fantastici per le favole. La
goccia della potente pozione magica del mago cattivo, la nuvola di
petali che si stacca magicamente dagli stucchi del soffitto e che avvolge
il re e la regina dopo che hanno bevuto la pozione magica, il periscopio
del mago cattivo, una via di mezzo tra un telescopio, un periscopio e un
televisore, la freccia che viene trasformata dal mago. Sono tutte scene
in cui è ben evidente l'apporto degli effetti digitali. Effetti che sono stati
realizzati con tecniche di computer grafica in 2D e 3D e, in seguito,
inseriti sul girato.
‘Porzus’ è il film di Renzo Martinelli prodotto da Film Maura e
presentato a Venezia, racconta la storia vera di due nuclei partigiani
antagonisti durante l'ultima guerra e dell'incontro dei loro capi ai giorni
nostri.
Il film è un continuo flash-back dei due protagonisti che ricordano le
vicende del passato.
Grazie all'intervento di Digitalia i flash-back sono più verosimili, perché
attraverso accurati lavori di morphing le fattezze fisiche dei due
protagonisti mutano rapidamente al mutare dell'epoca storica.
Spettacolare è la ripresa realizzata in post-produzione di una goccia di
sangue che cadendo colpisce la neve.
L'elefante bianco fiction tv in onda su Rai Uno rivela le ultime tendenze
spirituali della New age: rinascita spiritualità e voglia d’oriente… Anche
per questo film (una produzione Anfri firmata dalla regia di Gianfranco
Albano) l'apporto di Digitalia si è reso indispensabile, oltre che per
piccoli interventi di ritocco, nelle soggettive di alcuni protagonisti e nella
realizzazione delle scene in cui convivono la protagonista femminile e il
suo doppio maschile.
Le soggettive descrivono ciò che appare agli occhi dei fedeli che è, al
contrario, precluso alla vista degli increduli. In particolare gli effetti visivi
mostrano la trasformazione di pastori tibetani in monaci e di un deserto
roccioso nella sede del tempio in cui si trova l'elefante bianco.
396
Questi interventi sono stati ottenuti attraverso lavorazione di
compositing.
Il compositing è la tecnica usata anche per far convivere nella stessa
scena la ragazza e il suo doppio maschile. In questo caso si sono unite
due pellicole: quella della scena completa e il contributo della
protagonista in veste maschile precedentemente girata su green-back.
L'ormai affermato regista Daniele Luchetti si presenta a Venezia con un
film che parla della resistenza, o meglio della personale organizzazione
della resistenza da parte di un gruppo di giovani amici. "I Piccoli
Maestri" è il titolo del film che racconta le vicende della Resistenza in
Italia durante la Seconda Guerra Mondiale ed anche per questa
pellicola Digitalia ha svolto un lavoro che è prevalentemente di
arriccimento scenografico.
Gli interventi del computer sono quasi tutti inseriti in modo da risultare
completamente invisibili, pur cambiando sostanzialmente alcune
ambientazioni. Un esempio degli effetti 'invisibili' realizzati da Digitalia
Graphics per questa pellicola è l'arrivo di una colonna di carri armati
alleati: mentre nella realtà la colonna era composta da sei carri, il
risultato su grande schermo è una carovana di decine di mezzi.
La moltiplicazione dei carri armati è stata ottenuta tramite tecniche di
animazione tridimensionale e di compositing su girato.
Un secondo esempio è la creazione dello strapiombo sottostante i
protagonisti che si inerpicano su una parete rocciosa per sfuggire ai
loro inseguitori.
In realtà gli attori sono stati ripresi mentre scalano una parete a poca
distanza dal manto erboso; il prato è stato quindi sostituito da un
collage di fotografie di vallate montane scattate in quota da un
parapendio.
"Radiofreccia" di Luciano Ligabue, popolare cantante al suo esordio
come regista, racconta, attraverso la storia di una radio libera, le vite di
quattro ragazzi di un paese della bassa padana negli anni '70. Una
storia poetica e minimalista che tratta in maniera lieve argomenti poetici
e commuoventi. La magia degli effetti digitali ha enfatizzato il lirismo di
alcuni momenti del racconto.
L'uso delicato del computer è presente negli effetti che sottolineano la
sensazione provata da Tito, uno dei personaggi principali, quando,
credendo di avere assassinato il padre, cammina al rallentatore sotto i
portici e vede la gente intorno a sé sfrecciare a velocità impossibile.
Questo effetto è stato realizzato girando separatamente l'azione della
gente e quella di Tito; in seguito a trattamenti di 'retiming' (modifica
della velocità dell'azione) e di 'motion blur' (effetto scia), i due contributi
sono stati compostati ad ottenere il risultato finale.
Altro esempio di effetti visivi digitali all'interno del film è la biglia di
plastica contenente l'immagine del ciclista Bitossi che, caduta dalla
tasca di Freccia durante una rapina, rotola fino ad impallare la
macchina da presa, ed introduce il racconto successivo.
397
In questo caso la biglia è stata generata completamente al computer
tramite tecniche di modellazione e animazione tridimensionale.
"I Piccoli Maestri" di Daniele Luchetti e "Radiofreccia" di Luciano
Ligabue sono stati presentati alla Mostra del Cinema di Venezia.
Un altro film per la TV, ‘Leo & Beo’: protagonisti Marco Columbro (Leo)
ed il suo cane parlante (Beo). Anche questo film utilizza gli effetti
speciali per rendere visibile la parte fondamentale della storia: la
parlantina del cane.
L'Italia, dunque, si sta muovendo, con due punti a proprio favore:
grande rapidità nell'esecuzione e basso costo delle lavorazioni.
398
NIRVANA
La storia
Anno 2005, vigilia di Natale. Nella futuristica città italiana di
Agglomerato del Nord cade una neve fitta e leggera, che crea
un'atmosfera alla Blade Runner.
La trama del film è frutto della sapiente fusione di due storie. La prima,
abbastanza semplice, ha per protagonista Jimi (Christopher Lambert),
un programmatore di videogiochi distrutto per la perdita della sua amata
Lisa (Emmanuelle Seigner), che vediamo apparire soltanto in un lungo
monologo davanti ad una telecamera.
Jimi ha appena terminato la sua ultima creazione, un videogioco
chiamato 'Nirvana', che ha per protagonista Solo (Diego Abatantuono).
Jimi è uno dei più quotati creatori di videogiochi e lavora per la
Okosama Starr, la multinazionale leader del settore. Proprio per il
giorno di Natale è annunciata l'uscita del suo ultimo gioco, Nirvana.
Ma Jimi non è felice, la sua vita sembra non avere più senso, la sua
anima è malata. E, senza che Jimi lo sappia, anche il computer su cui
sta lavorando è malato: un virus elettronico ha fatto impazzire il
programma NIRVANA, e Solo, il protagonista del videogioco, ha preso
coscienza di essere solo un personaggio virtuale, in un mondo finto,
destinato a ripetere per l'eternità le stesse false cose, in quella che è
solo l'apparenza di una vita reale. La cosa è naturalmente
insopportabile, e Solo chiede a Jimi, il suo creatore, di liberarlo da
quell'incubo e di cancellarlo. Forse è proprio quello che Jimi aspettava,
forse distruggere quello che si sta facendo è l'unico atto di libertà
possibile...Ma la cosa non è così semplice: una copia di NIRVANA è
conservata alla banca dati della Okosama Starr. Bisogna entrarci
clandestinamente e per far questo Jimi ha bisogno di alleati. Nel
quartiere arabo di Agglomerato vive Joystick, un angelo abituato a
volare sulla Rete Informatica e a violare le banche dati delle
multinazionali. Lisa, quando aveva abbandonato Jimi, era andata a
vivere da lui... e così, inconsciamente, inizia il viaggio di Jimi nelle
Periferie sulle tracce di Lisa, in compagnia dello stesso Joystick, che si
è venduto le cornee sostituendole con due protesi elettroniche che gli
consentono di vedere solo in bianco e nero, di Naima, una giovane
donna esperta di hardware, che ha perso la memoria e può inserirsi in
testa solo ricordi artificiali, e del suo compagno segreto virtuale, Solo,
suo vero alter-ego.
Meta dell'avventuroso viaggio sono i supercomputer della Okasama
Starr, la multinazionale cui Jimi ha venduto alcune copie del videogioco.
Salvatores, si sa, è un regista 'irrequieto'.
Nei suoi film non si accontenta -per fortuna!- di ricalcare il classico
registro adottato da gran parte del cinema italiano, ma cerca quel
399
qualcosa in più che fa la differenza, che rende un film indimenticabile:
egli cerca l'espressività immediata, la profondità dei temi trattati. Molto
spesso è riuscito nell'intento: i suoi film non sono mai banali, nelle loro
trame scorre il germe della vitalità, alimentato dalla linfa della
'contaminazione', parola chiave della sua intera produzione, da
intendersi nell'accezione positiva di "disponibilità ad aprirsi alle
tendenze del cinema mondiale ed a captarne gli spunti innovativi".
Salvatores fonde alcuni aspetti della commedia all'italiana -da cui la sua
formazione ed i suoi interessi impediscono il completo distacco- con il
mèlo alla francese in Turnè, o con il cinema di guerra in Mediterraneo,
ed il risultato è sempre una commedia dal sapore amaro.
In Nirvana il leit-motiv della comicità si stempera in una cornice
fantascientifica o, meglio, 'psichedelica': Nirvana è un buco nero, un
viaggio all'interno della mente, un gorgo di suoni-colori-luci-ricordisensazioni difficilmente esprimibili in modo lineare.
Il regista concepisce il film a Benares, in India, sulle rive del Gange:
alcuni bambini giocano con un computer nei pressi di un'immagine di
Shiva danzante all'interno del ciclo delle reincarnazioni. Il flash è
immediato; nella mente prende forma Solo, figlio della tecnologia per
caso dotato di una coscienza, che gli fa percepire l'inutile ripetitività del
suo ruolo, da cui scaturisce il giusto desiderio di annientarsi in un Nulla
altrettanto eterno: il Nirvana, il luogo in cui tutto è niente, il luogo
irraggiungibile, è la meta dell'intero genere umano, di cui Solo e gli altri
personaggi del film sono metafora nel contempo poetica e ridicola.
Tutti i protagonisti infatti vagano affannosamente come formiche in un
mondo divenuto ormai un indistricabile groviglio di violenza e
tecnologia, ed ognuno di essi ricerca il proprio Nirvana: Jimi cerca Lisa,
Solo cerca l'annullamento, Naima i suoi ricordi. Tutti sono in lotta, ed il
mondo si configura come un enorme gioco di interessi contrastanti:
homo homini lupus, ognuno, per raggiungere i propri obiettivi, deve
affrontare nemici, ostacoli, durissime prove, sofferenze: la conquista del
Nirvana è un traguardo duro da conquistare ed il cammino è fitto di
pericoli.
Il messaggio lanciato da Salvatores è dunque profondo. Gli effetti
speciali a cui il film ricorre ampiamente sono funzionali all'intendimento
di questo, sono un mezzo per trasmettere intense suggestioni allo
spettatore pronto a svuotare la mente da ogni pregiudizio pur di
recepirle.
Il genere americano appare qui contaminato dall'intimismo tipico della
tradizione italiana, forse l'unica in grado di alternare dramma e comicità
grottesca mantenendo un perfetto equilibrio sul piano dei registri.
La scena più pregnante? A mio avviso, quella in cui Solo apre la porta
che si affaccia sul desolante panorama dei circuiti del gioco e mostra a
Maria (Amanda Sandrelli) tutta l'irrealtà della realtà in cui viviamo.
400
La lavorazione
I contributi di scena sono stati realizzati a risoluzione video e ripresi in
35mm da Betacam SP sui monitor di scena. Gli effetti all'interno del
gioco sono stati realizzati a qualità video D1; infatti tutte le sequenze
del gioco subiscono un particolare trattamento cromatico in fase di
telecinema su D1. Le scene con effetti, così come le altre scene, del
gioco saranno soggette quindi ad un processo di transfer da D1 a 35
mm.
La parte di effetti veri e propri è stata lavorata a risoluzione pellicola
(1828X1332 linee - 64 bit di profondità colore). Il negativo originale è
stato acquisito in service tramite scanner Cineon Kodak ed archivito in
forma digitale su supporto magnetico DLT (digital linear tape). Una volta
in Digitalia, vengono estratti i fotogrammi (files) da DLT e realizzati gli
effetti; i nastri DLT contenenti i fotogrammi elaborati seguono quindi il
procedimento inverso. Tramite questo processo digitale viene
interamente preservata la qualità originale della pellicola.
Gli interventi di Digitalia
Il set di Nirvana è stato allestito all'interno della ex fabbrica Alfa Romeo
di Milano, in un'area di circa 140.000 mq dove è stato possibile
ricostruire 60 diverse scenografie dei vari quartieri di Agglomerato; fa
eccezione Bombay City, per la cui ambientazione sono stati scelti i
sotterranei del macello del Comune di Milano.
La lavorazione del film, costato circa 17 miliardi -un budget inconsueto
per le produzioni italiane-, è durata sette mesi; Digitalia Graphics ha
realizzato circa 80 sequenze digitali, per un totale di 10 minuti.
Il lavoro di intervento sui fotogrammi è stato realizzato nella sede di
Milano, ma l'acquisizione della pellicola su computer e l'incisione del
nastro ritoccato su pellicola vergine sono state eseguite dalla Cinesite
di Londra utilizzando apparecchi Kodak Cineon.
Gli apporti digitali al film sono stati di quattro tipi diversi:
Interventi in pre-produzione: sono quelli realizzati in fase di
elaborazione del filmato, come ad esempio le simulazioni al computer di
alcune scene che avrebbero richiesto un trattamento;
contributi grafici di scena: consistono in tutto l'insieme di sequenze che
fanno parte del mondo in cui il film è ambientato: videocitofoni,
videotelefoni, il gioco di Nirvana ed il suo logo;
Effetti speciali all'interno del gioco:
All'interno del gioco, gli effetti si fanno volutamente evidenti; i
personaggi si sbriciolano e si sciolgono; l'universo in cui vivono Solo e
Maria viene rappresentato da una psichedelica e desolata pianura.
401
Effetti speciali invisibili
La maggior parte degli effetti veri e propri non sono riconoscibili come
tali, le integrazioni alla scenografia ne sono un esempio; i trattamenti di
questo genere sono stati principalmente l'aggiunta di neve e fumo,
l'inserimento dei maxi-schermi e delle insegne luminose, la simulazione
di camera car. Alcuni degli effetti: l'animazione iniziale del cunicolo e i
titoli di testa; l'agglomerato sia nel totale dall'alto che visto dalle grandi
sopraelevate urbane; il maxi-schermo della dea Kali; la pistola che
"spara" marijuana liquida; l'ologramma dell'uomo nudo nel bazaar di
marrakech; la condensa sulle lenti di Joystick; la tromba dell'ascensore
che scende a Bombay City; l'inserimento del cristallo nella fronte di
Naima; la soggettiva a infrarossi del risolutore; l'esplosione della testa del
risolutore; la visione di Jimi della rete informatica; la visione di Jimi della
directory amministrativa dell'Okosama Star etc.
Elenco lavorazioni Cinematografiche
Anno
Produzione
In lavoraz. ORANGO FILM
In lavoraz. CATTLEYA
In lavoraz. INTEL FILM
2000
COLORADO FILM
2000
FANDANGO
2000
CECCHI GORI
1999
PALOMAR
1999
ITERFILM
1999
1999
1998
1998
1997
1997
411
GLOBE FILMS
FANDANGO
CECCHI GORI
VIDEOMAURA
COLORADO FILM
Regia
Giorgio Serafini
Titolo
"Texas"
“Un'isola nei mari del
Marcello Cesena
sud”
Marco Simon
“L'ultimo giorno di
Puccioni
Impero”
Gabriele Salvatores“Denti”
“Il Partigiano
Guido Chiesa
Johnny”
“C’era un cinese in
Carlo Verdone
coma”
P.
“Tutti gli uomini del
Costella/Gialappa’s deficiente”
Francesco
“Branchie”
Martinotti
Marco Pozzi
“Venti”
Fabio Segatori
“Terra Bruciata”
Luciano Ligabue
“Radiofreccia”
Daniele Luchetti
"I Piccoli Maestri"
Renzo Martinelli
“Porzus”
Gabriele Salvatores"Nirvana"
Elenco lavorazioni per la televisione
Anno
Produzione
Regia
402
Titolo
In lavoraz. SACHA FILM
2000
PARUS
2000
BEAR FILM
1999
TITANUS
1999
TVMA
1999
TANGRAM FILM
1999
1999
1998
1998
1998
1998
1997
TITANUS
REDFILM GROUP
ANFRI
FILMALPHA
TITANUS
ANFRI
MASTROFILM
1997
ANFRI
1997
LUX VIDE
"Il Rumore di un
Treno"
"Come
Quando
Mario Monicelli
Fuori Piove"
Alberto Negrin
“Nanà”
“Maria figlia del suo
Fabrizio Costa
figlio”
Alfredo Angeli
“Giochi Pericolosi”
“Una farfalla nel
Giuliana Gamba
Cuore”
Fabrizio Costa
“Il Corriere dello Zar”
Cinzia TH Torrini “Ombre”
Lamberto Bava
“Caraibi”
Alberto Negrin
“Iguardiani del Cielo”
Fabrizio Costa
“Tristano e Isotta”
Gianfranco Albano “L’Elefante Bianco”
Rossella Izzo
"Leo e Beo"
"La Principessa e il
Lamberto Bava
Povero"
Fabrizio Costa
"Fatima"
Fabrizio Costa
403
PARTE 7: LA RIVOLUZIONE DIGITALE
404
DVB E LA COMPRESSIONE VIDEO DIGITALE
L'immagine digitale
Digitale significa tradurre l'immagine in numeri: spezzettarla in tante
tessere di un mosaico, in tanti pixel (picture element). Ovviamente
maggiore è il numero delle tessere, maggiore sarà il dettaglio
percepibile. Ogni tessera può essere rappresentata da tre numeri,
ognuno dei quali dà il valore di ognuno dei tre colori fondamentali. I
numeri non sono quelli in base decimale, che la macchina avrebbe
difficoltà a leggere, ma quelli in base 2, formati quindi da un si o un no,
uno 0 e un 1.
Questa numerazione, detta booleana dal nome del suo inventore, il
matematico George Boole (1814-1864), è formata da bit (gli 0 o gli 1)
generalmente raccolti in gruppi di 8 bit, gruppi che prendono il nome di
byte. Per dare un’idea della potenza di questa matematica, poiché ogni
byte può rappresentare un numero che va da 0 a 256, con 3 byte,
associati ad ogni pixel, si possono rappresentare 2563=16.777.216
colori e saturazioni di colori, troppi perché l'occhio umano possa
percepirli tutti.
Trasmettere o registrare dei si o no, degli 0 o dei 1, anziché un segnale
variabile con continuità come una curva, è più sicuro.
Il segnale che ha solo due livelli è, come si dice, più "robusto". Ma non
è il solo vantaggio: avere a che fare con dei numeri anziché con delle
curve significa poter intervenire in maniera più semplice e sicura.
Facendo un esempio banale, se si sottrae in fotogrammi successivi a
tutti i pixel un certo valore si ha uno scurimento generale del quadro.
Con i numeri e con le combinazioni di numeri è dunque possibile
lavorare sull'immagine in modo da modificarla, migliorarla, sovrapporla
o intercalarla con altra immagine. Intervenire, in una parola, con il solo
limite della fantasia dell'operatore.
Digital Video Broadcasting
Lo standard DVB ha riunito in un flusso unico di dati tutto ciò che può
trarre vantaggi da un’elevata velocità di trasmissione.
Ci troviamo quindi di fronte a segnali video e audio compressi uniti a
segnali dati che utilizzano tutti lo stesso mezzo trasmissivo ma che non
devono essere obbligatoriamente legati da qualche relazione.
Un segnale tv trasformato in formato digitale rappresenta una grande
mole di dati da elaborare che va oltre alle capacità degli attuali sistemi
di diffusione tra cui i transponder satellitari. Questa enorme quantità di
dati per essere sfruttata nelle trasmissioni tv satellite richiede un
trattamento di "compressione" che si concretizza nella applicazione
dello standard MPEG-2.
405
La digitalizzazione del segnale video ha una storia meno recente di
quella del sistema MPEG. Già dal 1982 il CCIR, organo consultivo
internazionale che oggi è sostituito dalla sezione raccomandazioni
dell’ITU denominata ITU-R, definì le specifiche CCIR 601" Encoding
Parameters of Digital Television for Studios". Nell’ultima edizione del
1990, CCIR 601-2, ci sono le basi dell’odierno sistema televisivo
digitale e tale specifica è oggi il punto di riferimento costante per
chiunque operi nel campo della digitalizzazione video. Le CCIR 601
hanno permesso l’introduzione del video digitale negli studi di
produzione televisiva, infatti nel broadcast già da lungo tempo vengono
impiegate macchine di registrazione video in formato digitale. Solo
successivamente, con il DVB e la compressione video, le tecniche
digitali sono state applicate alle trasmissioni televisive ed oggi
rappresentano l’evoluzione del sistema televisivo in tutte le sue
estensioni: via cavo, via satellite e via terrestre. Il processo di
digitalizzazione non è semplice da descrivere a chi non è avvezzo a
questioni tecniche. Vengono tirati in ballo concetti e modalità del tutto
nuovi che, per la loro comprensione, richiedono buone conoscenze
tecniche. Cercherò di semplificare l’argomento "digitale" allo scopo di
fornire informazioni essenziali sulle nuove tecniche di digitalizzazione
partendo dall’inizio, ovvero dal campionamento del segnale video.
Linee TV, pixel e campioni.
Un’immagine TV analogica viene normalmente descritta come il
risultato di una scansione operata da sinistra verso destra e dall’alto
verso il basso. Ogni scansione completa è costituita da 625 linee e
viene ripetuta per 25 volte in un secondo così come in una proiezione
cinematografica si hanno 25 fotogrammi in un secondo.
Le 625 linee tv non vengono impiegate totalmente per descrivere
l’immagine. Infatti oltre alle informazioni sul contenuto di luminanza e
crominanza dell’immagine sono necessarie altre informazioni per la cui
trasmissione richiedono un periodo di pausa di ben 49 linee. Le linee
attive dell’immagine sono quindi 576.
Nel campo della TV digitale si utilizza invece un altra modalità di
descrizione dell’immagine suddividendola in pixel. Per ogni linea tv si
considerano quindi 720 pixel pertanto un’intera immagine tv è formata
da 720 x 576 pixel.
Ad ogni pixel sono associati i valori di luminosità dell’immagine, in
gergo luminanza Y, e i valori relativi al colore, in gergo crominanza C.
Ogni pixel è quindi costituito da campioni di luminanza e crominanza in
numero variabile in funzione del livello qualitativo che si deve ottenere
che viene descritto nella raccomandazione CCIR.601.
406
Dall’analogico al digitale 4.2.2
Le specifiche CCIR 601-2 hanno avuto il grande ruolo di normalizzare
le condizioni di digitalizzazione del segnale video al fine di facilitare
l’interoperabilità tra le macchine e favorire lo scambio dei programmi
televisivi. Un’altra specifica, la CCIR 656 ha invece fissato le condizioni
d’interfaccia tra i sistemi e le apparecchiature destinate al trattamento
dei segnali video digitali.
Secondo le CCIR 601-2 il segnale video digitale standardizzato è
costituito dai dati relativi al campionamento di tre componenti del
segnale video: la componente di luminanza Y e due componenti di
differenza colore Cb e Cr. Queste tre componenti vengono campionate
al fine di produrre un segnale digitale formato da 864 campioni di
luminanza Y e 432 campioni di crominanza per ogni segnale differenza
colore Cb e Cr. Questi valori si riferiscono ad un’immagine televisiva
completa con 625 linee e 50 quadri. L’immagine reale, come abbiamo
visto, invece lascia inutilizzate alcune aree pertanto i campioni
realmente utilizzati sono di meno in quanto i pixel utili alla descrizione
dell’immagine sono 720 in senso orizzontale e 576 in senso verticale.
I campioni di luminanza e crominanza, all’interno dell’immagine
vengono suddivisi con una struttura definita in tre possibili formati:
4:2:2, 4:1:1 e 4:2:0.
Il formato 4:2:2 è indicato dalla specifica CCIR 601-2 come lo standard
di fatto per l’interscambio dei programmi e la diffusione tv.
Il formato 4:2:0 è utilizzabile nei contributi mentre il formato 4:1:1 è
destinato ad applicazioni di bassa qualità.
In un’immagine video trasmessa nel formato 4:2:2, in orizzontale per
ogni linea si hanno due campioni di luminanza ogni quattro campioni di
luminanza mentre in verticale si ha la successione di linee identiche.
Ciò significa che in orizzontale si ha un sottocampionamento mentre in
verticale no.
Ridurre la quantità di dati
Se proviamo a calcolare il "bit rate" necessario alla trasmissione di un
segnale video campionato in 4:2:2 a 8 bit avremmo delle amare
sorprese in quanto ci troveremmo di fronte ad un bit rate necessario di
216 Mb/s, valore molto elevato. Ovviamente se si escludono le parti
non significative dell’immagine ovvero, gli intervalli di cancellazione di
linea e di quadro, si può avere un risparmio in termini di bit rate
passando da 216 Mbit/s a 166 Mbit/s.
Il "bit rate" è in stretta connessione con la larghezza di banda
necessaria per eseguire la trasmissione via radio. Pertanto per poter
trasmettere un segnale digitale è necessario adattare il bit rate alla
larghezza del canale satellitare. Prendendo ad esempio un canale
satellitare largo 33 MHz, questo supporta un Symbol Rate di 24,4 Ms/s
407
che equivale, in QPSK, ad un bit rate di 48,8 Mb/s (fuori dalla codifica
Reed-Solomon e Convoluzionale). Attualmente viene tollerato un certo
degrado di qualità che mantiene il tasso di errori entro valori accettabili,
pertanto viene utilizzato frequentemente un Symbol Rate di 27,5 Ms/s il
che equivale ad ottenere un bit rate massimo di 55 Mb/s. Tale bit rate
viene ridotto impiegando la codifica convoluzionale e quindi si
ottengono diversi valori convenienti di bit rate in funzione del FEC
impiegato.
Con un FEC di 1/2 si ottiene un bit rate di 25,43 Mb/s mentre con un
FEC di 7/8 si ottiene un bit rate di 44,35 Mb/s. Attualmente viene
largamente impiegato un FEC di 3/4 con il quale si ottiene un bit rate di
38 Mb/s per un canale come quello utilizzato su Hot Bird largo 33 MHz
e con un Symbol rate di 27,5 Ms/s. I valori ottenuti sono più favorevoli di
quelli indicati dalla norma ETS 300 421 "Digital Broadcasting sistems
for television, sound and data services".
Nonostante le possibilità del sistema di trasmissione 38 Mb/s sono
ancora pochi per supportare la trasmissione di un segnale video
digitale. Per questo motivo entra in gioco il sistema di compressione
MPEG-2 adottato dal DVB. Utilizzando la compressione si ottiene una
forte riduzione della quantità di dati da trasmettere permettendo così di
sfruttare un unico canale satellitare per la trasmissione di più
programmi televisivi.
Basti pensare al fatto che attualmente la migliore qualità di trasmissioni
dirette agli utenti richiede un bit rate di circa 8 Mbit/s per ogni
programma tv. Pertanto ciò lascia intuire che unendo l’MPEG-2 alle
tecniche di multiplazione digitale si possano trasmettere grandi quantità
di dati. Ciò è, infatti, quello che accade con le attuali trasmissioni digitali
dove su un solo transponder da 33 MHz può trovare spazio la
combinazione di programmi aventi anche tra loro un diverso bit rate.
Alla base di questo principio sta una importante applicazione, relativa
alle tecniche di compressione, attualmente sperimentata dalle
trasmissioni RAI. Tali trasmissioni, infatti, utilizzano la tecnica di
"compressione dinamica" per mezzo della quale il bit rate dei singoli
programmi che condividono lo stesso bouquet non è fisso ma può
variare dipendentemente dalle esigenze istantanee di qualità e quindi di
bit rate delle singole immagini. Ad esempio: un programma sportivo con
immagini in forte movimento può avere a disposizione un bit rate
istantaneo elevatissimo sfruttando una maggiore compressione degli
altri programmi presenti nello stesso bouquet.
MPEG-2, indispensabile per il DVB
La televisione digitale DVB (Digital Video Broadcasting) adotta la
compressione video chiamata MPEG-2. La sigla MPEG deriva dal
nome di un gruppo di lavoro chiamato "Motion Pictures Expert Group"
che riunisce esperti internazionali del settore con lo scopo di
408
standardizzare le procedure di compressione per servizi televisivi e
multimediali.
Si tratta in realtà di un gruppo di lavoro ISO/IEC con la complicata sigla
identificativa JTC1/SC29/WG11, che opera congiuntamente al gruppo
15, della sezione telecomunicazioni della ITU, che invece si occupa di
codifica video ATM. Il gruppo MPEG collabora anche con la sezione
raccomandazioni della ITU, SMPTE e la comunità americana che si
occupa di HDTV.
MPEG-2 raggruppa le specifiche divenute standard a tutti gli effetti e
fissate al 29º meeting ISO/IEC di Singapore nel Novembre 1994.
Tali specifiche sono raccolte nel fascicolo ISO/IEC 13813 in tre parti:
13183-1 per il sistema; 13183-2 per il video e 13183-3 per l’audio.
Esistono altre specifiche MPEG ovvero: MPEG-1, MPEG-3 e MPEG-4
la prima non è diversa concettualmente da MPEG-2 ma ha
caratteristiche inferiori mentre; MPEG-3 è ancora in fase di definizione
ed è destinato alle applicazioni per immagini ad alta definizione HDTV;
MPEG-4 viene impiegato in applicazioni che utilizzano immagini
software a basso bit rate, inferiore a 64 Kb/sec.
Il sistema MPEG-1
MPEG-1 è stato introdotto nel 1991 e originariamente è stato
ottimizzato per le applicazioni video a basso bit rate con una risoluzione
video di 352x240 pixel con 30 fotogrammi al secondo per lo standard tv
NTSC oppure di 352x288 pixel con 25 fotogrammi al secondo per lo
standard tv PAL. Questi formati sono comunemente definiti come SIF
(Source Input Format). MPEG-1 non è strutturalmente limitato a questi
formati in quanto può raggiungere ad esempio i 4095x4095 pixel con 60
fotogrammi al secondo ma, nelle applicazioni ha condotto il gioco la
velocità di trasmissione e quindi il sistema è stato ottimizzato per un bit
rate di 1,5 Mbit/s. Il limite più importante del sistema MPEG-1 è dovuto
all’impossibilità di trattare immagini interallacciate come quelle
impiegate nel broadcast TV Europeo che richiedono un doppio
processo di codifica.
Il sistema MPEG-2
MPEG-2 è stato destinato al broadcast televisivo, fin dalla sua
introduzione nel 1994. Un’efficiente codifica per il video interallacciato e
la scalabilita sono state le caratteristiche che hanno permesso di
digitalizzare efficacemente i segnali televisivi. Grazie all’MPEG-2 si
ottengono immagini televisive di buona qualità con bit rate compresi tra
4 e 9 Mbit/s
MPEG-2 è costituito da "profili" e "livelli". I profili definiscono la modalità
di compressione utilizzata e stabiliscono, di fatto, il compromesso tra
tasso di compressione e costo del decodificatore. I livelli definiscono la
409
risoluzione d’immagine ed il bit rate massimo da associare ad ogni
profilo.
Ci sono complessivamente 4 livelli e 5 profili.
La combinazione attualmente utilizzata dalle trasmissioni digitali per
ricezione diretta impiega il cosiddetto "main level @ main profile"
MP@ML.
Livelli e profili dell’MPEG-2
Descriviamo sinteticamente le caratteristiche dei livelli e dei profili
dell’MPEG-2 che rappresentano la forza del sistema in quanto a
flessibilità e adattabilità a varie applicazioni. E’ sorprendente come
MPEG-2 riesca a spaziare tra la più bassa risoluzione di immagine SIF
fino all’alta definizione HDTV semplicemente variando le associazioni
tra livelli e profili. I livelli previsti sono: low (basso), main (principale),
high-1440 (alto-1440), high (alto). Il livello "low" corrisponde alla
risoluzione più bassa come la SIF utilizzata nell’MPEG-1; il livello
"main" corrisponde alla struttura 4: 2:0 fino ad una risoluzione di 720 x
756 pixel; il livello "high-1440" è dedicato alla tv ad alta definizione
TVHD mentre il livello "high" è ottimizzato per il formato di schermo
16/9 in alta definizione.
La descrizione dei profili è invece un po' meno semplice di quella dei
livelli in quanto implica la conoscenza delle metodologie di base con cui
opera il sistema MPEG.
Il profilo "simple" permette di semplificare notevolmente sia il
codificatore di stazione che il decodificatore di utente in quanto non
utilizza la predizione di tipo B. Il profilo "main" è quello che offre il
miglior compromesso tra qualità e tasso di compressione, impiega le
immagini relative alle predizioni I, P, B a svantaggio dei dispositivi di
codifica e decodifica che sono più complessi.
Il profilo "scalable" è destinato ad applicazioni particolari dove sia
necessario ad esempio mantenere la compatibilità tra alta definizione e
definizione standard oppure, riuscire ad ottenere una qualità accettabile
in condizioni di ricezione difficile come potrebbe accadere ad esempio
nella televisione digitale terrestre.
Il profilo più elevato "high" è destinato all’alta definizione con le strutture
4:2:0 e 4:2:2.
Transpoprt Stream (TS)
La trasmissione di programmi e servizi secondo lo standard DVB
avviene per mezzo di un flusso di dati chiamato in gergo "Transport
Stream" abbreviato TS.
Il TS è quindi il segnale che va a modulare in QPSK il trasmettitore di
una stazione di uplink per la tv satellite oppure in QAM il trasmettitore di
una stazione di testa per tv via cavo. Il TS è il risultato di una
410
multiplazione o, in gergo "Multiplex" di pacchetti di dati elementari
chiamati PES "Packetized Elementary Streams" che contengono le
informazioni video, audio e dati di un singolo programma con tutti gli
elementi per sincronizzare l'audio con il video e per l'eventuale
criptaggio.
Lo stesso multiplex riceve dati aggiuntivi relativi alla identificazione dei
servizi trasmessi SI, al controllo di accesso CA e alla guida elettronica
ai programmi EPG.
411
PROIETTORI DIGITALI
La convergenza digitale arriverà ben presto anche nella sale
cinematografiche. I film in digitale potrebbero essere trasmessi
direttamente nelle sale attraverso trasmissioni via cavo o via satellite.
Manager e tecnici della Texas Instruments e della Hughes Jvc, hanno
fatto un giro per gli studios e sembra siano riusciti a convincere i capi
della major: proiettori digitali al posto dei classici 35 millimetri a
pellicola.
Il "cinema elettronico-digitale" offre enormi vantaggi economici,
soprattutto per le grandi case di produzione di Hollywood (le copie delle
pellicole chimiche costano molto e un grosso film ne richiede circa
cinquemila solo per la distribuzione negli Stati Uniti). Le copie su
supporto digitale, invece, hanno costi molto più ridotti e non si
consumano né si alterano anche dopo migliaia di proiezioni.
Il film verrà ancora girato e montato in 35 millimetri e, in seguito,
(tramite una macchina chiamata telecine) sarà possibile creare una
copia digitale. Tutte le copie che seguiranno saranno delle repliche
perfette (al contrario delle vecchie pellicole che perdevano in qualità
dopo le ripetute copie dal master).
Nella sale ci sarà sempre un proiettore, un fascio di luce e uno
schermo, ma invece di proiettare l'immagine illuminando il nastro in
movimento, il nuovo apparecchio elettronico la produrrà decodificando i
dati del computer (come avviene con i lettori DVD…). In molte sale, si
usa già il suono digitale, che viene sviluppato da otto tracce in
contemporanea.
Il nuovo sistema le porterà a dodici, il che consentirà più punti di
amplificazione. I dati memorizzabili nel proiettore digitale saranno
pressoché infiniti, e potranno consentire tecnologie innovative come le
poltrone mobili o gli odori in sala. La qualità dell'immagine sarà
eccezionale, confrontabile con quella della tv digitale ad alta
definizione. La diffusione dei film dal produttore alla sala in questo
modo è istantanea, evitando le attese per le sale dei piccoli centri (che
spesso devono aspettare settimane per avere la copia).
Con il satellite, inoltre, si potranno spedire differenti colonne sonore (il
cinema di un quartiere di Roma potrà mandare alle sedici "Ronin" in
inglese, alle diciotto in spagnolo). La distribuzione satellitare ha però
diversi problemi, su tutti la pirateria. Gli studios già ora perdono
cinquemila miliardi di lire l’anno a causa delle copie illegali.
Un domani i cyber-ladri potrebbero intercettare il segnale e rubare una
copia perfetta dell'ultimo successo americano. Una società americana
la Qualcomm, ha assicurato al New York Times di avere già pronto un
sistema sofisticato per codificare la trasmissione dei film, impossibile da
penetrare. Un altro problema è quello relativo alla gestione della
trasmissione. Gli studios e i gestori delle sale temono che il sistema
412
vada in mano ad un solo grande distributore, in grado di imporre i
prezzi.
413
Proiettori DLP
Digital Light Processor, indica un nuovo chip che costituisce la base dei
proiettori digitali.
Il microprocessore è interamente coperto da ben un milione e
trecentomila mini-specchi che hanno il compito di riflettere ciascuno
l'immagine di un singolo pixel. Il computer controlla la formazione
dell'immagine che, stavolta, è davvero tutta digitale, con una definizione
massima di 1.280 x 1.024 pixel.
Il DLP è un sistema di proiezione delle immagini che offre brillanti
caratteristiche per Video e per Data.
Tutto è basato sullo sviluppo del chip DMD (Digital Micromirror Device),
una matrice formata da migliaia di microscopici specchi controllati da
una complessa circuitazione e sulla digitalizzazione del fascio luminoso,
che attraversa un ingegnoso filtro rotante sincronizzato con il chip DMD.
La luce proveniente dalla lampada viene filtrata dal disco rotante che,
essendo formato da 3 settori di colore rosso, verde e blu, scompone la
luce bianca digitalizzandola. I microspecchi possono oscillare dalla loro
posizione di riposo per riflettere la luce. Ogni microspecchio
rappresenta un pixel dell'immagine.
Sotto ogni specchio è presente una cella di memoria statica ad accesso
casuale che ne determina la posizione, utilizzando il sistema binario. Il
segnale video è strettamente correlato alla cella di memoria che
muoverà lo specchio corrispondente. Grazie al rapidissimo movimento
di ogni singolo specchio, l'immagine viene ricomposta in proiezione
sullo schermo.
I vantaggi della tecnologia DLP derivano dal principio della riflessione
della luce che produce una minore perdita rispetto ai filtri del sistema
LCD e, fatto non trascurabile, dalla distanza molto ravvicinata (circa un
millesimo di millimetro) tra gli specchi, grazie alla quale l'immagine
proiettata perde l'effetto reticolo tipico della proiezione a cristalli liquidi.
La nuova macchina non userà più la pellicola a 35 millimetri ma nastri
magnetici o dischi digitali.
414
LA TELEVISIONE STEREOSCOPICA
La scena ha tre dimensioni
L’aspetto più travolgente di questa rivoluzione è la rapidità con la quale
nascono nuovi prodotti e nuove modalità di fruizione dello schermo
televisivo.
I sistemi televisivi di nuova concezione hanno un obiettivo molto
ambizioso: promuovere lo spettatore ad attore di un teatro virtuale.
Ciò sarà possibile con la diffusione della tv tridimensionale, che esce
dallo schermo e mediante display "intelligenti" consente un'interattività
prima inimmaginabile.
Digitale, ad alta definizione, interattiva e tridimensionale.
Il paradigma della televisione si è arricchito di un nuovo modo di
riprodurre le immagini, proiettate in uno spazio virtuale tridimensionale.
Non nel senso convenzionale delle viste prospettiche esaltate da linee
di fuga accentuate, contrasti di luci e ombre, colori sfumati, su cui fa
leva la computergrafica cosiddetta tridimensionale. Si tratta invece di
una vera e propria ricostruzione spaziale delle immagini, che
l'osservatore percepisce come materializzate in parte al di qua, in parte
al di là dello schermo.
Può sorprendere che il principio di base che consente questo prodigio
virtuale fosse noto già nel secolo scorso, quando grazie a una prima
implementazione con la tecnica fotografica ha prodotto immagini
d'epoca tuttora esposte nelle mostre sulla cultura del 3D.
La particolarità di tali immagini era duplice, per il fatto di presentarsi in
coppie, sempre molto simili, quasi indistinguibili, e per il poter essere
riviste "a tre dimensioni" per mezzo di uno speciale visore, lo
stereoscopio.
La stessa tecnica, detta appunto stereoscopia, è ai giorni nostri oggetto
di un interesse rinnovato, con la motivazione ambiziosa di una possibile
estensione al campo televisivo. Grazie anche alla crescente
disponibilità delle tecniche digitali e multimediali, nell'ultimo decennio la
comunità scientifica internazionale ha cominciato a inseguire questo
obiettivo con studi sistematici e coordinati: si può anticipare che il
passaggio alle immagini elettroniche si è rivelato tutt'altro che
immediato, soprattutto per il contenuto di movimento, che introduce
nuove questioni nel dominio dei fattori umani studiati dall'ingegneria
televisiva.
Quale che sia la forma di implementazione (alle due tecniche
fotografica e televisiva per completezza dovremmo aggiungerne una
terza, quella meno diffusa della cinematografia stereoscopica), si cerca
di riprodurre la percezione delle tre dimensioni spaziali mediante
l'emulazione del meccanismo della visione naturale, cioè con un
approccio binoculare.
415
Ciò si traduce nell'impiego di una coppia di dispositivi di ripresa uguali
(fotocamere, cineprese, videocamere), disposti come gli occhi di una
persona, cioè distanziati di circa 60-65 mm su una linea orizzontale, e
coordinati nel movimento.
Inoltre, nel caso di una videocamera stereoscopica i due segnali elettrici
devono essere anche allineati a un riferimento temporale comune, cioè
la scansione nei due trasduttori di ripresa deve essere cadenzata da un
unico segnale di sincronismo.
Con questa configurazione i due dispositivi "vedono" una stessa scena
da due punti di osservazione distinti, anche se ravvicinati, e perciò
generano due immagini (stereo-coppia) diverse, anche se
apparentemente simili.
Tralasciando i problemi legati al trasporto a distanza di queste
informazioni, la restituzione su uno schermo tridimensionale avviene in
modo complementare alla ripresa, mediante un’opportuna tecnica di
separazione ottica delle due immagini (sinistra e destra). A questo
proposito i ricercatori hanno messo a punto una vasta serie di soluzioni,
diversificate per tecnologie, complessità e prestazioni, che
probabilmente sono destinate a giocare un ruolo chiave negli scenari
futuri della televisione tridimensionale.
Lo schermo: un componente "passivo".
Gli schermi stereoscopici di prima generazione erano composti di due
monitor convenzionali disposti ad angolo retto e di uno specchio semitrasparente; le due immagini venivano risolte con l'ausilio di filtri ottici
polarizzati, di cui veniva dotato anche l'osservatore (occhiali).
Nonostante si tratti di un'aggregazione piuttosto ingombrante di
componenti tradizionali per diverse applicazioni televisive, questa
soluzione ha mantenuto per decenni il primato della qualità delle
immagini, rispetto ai numerosi ritrovati di ben altra complessità
tecnologica, portati avanti in nome dell'eliminazione degli occhiali;
ancora oggi lo stesso arrangiamento, mutatis mutandis (una coppia di
video-proiettori convenzionali convergenti su uno schermo non
depolarizzante) viene trasposto con successo ai sistemi di proiezione di
immagini 3Dtv destinate a un pubblico più numeroso.
Soprattutto in queste ultime applicazioni, gli occhiali polarizzati
(trasparenti, leggeri, economici) sembrano un "disagio" ben accettabile,
in cambio della rappresentazione tridimensionale di una realtà
fantasiosa in cui sembra di essere immersi. Un problema forse più
concreto è invece la complessità del display. In questo senso va
interpretato il tentativo di riportare le dimensioni dei display
stereoscopici a quelle più abituali dei monitor per applicazioni televisive
o multimediali mediante la scansione cosiddetta tempo-sequenziale: la
filosofia che ispira questa tecnica è di commutare la multiplazione dei
416
segnali dallo spazio al tempo, mediante l'alternanza delle immagini
sinistra e destra in un segnale composito.
In sincronismo con le immagini che scorrono sul display, gli occhi
vengono oscurati alternativamente, per mezzo di opportuni occhiali
otturatori ("shutters") attivi; l'assenza di una vera e propria simultaneità
delle due immagini tuttavia non preclude la visione stereoscopica, che
si verifica ancora una volta per il fenomeno della persistenza delle
immagini sulla retina.
I metodi per rivedere le immagini 3D senza occhiali speciali si basano
sulla separazione ottica al livello dello schermo (detto
"autostereoscopico"); nelle realizzazioni più semplici viene sfruttata una
tecnologia di deposizione di una schiera di lenti cilindriche, di diametro
dell'ordine di grandezza di 1 mm ("pitch" dello schermo). Per poter
essere rilette in formato tridimensionale, le immagini devono essere
scritte sullo schermo interallacciate pixel a pixel: la separazione ottica
delle due immagini avviene a carico delle microlenti. Tuttavia, anche se
più evoluti, gli schermi di questa tipologia sono ancora "passivi", cioè
incapaci di interagire con l'osservatore.
Il display 3D diventa intelligente.
Una caratteristica comune ai sistemi stereoscopici descritti è che
l'osservatore può vedere la scena riprodotta con l'unica prospettiva
trascritta al momento della ripresa, indipendentemente dalla sua
posizione rispetto allo schermo. Questa limitazione può essere
superata se si incrementa il numero delle immagini riprese
simultaneamente (con una schiera di telecamere) e quindi si rende
disponibile una molteplicità di prospettive. In questo modo si riesce ad
approssimare localmente, per piccoli spostamenti del punto di ripresa,
un effetto tridimensionale più naturale.
Applicato inizialmente ai display lenticolari, questo principio ha riscosso
ampi consensi presso la comunità scientifica internazionale, pur
essendo tale implementazione suscettibile di miglioramenti soprattutto
nella miniaturizzazione dei relativi componenti.
Proprio questo obiettivo ha portato in tempi più recenti al progetto di
schermi dotati di dispositivi elettro-ottici in grado di dirigere
dinamicamente verso l'osservatore la coppia di immagini più
rispondente alla sua posizione.
Questo comportamento adattativo viene ottenuto chiudendo il
segmento display-utente della classica catena televisiva in un anello
controreazionato da un rilevatore automatico della posizione
dell'osservatore (la linea di feedback include l'elaborazione in tempo
reale dei dati raccolti con un sistema di ripresa telemetrico,
naturalmente stereoscopico). Integrato in questo sistema di controllo
automatico, il display possiede tutti i requisiti che sono necessari per
417
accedere a forme di interazione più intelligenti, anche al di là del
tradizionale ambito televisivo.
418
Verso la multimedialità.
Opportunamente accoppiati a tecniche innovative di interazione, gli
schermi tridimensionali stanno contribuendo all'implementazione di
interfacce d'utente di nuova concezione all'interno delle applicazioni
multimediali.
Considerando la crescente varietà dell'informazione multimediale, come
documenti, archivi audio e video, programmi applicativi, la dimensioneprofondità contribuisce a ricreare una struttura di presentazione
dell'informazione più intuitiva e immediata. Sembra, infatti, più naturale
organizzare la disposizione e la visualizzazione delle informazioni
multimediali con un’interfaccia grafica (Gui, Graphic user interface) che
prevede la gestione di modelli spaziali.
Tra le soluzioni ancora più avanzate che cominciano ad affacciarsi sul
panorama affollato della multimedialità, quella di un Sistema operativo
visivo (Vos, Visual operating system) promette un ambiente integrato
per gestire interazioni basate su comandi di tipo sia esplicito (lanciati
mediante tastiera o dispositivi di puntamento tipo mouse) sia implicito
(comunicati
mediante
il
semplice
sguardo).
Il
supporto
hardware/software di una piattaforma multimediale dotata di simili
automatismi comprende i componenti tipici della televisione
stereoscopica: non soltanto lo schermo 3D per la presentazione delle
informazioni, ma anche, e questa è la novità più significativa, un
sistema di ripresa stereoscopico integrato per il rilevamento automatico
della posizione della testa dell'osservatore e della linea del suo
sguardo. Questo comporta la possibilità di definire dinamicamente la
prospettiva di osservazione, e anche di poter attivare un oggetto
sensibile (ad esempio, un documento) semplicemente con lo sguardo.
Un'applicazione molto interessante è un lettore di pagine web: in questo
caso i collegamenti ipertestuali (hyper-links) vengono attivati
semplicemente guardando una parola "sensibilizzata" per un certo
lasso di tempo: il documento fissato verrà portato dal sistema in primo
piano sullo schermo, mentre gli altri saranno allontanati sullo sfondo.
Allo stesso modo, gli altri documenti disposti ovunque nello spazio
virtuale potranno essere richiamati e visualizzati semplicemente
guardandone l'icona sullo schermo.
Realtà virtuale o virtualizzata?
Nello scenario della cosiddetta Itc (Information and communications
technology), presso la Carnegie Mellon University (Usa) è stata avviata
una sperimentazione molto promettente sulla possibilità di coniugare le
tecniche di realtà virtuale con la naturalezza delle immagini televisive.
Il concetto di realtà virtualizzata nasce nel tentativo di superare due
limitazioni connaturate con la televisione tradizionale: l'angolo di ripresa
deciso univocamente dal regista e la visione bidimensionale dei (tele)
419
visori attuali. Come la più nota realtà virtuale, anche la realtà
virtualizzata riproduce un ambiente virtuale attorno allo spettatore; dove
però i due metodi differiscono è nel modo in cui i rispettivi modelli
matematici vengono generati: il primo si basa su modelli relativamente
semplici e schematici degli oggetti, del tutto sintetici, che si vogliono
rappresentare; diversamente il secondo costruisce automaticamente i
modelli virtuali a partire dalle riprese del mondo reale, mantenendo tutti
i dettagli visibili nelle immagini originali. La realtà virtualizzata realizza
un mezzo visivo immersivo che permette all'osservatore di
personalizzare dinamicamente una prospettiva secondo le proprie
preferenze del momento, come se potesse riprendere la scena (realtà)
con una propria telecamera mobile (virtuale), liberamente posizionabile
all'interno della scena.
La potenza espressiva di un tale mezzo va anche ben al di là delle
possibilità effettive di collocare una telecamera reale in una posizione
preferita: come si potrebbe collocare una telecamera reale al centro di
un campo di calcio, o, come è stato dimostrato, su una palla da
baseball che "vede" il battitore dapprima avvicinarsi progressivamente,
e poi allontanarsi dopo esserne stata respinta, o ancora nella stessa
posizione fisicamente occupata da un chirurgo impegnato in un
intervento operatorio destinato anche a essere visto in diretta a fini
didattici.
Tali questioni trovano una risposta affermativa se affrontate nel dominio
virtuale, anzi virtualizzato, con gli strumenti di post-produzione finora
riservati esclusivamente alle animazioni di computer-grafica.
Europa e Giappone: competizione o cooperazione?
In Europa in questo ultimo decennio sono stati attivati alcuni Progetti di
ricerca coordinati sulla televisione stereoscopica: il primo è stato
avviato nel Programma di ricerca Cost, con l'obiettivo di definire un
sistema televisivo che attraverso l'innovazione della tridimensionalità
potesse migliorare la qualità delle immagini ad alta definizione.
Il Progetto Cost 230 (Stereoscopic television) grazie a una larga
partecipazione internazionale ha svolto ricerche fondamentali nelle aree
della psico-ottica, delle tecniche di elaborazione dei segnali video e
delle tecnologie dei componenti.
Tra le funzioni strategiche del Progetto Cost 230 va segnalata quella di
avere originato alcuni Progetti di tipo applicativo che, supportati dai
Programmi di ricerca europei Race e Acts, hanno potuto sviluppare
alcuni argomenti tematici fino all'implementazione.
Alcuni fattori, tra cui la molteplicità delle applicazioni suscettibili di un
trattamento
mediante
immagini
tridimensionali
(applicazioni
professionali e di intrattenimento) e la mancanza del primato di qualità
di un sistema rispetto a tutti gli altri (sistemi stereoscopici a
420
polarizzazione o autostereoscopici?) frenano le proposte di standard
video 3Dtv ancora all'interno dei laboratori di ricerca.
In questo scenario l'assenza di un vero e proprio gap tecnologico tra
Europa e Giappone (diversamente dalle pregresse esperienze
sull'Hdtv) favorisce un clima di crescente cooperazione, in cui sono
tutt'altro che rare iniziative di ricerca comuni.
Si stima che attualmente in Giappone oltre duecento ricercatori (tra
accademia e industria) siano impegnati nelle ricerche sulla 3Dtv, sia
nella forma della stereoscopia, sia in quella decisamente più
impegnativa dell'olografia.
In questo scenario, la produzione 3Dtv è stata prevalentemente
orientata alle applicazioni specifiche per gruppi di utenza professionale:
telemedicina, chirurgia endoscopica, servizi di teledidattica, videoconferenza, ma anche la manipolazione remota di oggetti in ambienti
inaccessibili o ostili mediante robot (come nella recente missione
spaziale Usa sul pianeta Marte).
Tuttavia, più recentemente anche sul piano dell'intrattenimento
televisivo sono stati registrati risultati promettenti, tanto da indurre il Nhk
giapponese ad arricchire la proposta dell'home-theatre con la
cosiddetta 3D-HDtv, che produce immagini televisive spettacolari,
dotate, oltre che di rilievo, dei dettagli propri dell'alta definizione.
Il contributo della Fub.
La Fondazione Ugo Bordoni, che ha una specifica riconosciuta
competenza in questo campo, da anni partecipa attivamente agli studi
sul tema della 3Dtv, con particolare attenzione alle tecniche di codifica
dei segnali video stereoscopici. L'interesse verso questo tema è
motivato dalla duplice finalità di adattare un segnale televisivo
stereoscopico al trasporto attraverso i canali di telecomunicazione
convenzionali e di memorizzarlo su un supporto di memoria di massa.
La ricerca di uno schema di codifica idoneo ad applicazioni di elevata
qualità è stato affrontato con l'atteggiamento di generalizzare i sistemi
di codifica disponibili per i sistemi video convenzionali, possibilmente
mantenendo la compatibilità verso la televisione monoscopica.
L'approccio Fub alla compatibilità è articolato su un doppio livello di
codifica, realizzata con metodi interamente numerici: compressione dei
dati di una delle due immagini con una tecnica convenzionale (canale
compatibile), descrizione della seconda immagine mediante le
variazioni rispetto alla prima.
Su questa piattaforma è stato innestato un codificatore "intelligente" di
concezione Fub, in grado di differenziare la qualità degli oggetti
all'interno delle singole immagini in funzione del loro "peso" visivo.
Anche in questo caso, l'architettura del codec (codificatoredecodificatore) prevede una struttura ad anello chiuso, che include uno
stimatore della posizione degli "oggetti" all'interno delle immagini. I
421
blocchi funzionali più critici del sistema sono tuttora oggetto di uno
studio di ottimizzazione condotto in collaborazione con il Dipartimento di
Informatica e Sistemistica dell'Università degli Studi di Roma "La
Sapienza".
Una recente attività di sperimentazione sui display ha portato allo
sviluppo di un driver per gli schermi tempo-sequenziali, a partire
dall'osservazione che la risoluzione verticale in questo tipo di display
risulta degradata se viene utilizzato il tipo di interallacciamento usato
nella televisione monoscopica. Questo artefatto è stato neutralizzato
con una nuova organizzazione dei segnali di sincronismo video,
rispondente a un fattore di interallacciamento alternativo.
Il recupero completo della risoluzione verticale nelle immagini è stato
dimostrato mediante un circuito integrato digitale (processore di
sincronismo video) ideato e realizzato all'interno della Fondazione.
Si prevede che nel breve termine il dispositivo potrà essere utilizzato
nei laboratori degli Istituti di ricerca consorziati con la Fub, naturalmente
motivati a privilegiare soluzioni tecnologiche basate su schermi sempre
più compatti e luminosi, quali i display stereoscopici a scansione
sequenziale.
I risultati di queste ricerche vengono regolarmente diffusi nella comunità
scientifica internazionale, particolarmente in ambito europeo, dove la
Fub ha contribuito fin dal primo momento ai lavori del Progetto Cost
230, di cui ha recentemente assunto il coordinamento.
Il Progetto Cost per la stereoscopia ha un numero: 230
I progetti di ricerca Cost (European cooperation in the scientific and
technical field) nascono nei primi anni '70 e rappresentano la prima
forma di collaborazione scientifica sistematica a livello europeo.
La Fondazione Ugo Bordoni che è stata fin dall'inizio uno dei più strenui
sostenitori della collaborazione Cost, ha detenuto la Presidenza di più
di un quinto dei circa 60 progetti varati nell'area delle telecomunicazioni
e rappresenta l'Italia nel Technical committee telecommunications.
Il Progetto Cost 230 (Stereoscopic television - standards, technologies
and signal processing) è stato avviato nel 1991 con l'obiettivo di
coordinare le attività di ricerca e sviluppo in ambito europeo sulle
tecnologie dei sistemi televisivi tridimensionali (3Dtv), in particolare
stereoscopici.
Alla stesura del piano di ricerca (in origine quinquennale, recentemente
prolungato di altri due anni) hanno partecipato esperti di Istituti di
ricerca di Belgio, Francia, Germania, Italia e Regno Unito, ai quali si
sono aggiunti negli anni successivi Grecia, Portogallo e Spagna.
Attualmente gli otto paesi membri contribuiscono al progetto con oltre
venticinque enti di ricerca.
Il progetto si sviluppa in tre filoni principali per ciascuno dei quali opera
uno specifico gruppo di lavoro:
422
1) Fattori umani nella 3Dtv: psico-ottica della visione binoculare,
grammatica di produzione 3Dtv e metodologie di valutazione della
qualità delle immagini 3D.
2) Tecnologie 3Dtv: dispositivi di ripresa, dispositivi di videoregistrazione, schermi stereoscopici con occhiali e schermi
autostereoscopici senza occhiali.
3) Elaborazione e trasmissione del segnale 3Dtv: tecniche di codifica di
sorgente, interpolazione e sintesi di immagini virtuali.
423
TERZA DIMENSIONE DELL'IMMAGINE!
Il suono digitale
Due tra i più straordinari cineasti contemporanei, attribuiscono alle
immagini, ma soprattutto al sonoro, il merito di inchiodare lo spettatore
alla poltrona in balia delle emozioni: George Lucas, sostiene che "Il
sonoro di un film è il 50% dello spettacolo"; per il geniale e pluripremiato
regista iraniano, Abbas Kiarostami, autore di una cinematografia
straordinariamente essenziale, realizzata con pochissimi mezzi tecnici
"Il suono è molto importante, più importante dell'immagine... attraverso
la ripresa visiva noi arriviamo, al massimo, a ottenere una superficie
bidimensionale. Il suono conferisce a questa immagine la profondità, la
terza dimensione.
È il suono a colmare le lacune dell'immagine".
Attualmente nelle sale più attrezzate, si vive un effetto presenza
travolgente, tanto da poter dire: "vado a vedere e sentire un film ".
L'avvento del sonoro multicanale permette una ricostruzione degli spazi
perfetta. Si viene letteralmente bombardati dai suoni e non più solo
dagli altoparlanti retro schermo: il sistema Dolby Digital, il più usato
attualmente, prevede una sorgente sonora centrale per i dialoghi, un
canale destro ed uno sinistro per la colonna sonora ed i rumori, un
subwoofer (LFE Low Frequency Effects) per i bassi profondi, tutti
posizionati dietro lo schermo, ed un certo numero di altoparlanti
"surround", ai lati e dietro lo spettatore, per gli effetti: è la cosiddetta
tridimensionalità del suono (i canali surround servono in definitiva a
mettere lo spettatore in sala al centro dell'azione).
I vantaggi dell’uso del suono digitale nella creazione della dimensione
sonora del film sono:
Canali Surround Stereo
Canale subwoofer dedicato agli effetti di bassi
Perfetta separazione del fronte sonoro e grande potenza su tutti i canali
utilizzati (fino a 8)
Possibilità di creare una perfetta integrazione tra immagini e audio
avvolgente.
Sistemi audio utilizzati nelle sale cinematografiche
Attualmente vengono utilizzati tre sistemi audio cinematografici, tutti
digitali, ognuno con le proprie caratteristiche, dalle quali sono derivati i
sistemi casalinghi ma con le opportune differenziazioni. Non è facile
riconoscere in un cinema quale sistema è utilizzato: solo essendo
ascoltatori attenti e esperti è possibile riconoscerne le differenze.
424
Ogni sala cinematografica può scegliere di dotarsi di uno dei tre sistemi,
o più di uno, e in base a ciò avrà poi la possibilità di proiettare pellicole
codificate con quel sistema.
Il sistema di codifica audio è sempre indicato sulle locandine dei film e
nelle sale. Il DolbyDigital : è il sistema più diffuso. Il segnale è
memorizzato sulla pellicola e il formato è 5.1 canali.
Il DTS usa dei CD per la colonna sonora.
L'SDDS ha la caratteristica di essere codificato con 7.1 canali (due in
più) destinati al canale centro-sinistra e centro-destra.
Dolby Digital
E’ utilizzato per la prima volta nel film Batman returns.
Questo sistema si avvale di 5 audio canali +1: destro, centro, sinistro,
surround destro, surround sinistro, e un canale per subwoofer. (Nel
diagramma in basso è riportata una configurazione tipica del Dolby
Digital in una sala cinematografica)
La colonna digitale è incisa sulla parte sinistra della pellicola 35mm, e
precisamente fra gli spazi della perforazione, e ciò per poter registrare
anche la normale colonna Dolby Stereo, che in tal modo coesiste nello
spazio laterale normalmente riservato. La stessa copia può essere così
proiettata sia in Dolby Stereo che in Dolby Digital. La separazione fra i
canali è di oltre 90dB (prima era di 35dB). Tutto ciò è possibile grazie
alla compressione AC-3, studiata dalla Dolby con Pioneer Electronics. I
segnali analogici digitalizzati diventano una sequenza di numeri binari. I
numeri possono essere manipolati con algoritmi appropriati. Parte del
segnale audio al di sotto della curva di percezione, quindi inutile, viene
scartato. Tutto ciò per ridurre la massa di informazioni digitali. Quindi le
informazione audio compresse, decodificate con un processo inverso,
vengono diffuse in sala con la qualità originale.
SDDS – Sony Dynamic Digital Saund
E’ il formato audio digitale ideato da Sony e basato sul sistema di
compressione ATRAC.
Un segnale in SDDS contiene sette canali audio +1- sinistra,
centro/sinistra, centro, centro destra, destra, surround destro, surround
sinistro, e un canale subwoofer per le basse frequenze. Le tracce del
suono SDDS corrono lungo le estremità della pellicola 35 mm.
Una delle due tracce è di back-up. Le tracce vengono lette con il
sistema ottico. Il primo film realizzato con l’ SDDS è stato Last Action
Hero del 1993. Il sistema utilizzato per i film della Columbia (Sony) è
oggi impiegato nella realizzazione di colonne da tutte le major, inclusa
la Universal coproprietaria del sistema DTS.
425
DTS –Digital Theater System:
Il primo film realizzato in DTS dalla Universal Pictures, è stato Jurassic
Park di Steven Spielberg.
Si distingue dagli altri due sistemi, che utilizzano la pellicola come
supporto per l’incisione digitale dell’audio, in quanto usa il film
unicamente per la trascrizione di un timecode digitale accanto alla
colonna analogica. Il timecode serve per sincronizzare con le immagini
la lettura della colonna sonora, interamente incisa su COMPACT DISC.
La possibilità di avere la colonna su Compact Disc comporta una
maggiore quantità di dati sul suono, in quanto la compressione dei
segnali è minore rispetto a quella degli altri sistemi. Nel caso la
pellicola, per un difetto del supporto o altro motivo tecnico, subisse un
salto nel trascinamento all’interno del proiettore il sistema di controllo
provvede, al fine di recuperare il sincronismo con il Compact Disc, al
passaggio audio sulla colonna analogica Dolby Stereo, per poi
riprendere la lettura su CD. Tutto ciò avviene ovviamente senza alcuna
percezione da parte dello spettatore poiché si tratta di operazioni
nell’ordine di frazioni di secondi.
Cinema Dolby Digital EX
Questo sistema è stato utilizzato per la prima volta nel film Star
Wars:Episode I. Rispetto al Dolby Digital, è stato aggiunto un canale in
più, e precisamente il 'centrale posteriore'. Le casse che circondano la
sala vengono così divise in tre gruppi e in base alla loro posizione
serviranno per il canale posteriore destro, posteriore centrale,
posteriore sinistro.
Il canale aggiunto rispetto al classico DD non è, a differenza degli altri 6
canali, 'digitale'. E' invece ottenuto tramite una codifica 'matriciale'
identica a quella utilizzata per il Prologic.
Secondo il creatore di tale sistema (il direttore della Lucas Digital, Gary
Rydstrom) questo stratagemma permette di dare effetti di 'fly over and
fly around' più accurati e precisi dietro e ai lati degli spettatori.
426
CERTIFICAZIONE DI IMPIANTI E QUALITÁ AUDIO NELLE
SALE CINEMATOGRAFICHE
Il sistema THX per le sale cinematografiche.
Nel 1983 George Lucas decide di creare la società THX ltd al fine di
affrontare il problema dell’audio nelle sale cinematografiche di tutto il
mondo, e ciò per stabilire dei parametri tecnici validi per le attrezzature
utilizzate, la loro installazione, la definizione di impianti e strutture per
un ascolto ottimale delle colonne sonore cinematografiche.
THX non è, dunque, un sistema di codifica audio, ma una certificazione
che garantisce qualità tecniche e acustiche per la diffusione del suono
in sala
Questo sistema si propone non come un processo di riproduzione
alternativo al Dolby Stereo (e alle sue evoluzioni), ma come un insieme
di regole e di requisiti ai quali una sala che vuole fregiarsi di questo
marchio deve rispondere.
La necessità di costruire una sala virtualmente perfetta era stata
manifestata da George Lucas.
L’ingegnere Tomlinson Holman venne così incaricato di creare nello
“Skywalker Ranch”, complesso tecnico costruito dallo stesso Lucas,
una sala di proiezione che fosse allo stato dell’arte.
Venne poi l’idea di sfruttare commercialmente questo esperimento, visti
i risultati entusiasmanti che Holman aveva ottenuto.
Nacque così la certificazione THX per le sale cinematografiche.
Il nome THX pare sia un acronimo di “Tomlinson Holman Experiment”;
altri sostengono che abbia avuto origine dal primo cortometraggio
diretto da Lucas dal titolo “THX1138”. Molti erano i problemi che Lucas
e il suo staff volevano risolvere. I vecchi sistemi di riproduzione
avevano una risposta molto scarsa alle basse frequenze e una forte
distorsione a volumi elevati. Inoltre, non era stato risolto il grosso
problema della combinazione crossover e dispersione alle medie
frequenze. Un altro grosso difetto era che il livello di pressione sonora
non era omogeneo in tutta la sala. Il sistema THX si propone di
risolvere questi problemi utilizzando woofer con emissione diretta,
montati su un baffle esteso e perfettamente piano, trombe a direttività
costante per le alte frequenze con driver a compressione migliorati.
427
CSS-Cinema Sound System
L’italianissima RCF ha brevettato il suo sistema di alta fedeltà
cinematografica, il CCS RCF (Cinema Sound System), richiesto dalla
Cecchi Gori Film per attrezzare i suoi cinema: per l'allestimento
tecnologico della sala, usa come sorgente il Dolby, il Dts o l'Sdds, ma
fornisce amplificatori e diffusori di costruzione propria.
CSS è una certificazione di qualità attraverso soluzioni tecniche messe
a punto dall’azienda RCF per migliorare la resa sonora nelle sale
cinematografiche. Si tratta dell’alternativa italiana al THX, e prevede
anch’essa lo studio degli impianti e delle sale, con controllo di tutti i
singoli diffusori, dell’amplificazione, dei canali surround.
428
UN PERCORSO IN CERCA DI EFFETTI SPECIALI FRA
GLI STRUMENTI DELLA TECNOLOGIA DIGITALE
Per riuscire a capire quale dei software in commercio soddisfrerà le
molteplici esigenze di una post-produzione, uno dei punti focali è la
velocità di elaborazione soprattutto oggi che la risoluzione indipendente
permette di lavorare su singoli frame di dimensioni virtualmente
illimitate. I protagonisti sono sempre Quantel e Discreet Logic, ma
oggi anche Avid sta recuperando un suo ruolo grazie alla politica di
acquisizione di marchi prestigiosi del settore. Non sono gli unici, ma
forse sono i più dinamici e certamente i più conosciuti. Ciascuna di
questa aziende fino a ieri era fortemente caratterizzata. Il dibattito
filosofico centrale era tra i sistemi chiusi e quelli aperti, rappresentati
rispettivamente proprio da Quantel e Discreet Logic. Poi c'è Avid che ha
fatto dell'integrazione tra edit ed effetti il suo cavallo di battaglia. Pur
nelle reciproche specializzazioni tutti i produttori stanno cercando di
costruire sistemi integrati con le massime possibilità di interscambio.
Quantel opta per l'integrazione di Java aprendo il suo sistema ai
contributi esterni; Discreet Logic si basa su hardware più dedicato che
in passato, Avid incorpora funzioni dei diversi software per offrire la
completa interscambiabilità dei file.
Ritenere però che dopo i tre grandi il resto non conti sarebbe un errore
enorme. Molte aziende oggi stanno costruendo sistemi dedicati,
specializzati oppure no, che possono rispondere ad esigenze che
vanno dall'effettistica quasi amatoriale fino agli effetti speciali per il
cinema.
Quantel, società che più di ogni altra ha contribuito alla diffusione degli
effetti speciali nel settore televisivo. Le workstation Hal e Henry
permettono attraverso l'opzione Transform FX di realizzare spettacolari
effetti basati su particelle: esplosioni, immagini che si dissolvono come
granelli di sabbia in una tempesta e così via. Questi nuovi effetti si
vanno ad aggiungere alla già ricca dotazione di base di Hal che offre
anche tutte le funzionalità di una Paintbox Bravo, l'evoluzione della
classica Paintbox che permette di utilizzare pennelli di qualsiasi forma e
contenuto.
Henry, l'editor per gli effetti continua a essere la macchina di punta di
Quantel e combina alle funzionalità di effettistica quelle di un sistema di
compositing in grado di trattare fino a 8 layer in tempo reale.
Soluzioni di pari livello sono quelle proposte da Discreet Logic (Video
Progetti), tutte basate su workstation Silicon Graphics (SGI). Inferno,
utlizzato per produzioni cinematografiche di alto livello; Flame,
precedentemente disponibile solo su Onyx, può ora essere utilizzato
anche sulle più "economiche" Octane mentre il fratello minore, Flint, è
proposto insieme alla versione per O2, la personal workstation di SGI.
La differenza principale fra i due sistemi consiste nella velocità di
429
elaborazione mentre entrambi permettono di lavorare su immagini in
formato televisivo o cinematografico.
Stesso hardware anche per Media Illusion di Avid, un pacchetto nato
dall'integrazione del software di compositing Matador con Elastic
Reality, uno dei più apprezzati software per la creazione di effetti
morphing. Media Illusion consente l'acquisizione e il riversamento del
video in tempo reale e supporta moduli aggiuntivi che permettono di
estendere la gamma degli effetti disponibili.
Infine, workstation SGI Octane e O2 anche per Jaleo di Comunicacion
Integral (Gruppo TNT), un software di montaggio non lineare che mette
però a disposizione tutta una serie di effetti speciali, da quelli classici in
stile DVE fino al morphing.
Un gradino più sotto troviamo poi i prodotti destinati a funzionare su
personal computer. La qualità dei risultati ottenibili con questi è
difficilmente distinguibile da quella tipica di sistemi ben più costosi,
almeno in alcuni casi. Le grosse differenze sono però il livello di
interazione con l'operatore e i tempi di esecuzione che difficilmente si
conciliano con le stringenti esigenze di una post-produzione.
Illuminaire della Denim Software (Video Progetti) è un pacchetto
composto da un modulo di painting e da uno di compositing e può
essere utilizzato su computer Macintosh o Windows. Il modulo di paint
non si limita alla semplice applicazione di effetti pittorici, ma consente di
animare tutte le funzioni. Molti dei filtri possono essere applicati con
l'uso di pennelli la cui forma e il grado di trasparenza sono facilmente
controllabili. Il modulo di compositing svolge in pratica le funzioni di un
DVE 3D con prospettiva reale, controllo delle ombre e effetti di
rifrazione.
Edit Discreet Logic è una completa suite di editing non-lineare real-time
che implementa al suo interno strumenti avanzatissimi di multi-layering
e compositing assolutamente indispensabili per i vostri effetti speciali.
Sfruttando la potenzialità della piattaforma Windows NT Edit può
plasmarsi secondo le vostre esigenze "trasformandosi" da una stazione
di produzione stan-alone ad una potentissima suite di finishing on-line.
Paint Discreet Logic è la soluzione di object oriented animation basata
sulla gestione vettoriale di file fissi o sequenze su piattaforma MAC,
Windows 95 e Windows NT.
Paint può essere utilizzato come applicazione stand-alone o come
complemento di Edit, Effect e 3D Studio Max per applicazioni video,
web, animazioni e multimedia favorendo risultati artistici eccellenti ed
innovativi.
Effect Discreet Logic è un vero compositing 3D che fornisce clip
animation e permette di combinare a perfezione effetti speciali ed
artistici, migliora e modifica frame video o sequenze di frame, con un
livello di efficienza ed interattività mai raggiunti prima su di un sistema
"desktop".
430
Anche Combustion Discreet Logic fornisce un potente strumento di
produzione per la grafica, l'animazione, il compositing ed il rendering di
effetti speciali.
Adobe After Effects (Gruppo TNT) è quello che ha ottenendo i
maggiori consensi ed è stato utilizzato anche per produzioni
cinematografiche. Questo software è disponibile sia per piattaforma
Macintosh che Windows e permette di combinare immagini fisse e
sequenze video sfruttando tutta una serie di effetti in 2D e 3D. A
ciascun elemento può essere associato un numero illimitato di filtri di
elaborazione delle immagini e il programma supporta sia la risoluzione
standard D1 del video Pal, sia risoluzioni cinematografiche.
Altri effetti possono essere aggiunti con pacchetti come Boris Effects
(Tempestini Video) che è utilizzabile anche con numerosi software di
montaggio non-lineare, come Avid MCXPress e Media Composer,
Adobe Premiere, Fast blue, Media 100 e così via. La maggior parte di
questi incorpora comunque un certo numero di filtri, in alcuni casi anche
piuttosto sofisticati, che possono essere utilizzati per la creazione di
interessanti effetti di elaborazione pittorica delle immagini piuttosto che i
classici effetti DVE, dal picture in picture al voltapagina.
Il problema della lentezza di esecuzione tipico delle soluzioni basate su
personal computer può essere risolto ricorrendo a schede in grado di
accelerare i tempi di esecuzione e, in alcuni casi, lavorare in tempo
reale. E' questo il caso di prodotti come Genie di Pinnacle - e
l'equivalente Gaudi per Media 100 - o DveousFX di Scitex Digital
Video (Video System) utilizzabile con tutti i sistemi di montaggio nonlineare della linea Sphere.
DveousFX utilizza tecnologie sviluppate da Abekas per il Dveous, uno
dei pochi DVE "puri", nel senso che possono essere utilizzati senza
l'ausilio di un computer. Altre macchine di questo tipo sono il Magic
DaVE di Snell & Wilcox (Video Progetti) e il DME-7000 di Sony.
Quest'ultimo fa parte dell'equipaggiamento dell'Unità 18 di Telerecord,
parcheggiata proprio di fronte ai padiglioni della mostra.
I DVE "puri" sono, infatti, ancora insostituibili in produzione dove è
indispensabile l'immediatezza dei risultati che sono in grado di garantire
solo queste macchine mentre per la post-produzione la tendenza è
quella di utilizzare strumenti più flessibili, che non siano cioè limitati a
un numero di effetti che, per quanto grande sia, è pur sempre limitato.
Fin qui ci siamo occupati di soluzioni che possono essere considerate
estensioni dei classici DVE. I programmi di animazione 3D sono però
entrati a far parte della dotazione standard di qualsiasi post-produzione
che si rispetti e con questi è possibile realizzare effetti davvero speciali.
Senza andare a scomodare i dinosauri di Jurassic Park, con programmi
come questi si possono creare flaconi che danzano piuttosto che
ambienti altrimenti troppo costosi da realizzare scenograficamente.
431
Il prodotto più innovativo in questo campo è Maya di Alias/Wavefront,
presentato ufficialmente per la prima volta in Italia nel 1997 in
occasione della fiera dell’IBTS.
Maya rappresenta un notevole passo in avanti nell'animazione
tridimensionale per l'elevato grado di interattività possibile, sia per
quanto riguarda l'animazione dei modelli, sia per la gestione delle luci
piuttosto che delle particelle.
Questo software è disponibile sia su workstation SGI, che sulle
piattaforma Windows NT.
Altro prodotto per l’animazione tridimensionale è 3D Studio MAX di
Kinetix che, grazie ai notevoli miglioramenti apportati, è ora in grado di
competere alla pari con prodotti già affermati nel settore degli effetti
speciali per la televisione e il cinema.
LightWave 3D di Newtek ha costantemente dominato i mercati
televisivo e cinematografico, nonché il mercato per lo sviluppo dei
giochi. Progettato per l'uso produttivo, LightWave 3D vanta il migliore
motore di calcolo del settore, una completa suddivisione di
modellazione, ed il sistema più veloce e più accurato di animazione 3D
del mondo basato sul motore di Cinematica Inversa (IK).
Ultimo, ma certamente non ultimo, Softimage 3D di Avid E' il prodotto
più venduto della famiglia 3D. I tools di modellazione, animazione e
rendering permettono di realizzare qualsiasi contributo 3D nell'ambito
Entertaiment, architettonico, design e aziendale.
E' da anni il prodotto di riferimento per tutti coloro che devono realizzare
animazioni di alta qualità come spot pubblicitari, contributi 3D per la
cinematografia e video professionali per l'industria e le corporate.
432
CONCLUSIONI
Il futuro del Cinema
Mentre fino a ieri le immagini proposte dal cinema avevano una
garanzia di realtà, nel senso che gli eventi proposti dallo schermo,
anche per film fantastici, si erano sicuramente verificati davanti alla
macchina da presa, oggi le nuove tecnologie consentono di far apparire
sullo schermo personaggi, animali o oggetti che in realtà non esistono.
La tecnologia digitale e la realtà virtuale stanno dando dunque vita ad
una quarta dimensione dell'immaginario audiovisivo, caratterizzata dal
totale superamento della realtà fisica.
Film come Toy Story, interamente "girato" in digitale, dove l'immagine di
sintesi non si limita ad integrare o correggere la realtà, ma la rimpiazza
completamente, danno forse l'idea di cosa significherà fare cinema nei
prossimi decenni.
Le nuove tecnologie audiovisive e l'immagine elettronica in particolare
saranno nei prossimi anni sempre più al centro dell'impegno produttivo
di un'opera cinematografica, non solo come sistemi per la realizzazione
del film, ma anche come generatrici di nuovi meccanismi di fruizione del
prodotto, basti pensare che si stanno studiando soluzioni per sostituire
gli schermi a cristalli liquidi con microscanner laser che disegnano
direttamente le immagini sulla retina.
Si tentano inoltre nuove strade verso la realizzazione di film interattivi
attraverso l'uso di cd-rom; i game-designer si stanno, infatti,
impegnando per creare trame che diano l'illusione di essere proiettati
all'interno di una pellicola, con la possibilità di decidere e quindi
modificare lo sviluppo delle sequenze vissute.
Non si tratta già più, dunque, di produrre solo effetti speciali; la partita si
gioca piuttosto sul terreno della ricerca e della capacità del cinema di
seguire in prima persona le tappe dell'evoluzione elettronica.
Lo sviluppo delle reti a banda larga avrà un ruolo determinante.
Permetterà scambi e alleanze tra studi, maggiore economicità di tempi
e di risorse, una diffusione più capillare.
I personal media saranno lo strumento di una generazione di autori che
vogliono controllare il processo creativo e bypassare persino il circuito
commerciale.
Per capire fino in fondo il fenomeno bisogna tenere d’occhio l’attività dei
"dot-com". Molte compagnie come Atomfilm, Ifilm, FilmFilm, scovano
attraverso la rete novità e talenti prima ancora che questi si affaccino
nei vari festival, offrono biografie aggiornate, spazi di comunicazione,
incoraggiano la produzione.
Questi siti costituiscono ormai, un microcinema, come è stato
battezzato dall’omonima società on line, un circuito alternativo per la
visione di "corti" che secondo la rivista "Yahoo! Internet Life" sono più di
433
centomila all’anno regolarmente trascurati dalla distribuzione nelle sale.
Ma sono anche l’anticamera del successo, visto che sono frequentati
da produttori a caccia di novità.
Nessuno può dire oggi se a caratterizzare il cinema del duemila
saranno soltanto le immagini digitali con tutti i possibili effetti creati al
computer oppure la contaminazione tra vecchio e nuovo nel segno
d'una illuminata continuità dello specifico filmico evolutosi nel primo
secolo di crescita.
Certo, il nuovo concetto di realtà che è possibile generare con le
immagini virtuali influenzerà sempre più le soluzioni registiche e gli stili
interpretativi con un'offerta di libertà estesa dalle dimensioni degli
schermi fino, alle più diverse percezioni sensoriali.
L’universo multimediale e digitale, con tutte le sue risorse capaci di
rinnovare e centuplicare il senso di meraviglia dello spettatore, sembra
fatto apposta per esaltare la più antica prerogativa del cinema - quella,
appunto, del potere ammaliatore di ciò che fluisce sullo schermo.
434
IL CINEMA E IL SUO VOCABOLARIO
Academy Award: Premio Oscar assegnato ogni anno dall'Academy of
Motion Picture
Arts and Sciences (Associazione Americana dei
Produttori e Cineasti). È l'unico premio che viene assegnato anche alle
singole fasi della lavorazione.
Acetate: Acetato (o Cel, se riferito all’uso della celluloide,). Foglio di
plastica trasparente usato nelle tradizionali tecniche d’animazione e
nella grafica da proiezione
Action Line: Linea del movimento (vedi Motion Path).
A.G.I.S.: Associazione Generale Italiana dello Spettacolo. Riunisce i
gestori di tutte quelle aziende che si occupano dello spettacolo in
generale: cinema teatro, circo ecc.
Aim Point: Punto di mira, puntamento dell’asse ottico della MdP (vedi
anche Camera Target).
Aiuto assistente operatore: tuttofare dell'operatore. Si occupa della
manutenzione della macchina da presa e di altri lavori come il trasporto
delle bobine.
Aiuto regista: si occupa di coordinare la regia con la troupe e il cast.
Algoritmo: Procedura analitica rigorosamente sequenziale per
risolvere “passo per passo” un qualunque problema che sia riducibile
nei termini di un sistema simbolico (logico-matematico), ovviamente
composto da elementi discreti dotati di significato univoco. Si tratta
dunque di quel particolare modo di scomporre cartesianamente anche i
problemi più complessi al fine di ricondurli a stringhe di operazioni
elementari (facilmente traducibili in termini digitali, ovvero di alternative
binarie), quindi del metodo che è ancora alla base delle attuali tecniche
di programmazione informatica.
Alpha Channel: Nel trattamento delle immagini digitali indica il canale
utilizzato per veicolare le informazioni relative alla mascheratura zonale,
ovvero allo “scontornamento” di certe zone del quadro al fine di
ottenere un ritaglio utilizzabile per ulteriori operazioni compositive (vedi
anche Cutout, Matte, Mask, Stencil).
A.N.A.C.: Associazione Nazionale Autori Cinematografici.
Anamorfico: tecnologia cinematografica capace, per mezzo di lenti
montate sulla macchina da presa con caratteristiche "anamorfiche", di
schiacciare l'immagine sul negativo distorcendola e comprimendola. In
fase di proiezione, un altro sistema di lenti simili, provvede a riportare
l'immagine alla proporzione desiderata per essere proiettata sullo
schermo in formato Cinemascope/Panavision.
Angle: Angolo di campo di un obiettivo (Field of View). Nel cinema si
assume ad esempio un angolo di 30 gradi come riferibile ad una “focale
normale”.
A.N.I.C.A.: Associazione Nazionale Industrie Cinematografiche e Affini.
435
A.N.S.I.: (ex A.S.A.) American National Standard Istitute; è un ente che
ha definito delle norme accettate internazionalmente da tutto il mondo
della cinematografia.
Anteprima: Pre-visualizzazione (vedi Preview) di una sequenza
d’animazione che consente il controllo anticipato del risultato di
massima (seppure a più bassa definizione) prima di procedere al
“processamento” definitivo della stessa.
Assolvenza: Apparizione graduale dell’immagine sullo schermo a
partire da uno sfondo omogeneo (ad es. fondo nero; vedi Fade-In).
Aspect Ratio: Rapporto tra la base e l’altezza dello schermo TV (4 : 3).
Art Director: scenografo, lavora in sintonia con il regista; è
responsabile della progettazione e della realizzazione delle scenografie;
dirige le maestranze addette alle costruzioni.
A.S.C.: (American Society of Cinematographers); associazione dei
direttori della fotografia americani.
Assistente alla produzione: coordina molte attività inerenti le riprese,
dall'organizzazione dei viaggi, orari ecc.
Assistente alla regia: collaboratore dell'aiuto regista.
Attrezzista: responsabile di tutti gli oggetti presenti sulla scena.
AVID: marchio di fabbrica che costruisce attrezzature per il montaggio.
Axis of Motion: Asse del movimento, ovvero la linea immaginaria
lungo la quale un oggetto si muove nello spazio (talora definibile come il
principale vettore risultante dalle diverse componenti parziali di un
fenomeno cinetico complesso).
Background: Fondino su cui, ad esempio, è possibile inserire dei titoli.
Si tratta dunque del piano (con tutti gli eventuali attributi di forma,
colore, texture ecc.) che fa da sfondo o scenario principale ad una
composizione grafica concepita su più livelli sovrapposti. E come tale
rappresenta quindi l’elemento da inserire per primo nello schermo del
computer quando si procede, come in genere accade, per
stratificazione di piani e giustapposizione di ritagli. Si parla anche di
lavoro in background quando una funzione occupa solo una parte della
RAM del computer e si può pertanto lanciare un’altra funzione in
foreground.
Bevel: Particolari rastremature o smussature degli spigoli di un oggetto
tridimensionale, predisposte ad esempio per rendere più variegati gli
effetti di luce sui caratteri che compongono un logo in 3D.
Bitmap: Immagine Raster, ovvero composta da una mappa di bit o
matrice di punti (vedi anche Pixel)
B.S.C.: (British Society of Cinematographers); associazione dei direttori
della fotografia inglesi.
Bounding Box: Visione semplificata per grossi blocchi scatolari di un
oggetto 3D utilizzata, talora in alternativa al Wireframe, soprattutto al
fine di percepire più chiaramente l’orientamento nello spazio di forme
complesse (ad esempio quelle di un corpo umano), nonché per rendere
più veloce l’interazione durante il preview.
436
Bump Map: Superficie composta da aree più o meno irregolari definite
da scale di grigi che simulano, come in una carta da parati, i rilievi di
una texture nel rivestimento bidimensionale di un oggetto 3D.
Camera Target (Interest): Il centro di mira o “bersaglio” verso cui è
puntato l’asse ottico della camera (vedi anche Aim Point).
Campo: insieme al piano è una distanza cinematografica.
Generalmente si parla di campoquando la distanza è in rapporto con
l'ambiente, e di piano quando la distanza cinematografica è in rapporto
con la persona.
Campo medio: inquadratura di un'intera azione dove l'ambiente è ben
visibile e relazionato.
Campo lungo: inquadratura in esterni a larga visuale, dove però si nota
un centro narrarivo.
Cast: c'è quello "artistico" (regista, sceneggiatore, attori) e quello
"tecnico" (montatore, direttore della fotografia, fonico, ecc.).
Carrellata: ripresa dal carrello in movimento.
Carrello: veicolo su ruote che alloggia la macchina da presa.
Center of the World: Nel modello digitale di un qualunque spazio 3D
simulato al computer, ovvero sempre riferibile con precisione ad un
sistema di assi cartesiani (X,Y,Z), il “centro del mondo” (il punto di
riferimento per ogni operazione di orientamento e dimensionamento
numerico delle entità geometriche) tende ovviamente a coincidere per
convenzione con le coordinate del punto di origine in cui tali assi
s’intersecano (0,0,0).
Characters Generator: Generatore di caratteri alfanumerici, titolatrice
elettronica usata nella lavorazione di un prodotto televisivo. Prende
talora il nome corrente della marca o del tipo (es. Aston, Cypher,
Chyron ecc.).
Chroma-Key: Chiave cromatica. Intarsio (ottenibile già in fase di
ripresa) di un segnale video in un altro, utilizzando appunto come
chiave un colore determinato (uno dei tre colori primari, in genere il blu
o il verde).
Ciak: Tavoletta nera con strisce bianche che nel suo lato inferiore è
munita di un’asta mobile incernierata, in grado cioè di ruotare e di
produrre un rumore tipico (un ciak, appunto). Simile ad una piccola
lavagna, su di essa viene infatti scritto in bianco il titolo del film, il nome
del regista e dell’operatore, nonché il numero d’ordine della ripresa. Sul
negativo del film i rapporti tra bianchi e neri ovviamente s’invertono, e
ciò facilita la lettura delle scritte anche qualora l’esposizione o lo
sviluppo della pellicola non risultino perfette. Tale strumento viene
usato all’inizio di ogni ripresa cinematografica per facilitare le
successive operazioni di montaggio. Il rumore del ciak serve inoltre
come segnale di riferimento per sincronizzare l’immagine con il sonoro.
Cinemascope: sistema di ripresa/proiezione a schermo largo
brevettato dalla Twenty Century Fox.
437
Cinerama: sofisticato sistema di ripresa/proiezione a grande schermo
con tre macchine da presa sincronizzate capaci di coprire insieme un
angolo visivo molto ampio. In sala proiezione vengono utilizzati tre
proiettori anch'essi sincronizzati ed uno schermo gigante.
Clipping Plane: Piano ortogonale all’asse visivo che delimita i bordi
dello spazio cartesiano di riferimento.
Close-Up: In una ripresa indica la visione in dettaglio di un oggetto.
Collision Detection: Gli oggetti virtuali normalmente si compenetrano
l’uno nell’altro se non viene impostato manualmente un valore limite del
movimento in corrispondenza dei punti di collisione. Ma nei modelli di
simulazione dinamica (vedi Dynamic Simulation) può essere invece
prevista una funzione che rende automatico questo “rilevamento di
collisione”.
Colonna sonora: registrazione sonora di dialoghi, musiche ed effetti
miscelati insieme.
Colossal: film nel quale predominano le masse popolari e le
ricostruzioni solitamente storico-avventurose.
Constrain: Costrizione, impedimento che può essere attribuito
intenzionalmente ad una qualunque entità geometrica al fine di
vincolare il movimento, la rotazione o il cambio di scala di un oggetto
virtuale rispetto ad una o più direttrici spaziali.
Crossfade: Dissolvenza incrociata (DX) tra due inquadrature. Nel
linguaggio del cinema indica in genere un passaggio di tempo.
Cortometraggio: per la legge italiana un film di lunghezza non inferiore
a 290 metri e non superiore a 1.500 metri di pellicola.
Cursore: l’elemento segnaletico che sullo schermo del computer
consente di seguire con lo sguardo le azioni svolte dall’operatore
all’interno di una interfaccia grafica, ovvero di localizzare con precisione
e in tempo reale la posizione assunta di volta in volta, per così dire, dal
nostro “agente virtuale” nel quadro dei comandi previsti dal programma
in uso. Consiste in genere in un puntatore a forma di freccia, di croce o
di barretta mobile, ma può assumere le più diverse forme in base alle
varie funzioni utilizzabili (pennello, matita, orologio ecc.).
Cut: Taglio. Comando impartito dal regista per interrompere una ripresa
(Action).
Indica
dunque
uno
“stop”.
Cutout: Ritaglio, ovvero elemento grafico che può essere ottenuto, ad
esempio, mediante lo scontornamento e il taglio di una figura prelevata
dal quadro complessivo di una data immagine (vedi Picture) in vista di
eventuali operazioni compositive di sovrapposizione o accostamento tra
più figure e relativo incollaggio delle stesse (vedi Pasteup)
Daylight: Luce diurna (termine riferito all’uso della luce solare in una
ripresa fotografica).
Découpage: divisioni in blocchi del film; è una fase della sceneggiatura
Depth Cue: Effetto atmosferico che riduce gradualmente la visibilità
degli oggetti lontani (nebbia, smog, foschia ecc.)
438
Dialoghista: nel doppiaggio è l'adattatore del testo, ricopre il ruolo di
garante del rispetto dell'originale adattandolo ai movimenti della bocca
dell'attore in video, ma anche alle consuetudini e alle peculiarità
linguistiche.
Digital sound: suono digitale.
Dissolve: Transizione graduale ottenuta modificando la luminosità
dell’immagine (vedi Fade to Black e Fade-Out). Si ottiene ad esempio
utilizzando un’ apposita barra del Mixer.
DLS: Digital Library System. Archivio digitale d’immagini usato nella
documentazione televisiva.
Distant Light: Luce direzionale che si suppone distante rispetto al
soggetto principale, ovvero composta da raggi paralleli (simile, in
questo, alla luce solare diretta) in quanto posta teoricamente “all’infinito”
anche qualora non venga intesa né come luce principale, né come una
rappresentazione del Sole (cioè non venga resa visibile, in termini
naturalistici, come una effettiva sorgente luminosa appartenente
all’orizzonte prospettico della scena).
Distanza cinematografica: distanza apparente tra il pubblico ed il
centro d'azione della ripresa. Si divide in campi quando la distanza è in
rapporto con l'ambiente, e in piani quando è in rapporto con la persona.
Dolly: (Altalena, leva, bilancia). Speciale “carrello” di ripresa con
braccio elevatore che consente di muovere la camera anche lungo
l’asse verticale.
DPI: (Dots per Inch), risoluzione espressa nel numero massimo di dots
(punti/immagine) che è possibile ottenere per ogni inch (1 inch = 2,54
cm) ad esempio nella stampa su carta di un documento digitale.
Dynamic Simulation: Simulazione di fenomeni fisici, ovvero delle forze
locali o globali che agiscono sugli oggetti: gravità, inerzia, attrito,
torsioni ecc., con la possibilità di regolarne parametri quali l’intensità o
la direzione.
Direttore di doppiaggio: il garante dell'interpretazione durante le fasi
del doppiaggio.
Direttore del cast: si occupa di trovare gli attori più adatti ai vari ruoli
che successivamente verranno presentati al regista che farà la scelta
definitiva.
Direttore della fotografia: responsabile tecnico artistico della fotografia
di un film. Si occupa di tutto ciò che riguardano le inquadrature e le luci;
sceglie e dirige le maestranze che rientrano nelle sue competenze.
Direttore di produzione: responsabile dell'aspetto amministrativoproduttivo del film, ogni cosa che attiene all'organizzazione passa sotto
il suo diretto controllo.
Dissolvenza: progressivo schiarirsi o scurirsi di un inquadratura.
Dissolvenza incrociata: tecnica per la quale due inquadrature in
sequenza si mischiano tra di loro in modo graduale.
Dolby Digital: sistema di riproduzione audio digitale a 5.1 canali,
brevettato dalla Dolby Labs.
439
Dolby Labs: marchio di fabbrica che produce tecnologie sonore.
Dolby Stereo SR: Dolby Stereo Spectral Recording: sistema di
riproduzione audio a 4 canali, brevettato dalla Dolby Labs. È
l'evoluzione del Dolby Stereo A.
Dolby SRD-EX: Dolby Digital EX: sistema di riproduzione audio digitale
a 6.1 canali, brevettato dalla Dolby Labs. È l'evoluzione del Dolby
Digital.
Dolby Stereo A: sistema di riproduzione audio a 4 canali, brevettato
dalla Dolby Labs.
Dolby Surround Pro Logic: sistema di riproduzione audio in alta
fedeltà, simile al Dolby Stereo SR ma realizzato per sistemi di
videoregistrazione, brevettato dalla Dolby Labs.
Dolly: carrello con braccio mobile su cui è sistemata la macchina da
presa, gli operatori e gli assistenti. Può essere con ruote in gomma per
pavimenti perfettamente lisci o con ruote scanalate da binario per
terreni accidentati.
Doppiaggio: registrazione in studio della colonna sonora (dialoghi +
musiche + rumori).
DTS: Digital Theater System; sistema di riproduzione audio digitale a
5.1 canali, brevettato dalla Amblin/Universal.
Drive-in: cinema all'aperto nel quale si accede con l'automobile.
Editing: Fase finale di edizione in cui avviene il montaggio, il
doppiaggio, la sincronizzazione, il trattamento delle immagini con
eventuali effetti speciali di post-produzione, nonché la titolazione e la
duplicazione di un prodotto video.
Environment Map (o Reflection Map): Superficie contenente
un’immagine o una texture che è come “spalmata” all’interno di una
sfera virtuale (invisibile) la quale avvolga l’intero mondo 3D costruito al
computer (in modo da potersi riflettere parzialmente, ad esempio, negli
oggetti cromati presenti sulla scena).
Fade-In: Apparizione graduale dell’immagine in apertura (vedi
Assolvenza)
Fade to Black: Dissolvenza in chiusura su nero (Fade-Out).
Field: Semiquadro (due semiquadri interallacciati compongono un
frame).
Field of View: Campo della visione o angolo di campo (vedi Angle).
Flash-Back: Inserimento in una sequenza di un racconto che si
riferisce al ricordo di eventi passati.
Flip: Ribaltamento orizzontale (inversione tra destra e sinistra) di un
Cutout.
Fonico: tecnico addetto alla registrazione ed alla manipolazione del
suono.
Fonico di presa diretta: si occupa della sistemazione dell'attrezzatura
audio sul set affinché queste non intralcino la regia e la fotografia.
Formato schermo: noto anche come formato immagine, formato
inquadratura, rapporto dimensionale, formato dimensionale, aspect
440
ratio. È il rapporto tra larghezza e l'altezza dell'immagine
cinematografica sullo schermo.
Fotografia cinematografica: la tecnica con cui si ottiene la costruzione
dell'immagine per mezzo di opportune forme di luci e della disposizione
di tutti gli elementi presenti sul set. In pratica, con la fotografia si
realizzano visivamente le richieste artistiche della regia; una particolare
"illuminazione" e disposizione degli elementi, compreso gli attori, i
costumi e il trucco, definisce l'atmosfera.
Fotografo di scena: documenta attraverso fotografie tutto quello che
accade sul set.
Fotogramma: singola immagine impressa sulla pellicola.
Frame: Il singolo “quadro” di una sequenza video (equivalente al
fotogramma cinematografico).
Freeze: Congelamento dell’immagine (fermo-fotogramma).
Fuori campo: ogni azione o suono che ha luogo fuori dal campo di
ripresa.
Gel: Gelatina di correzione o colorazione policroma della luce emessa
da un riflettore. Funzione del mixer che produce viraggi cromatici. Nei
programmi di computer graphics indica quella funzione che in genere
consente appunto di simulare un foglio di gelatina colorata o pellicola
trasparente in grado di filtrare la luce di una lampada al fine di produrre
una dominante di colore o di proiettare, ad esempio, una sagoma
(ovvero un’immagine qualsiasi, non solo riferibile ad una singola slide
ma persino ad un intero filmato) su qualche superficie di un oggetto
virtuale.
Glow: Luminescenza, fluorescenza. Proprietà attribuita ad una
superficie al fine di creare l’illusione di una luce propria o di un alone
emanato dall’oggetto, anche se non nei termini di una vera e propria
luce radiante (vedi Radiosity).
Grandangolare: obiettivo capace di riprendere un campo visivo
maggiore di quello dell'occhio umano.
GUI: Graphical User Interface.
Hidden Line Removal: Cancellazione delle linee nascoste. Rimozione
di quelle linee “posteriori” che nella volumetria di un oggetto supposto
opaco, sebbene raffigurato in forma schematica con il solo reticolo
geometrico che ne definisce i contorni, devono risultare nascoste alla
vista per evitare fenomeni di ambiguità percettiva (vedi Wireframe).
Imax: sistema a schermo gigante, con pellicola da 70 mm con 15
perforazioni per ogni fotogramma.
In-Betweening: Intercalazione, interpolazione. Calcolo automatico dei
passaggi intermedi in una procedura d’animazione.
Index of Refraction: Valore numerico riferibile alle caratteristiche di un
determinato materiale, il quale determina il tipo di rifrazione dei raggi di
luce passanti attraverso un oggetto trasparente più o meno denso.
Inquadratura: unità minima di montaggio. In pratica è la porzione di
spazio inquadrata dalla macchina.
441
Inverse Kinematics: Nell’animare ad esempio una figura antropomorfa
la funzione detta cinematica inversa consente d’impostare un
movimento a partire dall’estremità degli arti anziché dal centro del
corpo, ricavando in tal modo, grazie ai vincoli anatomici pre-impostati,
la “causa” di una concatenazione cinematica dall’effetto che questa
produce, semplificando così l’animazione degli oggetti complessi.
Ispettore di produzione: collaboratore sul set del direttore di
produzione.Ne è il braccio esecutivo.
Keyframe: Inquadratura chiave in cui sono specificati tutti gli attributi
(direzionali, dimensionali, cinetici ecc.) di un oggetto (attore) rispetto
alla linea evolutiva globale del movimento delle immagini prevista nella
fase di programmazione di una sequenza animata. La serie completa,
ovvero svolta per l’intera sequenza, di tali indicazioni relative alle
“posizioni chiave” delle entità animate, configura ad esempio quella
traiettoria specifica che l’oggetto è destinato a percorrere nello spazio
inquadrato (vedi Motion Path), la quale dunque si pone come risultante
di tutte le posizioni parziali pre-impostate). La visione schematica
d’insieme di tutti gli spostamenti che l’attore effettuerà nella scena
assume quindi, in taluni programmi dedicati all’animazione, l’aspetto
grafico di una linea tratteggiata che può essere più o meno curva e i cui
trattini possono essere più o meno regolari in base alla velocità,
all’uniformità, all’accelerazione o al rallentamento dell’azione (ogni
singolo trattino, appunto, rappresenta la posizione dell’oggetto in quel
keyframe o fotogramma specifico).
Lens Flare: Difetto tipico di un obiettivo fotografico che può essere
aggiunto artificialmente in una ripresa virtuale per renderla meno
“perfetta” e dunque per accrescere l’effetto di realtà. Oltre al riflesso di
luce che può formarsi all’interno di un obiettivo (ad esempio quando
questo è orientato verso una sorgente di luce puntiforme), per
estensione, il temine può indicare genericamente tutti quei falsi riflessi,
bagliori a stella (filtro Cross screen) o aloni luminosi di vario tipo che
possono essere aggiunti alle parvenze di un oggetto o di una scena per
renderle più “brillanti” o per accentuare l’illusione della verosimiglianza
(fotorealismo).
Letterbox: formato schermo televisivo. Prevede sullo schermo tv
l'aggiunta di bande nere orizzontali di varia ampiezza, sopra e sotto
l'immagine, con lo scopo di rispettare il formato cinematografico
originale.
Live Video: Video dal vivo (l’immagine, proveniente da una fonte
qualunque, ad esempio trasmessa da un canale televisivo, può dunque
scorrere sul monitor in tempo reale quando tale funzione viene attivata,
e può pertanto essere acquisita all’interno del sistema grafico con cui si
sta operando).
Loop: Funzione che consente di “allacciare” la prima e l’ultima
inquadratura di una sequenza animata in modo da riprodurla ad anello,
ovvero come un ciclo continuo d’immagini ricorsive.
442
Lungometraggio: per la legge italiana un film di lunghezza non
inferiore a 1600 metri.
Macchinista: tecnico addetto al trasporto ed al montaggio delle
macchine e degli accessori di ripresa; progetta e costruisce
apparecchiature per realizzare riprese particolarmente difficili.
Majors: grandi case di produzione, solitamente storiche ed
hollywoodiane.
Matte: Funzione che consente il prelievo o l’intarsio di una porzione
d’immagine (vedi anche Alpha Channel, Cutout, Mask, Stencil).
Matte Key: Chiave d’intarsio. Funzione del Mixer che serve per
ottenere effetti d’intarsio (nonché di colorazione o alterazione
cromatica) in un’area predeterminata dell’immagine.
Mask: Maschera (nel Mixer indica la funzione che consente ad esempio
di selezionare le diverse sagome pre-impostate che si possono adottare
come “mascherino” per effetti d’intarsio o transizione).
Microfonista: tecnico alle dipendenze del fonico; si occupa della
sistemazione dei microfoni.
MdP: Macchina da presa.
Mesh: Nei sistemi di modellazione indica il reticolo di poligoni che
definisce la forma degli oggetti.
Metaball: Metasfera. Espediente usato in alcuni programmi di
modellazione per simulare con un procedimento rapido e intuitivo delle
“masse semisolide” (Blob), o comunque delle forme complesse come le
fasce muscolari di un corpo umano (Meta-clay, “metamuscoli”). Il
metodo più semplice è appunto quello basato sull’adozione di moduli
sferoidali.
Missaggio: montaggio audio della colonna sonora (musiche + dialoghi
+ rumori).
Mixer: Strumento utilizzato sia nella fase di Editing o postproduzione
video, sia negli studi televisivi durante la registrazione o la trasmissione
in diretta di un programma. Consiste in un banco di missaggio che può
smistare e trattare contemporaneamente un certo numero più o meno
elevato di canali. Si tratta dunque di un apparato elettronico che
consente di miscelare, sommare tra loro o “intarsiare” più segnali,
ovvero contributi provenienti da più fonti (audio e video) ricorrendo
anche ad una serie di effetti di transizione in parte già programmati, in
parte regolabili in base ad esigenze specifiche (tendine, mascherini,
dissolvenze, alterazioni cromatiche ecc.).
Modeling: (Solid Modeling), modellazione dei solidi, fase di costruzione
dei modelli 3D che logicamente precede l’eventuale passaggio a quelle
ulteriori fasi di coreografia o regia virtuale richieste dalla produzione di
una sequenza animata tridimensionale.
Morphing: Abbreviazione di “metamorphosing” adottata per indicare
appunto un effetto di metamorfosi facilmente ottenibile con determinati
programmi, in virtù del quale la forma di un oggetto si trasforma in
quella di un altro mediante una serie di deformazioni topologiche
443
(ottenute per successive intercalazioni automatiche una volta impostati
un certo numero di “punti di controllo” in comune tra le due immagini)
seppure ricorrendo in genere anche ad una dissolvenza incrociata che
consenta di ridurre il numero dei fotogrammi realmente modificati e
dunque i tempi di trattamento.
Montaggio: l'unione di porzioni di pellicola su cui sono state girate le
sequenze, ma anche singole inquadrature, con lo scopo di ottenere
un'insieme logico, organico e artistico.
Motion Capture: Dispositivo che consente l’acquisizione degli schemi
di movimento da modelli reali, ovvero d’importare le coordinate di un
certo numero di punti di controllo posti in corrispondenza delle principali
articolazioni di una figura (ad esempio, di un attore o di un mimo).
Motion Control: Sistema che consente di coordinare in modo
automatico e in tempo reale il movimento effettivo di una telecamera
con le trasformazioni prospettiche di una scenografia virtuale generata
dal computer.
Motion Path: Traiettoria del movimento (vedi anche Action Line e
Keyframe)
Motion Tracking: Tecnica laboriosa che consiste nel sovrapporre
inquadratura per inquadratura (frame by frame) le azioni riprese dal vivo
con le animazioni generate dal computer. Oggi è tuttavia possibile
ricorrere a sistemi totalmente automatizzati (vedi Motion Control).
Moviola: apparecchiatura dedicata al montaggio.
Nickelodeon: sala statunitense d'inizio secolo, dove si pagava un
Nickel per entrare.
Nomination: prima selezione per l'assegnazione del Premio Oscar.
NURBS: Non Uniform Rational Beta Spline. Solido risultante dalla
interpolazione di più Spline disposte nello spazio in modo non uniforme.
Oggettiva: ripresa in cui la macchina da presa, esternamente
all'inquadratura, vede tutto ciò che accade.
Operatore: tecnico addetto al funzionamento della macchina da presa;
è colui che materialmente esegue la ripresa.
Oscar, Premio: Academy Award.
Paint-Box: Alla lettera “scatola per dipingere”, termine anglosassone
indicante la tipica valigetta dei colori abbinata al cavalletto portatile. Ma
in realtà qui ci riferiamo al nome di un noto sistema grafico-pittorico
digitale che rappresenta la base di una linea di prodotti della ditta
inglese Quantel. Utilizzato a partire dagli anni ‘80 (e molto usato ancor
oggi grazie anche alla sua ormai ben collaudata affidabilità) nella
maggior parte degli apparati televisivi, nonché nei centri specializzati in
computer animation e postproduzione digitale.
Paint System: Sistema grafico-pittorico digitale (in genere di tipo
Raster ovvero a matrice di punti, ma che può anche includere funzioni
vettoriali) che simula, grazie ad una sorta di tavolozza elettronica, gli
strumenti tradizionali del disegno e della pittura.
444
Pan: Inquadratura panoramica, ovvero rotazione della camera intorno
all’asse verticale.
Pan&Scan: formato schermo televisivo. Se il film in origine era in un
formato panoramico, vengono tagliate cospique porzioni laterali
dell'immagine per proiettarlo a tutto schermo senza bande nere.
Artisticamente inaccettabile!
Panaflex: tipo di macchina da presa costruita dalla Panavision.
Panavision: marchio di fabbrica che costruisce diversi modelli di
macchina da presa. Si identifica anche con un formato schermo.
Panoramica: movimento rotatorio della macchina da presa attorno al
proprio asse.
Partecipazione straordinaria: breve parte recitata da un attore
famoso.
Particles: Effetti “particellari” inseribili in una animazione 3D che,
seppure basati sull’uso di semplici particelle bidimensionali, consentono
di rendere in modo verosimile anche fenomeni “caotici” molto complessi
(fumo, vapore, disintegrazione di oggetti ecc.).
Pasteup: Nei sistemi pittorici (vedi sopra Paint System) indica la
funzione che consente la giustapposizione e l’incollaggio (collage) di
ritagli o elementi grafici eterogenei.
Pellicola: materiale fotosensibile su cui vengono fissati, in sequenza, i
fotogrammi.
Piano:
insieme
al
campo,
è
una
distanza
cinematografica.Generalmente si parla di pianoquando la distanza è in
rapporto con la persona, a differenza del campo dove la distanza
cinematografica è in rapporto con l'ambiente.
Piano americano: inquadratura della figura dalla coscia alla testa.
Piano medio: inquadratura della figura dalla vita in sù.
Piano sequenza: unica sequenza priva di stacchi.
Picture: L’intera immagine che riempie lo schermo (contenuta in un
singolo Frame). Nei sistemi digitali viene memorizzata e trattata sotto la
forma numerica di una matrice di punti o Bitmap.
Pilota: film, telefilm, sceneggiato campione, realizzato per il cliente al
fine di decidere la realizzazione di un'intera serie.
Pizza: rullo di pellicola.
Pixel: La singola “tessera” luminosa che compone il “mosaico”
dell’immagine sullo schermo del computer. Si tratta dunque dell’unità
minima, del più piccolo “elemento pittorico” di ogni immagine video (il
termine deriva infatti dall’abbreviazione di picture element).
Playback: tecnica che prevede l'utilizzo di colonne sonore preregistrate
in studio; si contrappone all'audio di presa diretta che non garantisce,
però, l'uniformità del suono.
Post-produzione: tutte le fasi della realizzazione di un film che
seguono alla fine delle riprese.
Preview: Visione anticipata, seppure in forma talora meno definita o
comunque provvisoria e dunque reversibile, di come risulterà
445
un’animazione o il montaggio finale di una sequenza video (vedi
Anteprima).
Primo piano: inquadratura, nel caso di una figura umana, dalle spalle
in sù.
Primissimo piano: inquadratura, nel caso di una figura umana, solo
del viso.
Produttore: colui che investe i soldi e mette in cantiere il film. Spesso
ne è anche l'autore, il responsabile sia artistico che tecnico, e alla regia
viene delegata solo l'esecuzione.
Produttore esecutivo: responsabile della produzione sul set. Approva
le spese.
Produzione: tutte le attività, sia economiche che tecniche, messe in
atto per la realizzazione di un film.
Profondità di campo: spazio nitido davanti e dietro il punto di messa a
fuoco.
Radiosity: Sofisticato sistema di Rendering che consente una resa
fedele della luce radiante, riflessa, rifratta ecc.. Si tratta dunque di un
particolare algoritmo più veloce del Ray Tracing e che rispetto a
quest’ultimo consente migliori risultati qualitativi in senso fotorealistico.
Rallenty: Nel cinema il rallentamento delle immagini si può ottenere
elevando la cadenza di ripresa. In campo televisivo si ricorre ad
apparati che utilizzano dischi magnetici o particolari sistemi di
videoregistrazione definiti di tipo elicoidale.
Ray Tracing: Algoritmo usato spesso per il rendering finale nelle
animazioni 3D, basato sul calcolo dei riflessi e sul tracciamento dei
raggi di luce in relazione alle caratteristiche delle superfici degli oggetti.
Se usato abilmente a tale scopo, consente dunque un alto grado di
verosimiglianza “fotorealistica”, ma richiede anche calcoli più complessi
(nonché tempi di processamento più lunghi) rispetto ad altri tipi di
rendering meno raffinati.
Raster: Matrice di punti. Sistema “pittorico”, ovvero uno dei due metodi
usati per costruire un’ immagine elettronica (vedi anche Bitmap); si
distingue, infatti, dal sistema “grafico” vettoriale (Stoke).
Reflection Map: Mappa di riflessione (vedi Environment Map).
Reggetta: Barretta metallica artigianale con tre perni che, unita ad
un’apposita foratrice, consente di mettere a registro i disegni nella
tecnica di animazione tradizionale.
Regista: responsabile artistico ma anche tecnico-professionale di un
film; è l'unico che ha in mente tutto quello che si deve fare dalla
preparazione e, attraverso le riprese, al montaggio; è l'autore del film
salvo alcune rare eccezioni in cui la figura predominante, sia a livello
artistico che tecnico, si identifica con quella del produttore. In questo
caso si parlerà più che di regista-autore, di regista-esecutore.
446
Regia: direzione artistica di un film. La regia cinematografica, a
differenza di quella teatrale che interpreta un'opera compiuta, è la
creazione dell'opera stessa.
RGB: Red, Green, Blue. I tre colori primari (Rosso, Verde e Blu) della
sintesi additiva usati nella codifica elettronica dei segnali video.
Rendering: Rendimento, resa in termini “esecutivi” delle qualità
sensoriali dell’immagine previste dall’autore. Può indicare dunque quel
trattamento finale che definisce (o, per così dire, “sviluppa in bella
copia”) l’aspetto delle superfici, nonché la stessa evoluzione temporale
degli oggetti quando si tratta di un’animazione. Si ottiene così il
processamento dell’immagine, ovvero il compiuto svolgimento della
serie di operazioni precedentemente impostate. Poiché tale procedura
richiede in genere un certo tempo più o meno lungo di elaborazione, la
fase di rendering presume dunque che siano concluse tutte le fasi
preparatorie (le impostazioni generali, le verifiche in Preview), anche
qualora si tratti di realizzare una singola immagine sintetica in 3D
piuttosto che un’intera sequenza animata.
Remake: un film già esistente, riproposto completamente in una nuova
versione.
Roll: Rotazione della camera intorno alla linea di mira.
Rostrum Camera: Sistema di ripresa automatizzato consistente in una
o più telecamere sospese su bracci meccanici semoventi in grado di
muoversi in più direzioni, di ruotare, nonché di scorrere su apposite
guide. Il movimento è controllabile mediante computer (essendo
programmato a priori oppure registrato e riprodotto fedelmente dalla
macchina): è possibile, ad esempio, una volta impostate le inquadrature
chiave, ottenere per intercalazione automatica la curva risultante della
traiettoria di ripresa. Si usa in genere per la ripresa in studio di modellini
(o comunque di oggetti con dimensioni necessariamente limitate), ad
esempio per le esigenze tipiche dei documentari scientifici o dei film di
fantascienza.
Rotoscope: apparecchiatura capace di proiettare i fotogrammi
singolarmente.
RVM: Registrazione Video Magnetica.
Safe Area: Area di sicurezza che in un monitor indica lo spazio utile per
le titolazioni. Occorre infatti tener conto che nei televisori domestici una
scritta troppo vicina al bordo dello schermo potrebbe risultare “tagliata”
(Cut-Off).
Scanning: Scansionamento automatico di un oggetto per acquisirne la
geometria (mediante uno Scanner 3D). Un procedimento analogo, ma
basato sul rilievo manuale dei punti salienti dell’oggetto mediante un
apposito puntatore, si definisce invece 3D Digitizing.
Sceneggiatore: scrittore di un soggetto cinematografico ovvero della
sceneggiatura.
447
Sceneggiatura: film su carta: scena per scena, dialogo per dialogo
compresa la descrizione di tutti i luoghi e gli oggetti presenti
nell'inquadratura.
Scenografo: Art Director.
SDDS: Sony Dynamic Digital Sound; sistema di riproduzione audio
digitale a 7.1 canali della Sony.
Seconda unità: è una seconda troupe di regia che realizza sequenze
di massa, di difficile realizzazione o specialistiche.
Sedici millimetri: pellicola a formato ridotto rispetto al classico
trentacinque millimetri cinematografico.
Segretaria di edizione: cura la stesura del diario di lavorazione nel
quale viene annotato tutto ciò che accade sul set, dalle spese fino ai
motivi delle perdite di tempo. Inoltre riporta tutte le varianti effettuate
alla sceneggiatura durante le riprese.
Set: luogo della ripresa.
Sequenza: unità narrativa del film composta da una o più scene
compiute.
Sequencer: Sorta di righello o “pentagramma” composto da una serie
di linee parallele che nei programmi d’animazione consente il controllo
visivo e operativo, durante l’impostazione di una sequenza video o
d’animazione, di tutti i parametri relativi ai cambiamenti di forma e
posizione, ai sincronismi, agli oggetti e agli eventi ambientali che si
sviluppano in una determinata linea del tempo.
Sincrono: Coincidenza fra suono e immagine.
Size: Dimensione.
Skeleton: Scheletro. Schema semplificato di un corpo umano.
Skycam: Camera telecomandata, in genere sospesa a tiranti metallici,
usata per riprese dall’alto (utili ad esempio in uno stadio).
Slow Motion: Movimento rallentato (Pseudo-Rallenty) ottenuto in fase
di lettura RVM.
Snorkel: Minuscolo obiettivo grandangolare inserito in una sottile asta
periscopica che viene in genere usato per la ripresa di modellini (vedi
anche Rostrum Camera).
Soggettiva: ripresa in cui la macchina vede con gli occhi di un
personaggio, animale ecc.
Special Awards: premi assegnati dall'Accademy of Motion Picture Arts
and Sciences.
Spin: Rotazione della camera o dell’oggetto attorno ad un asse
prestabilito.
Spline: Nei sistemi grafici vettoriali indica la funzione che consente di
generare curve mediante l’impostazione di punti di controllo.
Steadycam: Camera stabilizzata mediante contrappesi per riprese
professionali effettuate a mano, ovvero senza l’ausilio di cavalletti o
carrelli
448
Steadicam: particolare e tecnologico sistema di contrappesi che
permette alla telecamera a spalla una linearità di ripresa perfetta e
senza tremolii.
Steady Shot: Ripresa stabile. Obiettivo compensatore di shock, ovvero
stabilizzato al fine di ridurre le eventuali vibrazioni prodotte in particolari
situazioni di ripresa.
Stencil: Mascherino, pellicola trasparente o sagoma disegnata che
consente di scontornare o coprire una parte dell’immagine per
proteggerla ad esempio dal colore debordante di un getto d’aerografo, o
per ottenere un ritaglio, uno stampo da usare con la spugna ecc. I
caratteri in versione stencil, com’è noto, sono infatti quelli che possono
essere adottati anche per realizzare dei “normografi” di plastica o delle
guide di lamierino con cui riprodurli facilmente su qualunque supporto.
Nei moderni programmi di grafica digitale il termine ricopre significati
analoghi.
Stunt-man: controfigura oppure cascatore molto somigliante all'attore;
la prima sostituisce l'attore anche durante le varie prove e il secondo
solo durante le scene atletiche e pericolose.
Story-board: sceneggiatura disegnata nei minimi particolari, è il
fumetto del film.
Superimpose: Sovrimpressione.
Teatro di posa: grande ambiente attrezzato per le riprese.
Technicolor: azienda specializzata nello sviluppo e nella stampa;
inoltre è conosciuta anche come sistema di ripresa a colori.
Texture mapping: Applicazione di rivestimenti bidimensionali a modelli
3D.
THX: Tom Holman's Experiments; sistema qualità della Lucasfilm;
copre tutti gli aspetti della produzione di un film, dalla pre-produzione
alla visione in sala.
Tilt: Panoramica verticale, ovvero rotazione della camera intorno
all’asse X.
Time Code: Codice di tempo. Numerazione progressiva dei
fotogrammi. Si tratta appunto di un riferimento numerico associato a
ciascun frame di una sequenza video mediante un apposito dispositivo
automatico incluso nei sistemi di videoregistrazione. Consente dunque
una precisa ricerca dei singoli elementi della sequenza e dunque facilita
le operazioni di montaggio.
Titoli di coda: elenco dei collaboratori secondari che non compaiono
nei titoli di testa.
Titoli di testa: elenco dei nomi della troupe.
Todd Ao System: sistema su grande schermo, in cui l'immagine è
impressa su pellicola da 65 mm a 5 perforazioni.
Track: Traccia; si dice talora anche di una funzione che, in computer
animation, consente lo scorrimento lineare del punto di vista lungo
l’asse Z, ovvero un tipo di ripresa virtuale simile a quella ottenuta
mediante carrello cinematografico (vedi Truck), la quale dunque implica
449
uno spostamento della camera nello spazio e un eventuale
“inseguimento” (to track, inseguire) del soggetto che compie l’azione.
Trackback: Carrellata all’indietro.
Trentacinque millimetri: formato cinematografico (della pellicola)
attualmente in uso.
Troupe: staff tecnico completo del film.
Truck: Carrello. Nel gergo cinematografico la carrellata è quel
particolare tipo di ripresa in cui la MdP scorre appunto su una rotaia e
dunque può spostarsi realmente in orizzontale nello spazio scenico
(anche mantenendo la stessa focale), a differenza della “zoomata” che
implica invece solo un cambiamento dell’angolo di campo.
Trucka (in gergo Truka o Truca): Sistema ottico-meccanico che
consente particolari trucchi ed effetti speciali cinematografici
(dissolvenze, fermo immagine, accelerazioni, rallentamenti, mascherini,
tendine, sovrimpressioni ecc.).
Tumble: Ribaltamento verticale (inversione tra l’alto e il basso) di un
Cutout.
Turn: Funzione che consente di curvare un angolo dello schermo
(effetto “voltapagina”).
U.N.A.C.: Unione Nazionale Autori e Cinetecnici.
Vistavision: sistema su grande schermo, in cui l'immagine impressa su
pellicola da 70 mm a 8 perforazioni, scorre orizzontalmente nella
macchina.
Widescreen: formato schermo studiato espressamente per la
televisore a schermo panoramico, con un rapporto tra base e altezza
dell'immagine di 16:9.
Wipe: Tendina, effetto di transizione che si può facilmente ottenere col
Mixer
Wireframe:
Rappresentazione
schematica
di
un
oggetto
tridimensionale mediante le sole linee dei contorni, ovvero della
costruzione geometrica (come se questo fosse, insomma, realizzato “a
fil di ferro”). Per evitare ben noti fenomeni di ambiguità percettiva è
possibile in genere escludere le linee che in una visione prospettica
reale di un oggetto opaco risulterebbero nascoste in quanto coperte
dalle superfici dell’oggetto poste in primo piano rispetto al nostro punto
d’osservazione (vedi Hidden Line Removal).
Yaw: Rotazione dell’oggetto attorno all’asse Y.
Zoom: Obiettivo a focale variabile con il quale è possibile appunto
variare l’angolo di campo e dunque i rapporti dimensionali all’interno
dell’inquadratura rispetto alla scena ripresa (pur restando fermi nella
medesima posizione e mantenendo la stessa distanza dal soggetto).
450
BIBLIOGRAFIA
IL CINEMA DELL'INGEGNO - E. Pasculli - Mazzotta - Milano - 1990
GLI EFFETTI SPECIALI DA COPPOLA A MÉLIÈS - S. Toni - Porretta
- Bologna - 1983
STORIA DEL CINEMA DI FANTASCIENZA - Claudia e Giovanni
Mongini - Fanucci Editore - Milano 2000
COMPUTER ANIMATION STORIES- NUOVI LINGUAGGI E
TECNICHE DEL CINEMA DI ANIMAZIONE - a cura di Ferruccio
Giromini e Maria Grazia Mattei - Ed. Mare Nero - Roma, 1998
GLI EFFETTI SPECIALI DA COPPOLA A MÉLIÈS - a cura di Sandro
Toni- 1983.
LA QUARTA ERA DELL’IMMAGINE IN MOVIMENTO - Carlo Lizzani
IL DISCORSO DELLE IMMAGINI - Carlo Lizzani - Marsilio-1995
VITA DA PIXEL-Giulietta Fara - Andrea Romeo- Ed. Il Castoro-2000
FUTURE FILM FESTIVAL - a cura di Giulietta Fara e Andrea RomeoEd. AndKronos -2000
LA SIMULAZIONE VISIVA - Gianfranco Bettetini-Ed.Fabbri -1991
OMBRE SINTETICHE. SAGGIO DI TEORIA DELL’IMMAGINE
ELETTRONICA - Fausto Colombo - Ed. Liguori -1995
NUOVE TECNOLOGIE DELLA COMUNICAZIONE -Bettetini
Gianfranco - Colombo Fausto - Ed.Bompiani,1993
Siti Internet
www.iht.it
www.dimmi.it
www.cinecitta.com
www.ina.fr
www.europa.eu.it
www.fabbricaimmaginario.com
www.asifaitalia.org
www.awn.com
www.cinema.it
www.geosities.com
www.cinestudio.it
www.filmup.com
www.anica.it
www.italway.it
www.intercity.it
www.luce.it
www.cinematografo.it
www.tempimoderni.com
www.visualfx.com
www.lucasfilm.com
451
www.caltanet.com
www.vfxh9.com
www.2discreet.com
www.videotecnica.it
www.uk.imdb.com
www.grafica.it
www.cgi.resource.com
www.digitale.it
www.3dartist.com
www.3dcafe.com
www.fly.com
www.3dmax.com
www.3dtotal.com
www.cinehall.it
www.areacom.it
www.newmedia.digitale.it
www.microsoft.it
www.3division.it
www.d.2.com
www.disney.com
www.duboi.com
www.pdi.com
www.20thfox.com
www.cecchigori.com
www.tippet.com
www.fxfaq.com
www.35millimetri.com
www.intercom.publinet.it
www.fub.it/telema.it
www.omeganet.it
www.jackson.it
www.cinefex.com
www.vfxpro.com
452
INTRODUZIONE ................................................................................... 1
CINEMA, TECNICA E TECNOLOGIA: ........................................................ 2
DALLA MECCANICA ALL’ELETTRONICA ................................................ 5
IL CINEMA DIGITALE ................................................................................. 7
ELABORAZIONE DIGITALE DELLA PELLICOLA ................................... 10
IL DIGITALE COME LINGUAGGIO........................................................... 11
IMMAGINI SINTETICHE ............................................................................ 14
IL NUOVO CONTESTO TECNOLOGICO.................................................. 16
LA COMUNICAZIONE TELEVISIVA ......................................................... 19
Il linguaggio videografico nelle sigle istituzionali...................................... 19
Graphic Design e Storyboarding ............................................................. 19
MARCHIO E LOGO AL CENTRO DELL'IMMAGINE COORDINATA ....... 24
Committenza e strategie progettuali........................................................ 24
IL LINGUAGGIO VIDEOGRAFICO ........................................................... 26
Gli stilemi dominanti................................................................................ 26
DECALOGO OPERATIVO ........................................................................ 30
INTRODUZIONE ALLA COMPUTERGRAFICA TRIDIMENSIONALE ...... 35
Le basi della tecnica ............................................................................... 35
Verso il fotorealismo ............................................................................... 37
L’EVOLUZIONE DELL’IMMAGINE DIGITALE .......................................... 38
II PARTE: Making of ................................................................................. 40
2001: A SPACE ODISSEY ........................................................................ 41
STAR TREK 2: THE WRATH OF KHAN ................................................... 45
TRON ........................................................................................................ 48
STAR WARS ............................................................................................. 50
La saga di Guerre Stellari ....................................................................... 50
THE ABYSS .............................................................................................. 53
TERMINATOR 2:JUDGMENT DAY........................................................... 55
JURASSIC PARK...................................................................................... 60
L’evoluzione della specie ........................................................................ 60
La costruzione dei modelli ...................................................................... 61
Gli strumenti proprietari ........................................................................... 63
I dettagli delle texture map ...................................................................... 65
L’illuminazione e il compositing ............................................................... 66
APOLLO 13 ............................................................................................... 69
JOHNNY MNEMONIC E VIRTUOSITY...................................................... 72
Un approccio multipiattaforma ................................................................ 72
Il PC emerge da dietro le quinte.............................................................. 73
453
La visione di William Gibson ................................................................... 74
La creazione di mondi virtuali.................................................................. 75
Computer che simulano se stessi ........................................................... 76
Post-produzione in tempo reale .............................................................. 76
SPECIES ................................................................................................... 83
WATERWORLD ........................................................................................ 88
101: DALMATIANS ................................................................................... 92
DRAGONHEART....................................................................................... 95
INDEPENDENCE DAY ............................................................................ 101
MARS ATTACKS! ................................................................................... 105
TWISTER................................................................................................. 111
Analisi di una scena .............................................................................. 112
RELIC ...................................................................................................... 115
SPACE JAM ............................................................................................ 120
Inseguire i movimenti ............................................................................ 121
STARSHIP TROOPERS .......................................................................... 124
TITANIC .................................................................................................. 129
ALIEN RESURRECTION......................................................................... 137
AN AMERICAN WEREWOLF IN PARIS ................................................. 140
MIGHTY JOE YOUNG ............................................................................. 143
I peli digitali della Dream Quest ............................................................ 144
I peli digitali della ILM............................................................................ 145
ARMAGEDDON ...................................................................................... 148
DEEP IMPACT ........................................................................................ 151
LOST IN SPACE ..................................................................................... 154
PLEASANTVILLE ................................................................................... 157
Problemi d’integrazione ........................................................................ 160
GUSTI E TENDENZE NELLA CG ........................................................... 163
WILD WILD WEST .................................................................................. 164
FIGHT CLUB ........................................................................................... 167
LAKE PLACID......................................................................................... 170
INSPECTOR GADGET ............................................................................ 173
THE MUMMY ........................................................................................... 176
Muovere la mummia ............................................................................. 179
L’arte della decomposizione.................................................................. 179
MATRIX ................................................................................................... 183
STAR TREK: INSURRECTION ............................................................... 189
Scene spaziali....................................................................................... 190
454
Texture inusuali .................................................................................... 192
La computergrafica in Star Trek ............................................................ 192
La trama si infittisce .............................................................................. 193
Effetti Speciali ....................................................................................... 194
Star Trek: live action ............................................................................. 195
STAR WARS: EPISODE I THE PHANTOM MENACE ............................ 199
Ambientazione e personaggi digitali...................................................... 205
Il Motion Capture .................................................................................. 208
MISSION TO MARS ................................................................................ 212
Il contributo della NASA ........................................................................ 212
Contributi digitali ................................................................................... 214
Tempesta di sabbia rossa ..................................................................... 215
I marziani siamo noi .............................................................................. 217
PARTE 3: CARTOONS ..................................................................... 220
L’ANIMAZIONE 2D ................................................................................. 221
Le Tecniche .......................................................................................... 221
Disegni Animati ..................................................................................... 221
Go-Motion ............................................................................................. 223
Silhouettes ............................................................................................ 224
Mosaico ................................................................................................ 224
Stop – Motion ....................................................................................... 224
Le immagini della CGI........................................................................... 225
CARTONI ANIMATI ELETTRONICI ........................................................ 227
Cartoombria .......................................................................................... 228
PARTE 4: MAKING OF ..................................................................... 230
THE ADVENTURES OF ANDRÉ AND WALLY B ................................... 231
LUXO Jr. ................................................................................................. 232
RED’S DREAM........................................................................................ 233
TIN TOY .................................................................................................. 234
TOY STORY ............................................................................................ 235
La troupe .............................................................................................. 236
Trama e Personaggi ............................................................................. 237
I dettagli ................................................................................................ 238
Ombreggiatura e texture ....................................................................... 240
Illuminazione ......................................................................................... 241
Rendering ............................................................................................. 241
Il processo di produzione ...................................................................... 241
La fabbrica delle invenzioni ................................................................... 243
LA PRINCIPESSA MONONOKE ............................................................. 245
L’integrazione della CG......................................................................... 246
ANTZ ....................................................................................................... 248
L’animazione facciale............................................................................ 255
Piccole folle .......................................................................................... 256
Grandi folle ........................................................................................... 258
455
BUG,S LIFE............................................................................................. 260
Modellazione e animazione................................................................... 263
La gestione delle folle ........................................................................... 263
L'acqua e il vento .................................................................................. 265
Un nuovo modello d'illuminazione ......................................................... 266
Texture dettagliate ................................................................................ 267
IL PRINCIPE D’EGITTO .......................................................................... 269
Dinamica dei fluidi ................................................................................. 271
TIGHTROPE ............................................................................................ 274
BUNNY .................................................................................................... 277
TARZAN .................................................................................................. 280
TOY STORY 2 ......................................................................................... 284
Angosce da giocattolo........................................................................... 285
L’elemento umano ................................................................................ 287
Effetti speciali ....................................................................................... 289
DINOSAUR.............................................................................................. 291
Una follia diventata realtà ..................................................................... 291
La ripresa degli sfondi ........................................................................... 292
Primi passi ............................................................................................ 293
L’animazione dei personaggi ................................................................ 293
Muscoli, peli e Hoids ............................................................................. 296
Effetti per dinosauri ............................................................................... 296
MOVIE STILLS .................................................................................. 298
THE LOST WORLD: JURASSIC PARK ........................................... 299
DRAGONHEART..................................................................................... 300
JUMANJII ................................................................................................ 301
TITANIC .................................................................................................. 302
MIGHTY JOE YOUNG ............................................................................. 303
THE MUMMY ........................................................................................... 304
MATRIX ................................................................................................... 305
STAR WARS:THE PHANTOM MENACE ................................................ 306
MISSION TO MARS ................................................................................ 307
TOY STORY 2 ......................................................................................... 308
BUG’S LIFE............................................................................................. 309
ANTZ ....................................................................................................... 310
DINOSAUR.............................................................................................. 311
PARTE 5: CASE DI PRODUZIONE......................................................... 313
INDUSTRIAL LIGHT & MAGIC ............................................................... 314
FILMOGRAFIA ..................................................................................... 315
456
DIGITAL DOMAIN ................................................................................... 320
FILMOGRAFIA ..................................................................................... 335
DREAM QUEST IMAGES ....................................................................... 336
FILMOGRAFIA ..................................................................................... 338
BLUSKY/VIFX ......................................................................................... 340
FILMOGRAFIA ..................................................................................... 341
DUBOI ..................................................................................................... 342
FILMOGRAFIA ..................................................................................... 344
IMAGEWORKS ....................................................................................... 346
FILMOGRAFIA ..................................................................................... 348
PIXAR...................................................................................................... 349
Gli inizi .................................................................................................. 349
Disney Relationship .............................................................................. 349
La tecnologia ........................................................................................ 350
Awards ................................................................................................. 350
Questione di metodo ............................................................................. 351
Le sedi .................................................................................................. 351
FILMOGRAFIA ..................................................................................... 352
STAN WINSTON ..................................................................................... 353
FILMOGRAFIA ..................................................................................... 354
TIPPET STUDIO...................................................................................... 356
FILMOGRAFIA ..................................................................................... 358
WALT DISNEY ........................................................................................ 359
PACIFIC DATA IMAGES ......................................................................... 362
FILMOGRAFIA ..................................................................................... 363
PARTE 6: LA SITUAZIONE EUROPEA ........................................... 364
COME MIGLIORARE LA COMPETITIVITÁ DEL SETTORE AUDIOVISIVO
EUROPEO ............................................................................................... 365
Il contesto generale: competere sul mercato globale ............................ 365
Il finanziamento della produzione ad opera della televisione ................. 367
Le misure di sostegno ........................................................................... 368
Fondi di finanziamento mediante titoli ................................................... 369
Una rete di scuole cinematografiche e televisive in Europa .................. 371
IL PROGRAMMA MEDIA ........................................................................ 373
RISULTATI DEL PROGRAMMA MEDIA II .............................................. 376
MEDIA PLUS........................................................................................... 377
Sostegno all’industria audiovisiva ......................................................... 378
IL DIGITALE IN ITALIA ........................................................................... 382
DIMMI ...................................................................................................... 385
LA FABBRICA DELL’IMMAGINARIO..................................................... 386
John Attard in Chinatown. ..................................................................... 387
FUTURE FILM FESTIVAL ....................................................................... 391
457
IL CINEMA ITALIANO SCOPRE GLI EFFETTI DIGITALI ....................... 395
NIRVANA ................................................................................................ 399
La storia ................................................................................................ 399
La lavorazione ...................................................................................... 401
Gli interventi di Digitalia ........................................................................ 401
Effetti speciali invisibili .......................................................................... 402
PARTE 7: LA RIVOLUZIONE DIGITALE ................................................ 404
DVB E LA COMPRESSIONE VIDEO DIGITALE ..................................... 405
L'immagine digitale ............................................................................... 405
Digital Video Broadcasting .................................................................... 405
Linee TV, pixel e campioni. ................................................................... 406
Dall’analogico al digitale 4.2.2............................................................... 407
Ridurre la quantità di dati ...................................................................... 407
MPEG-2, indispensabile per il DVB....................................................... 408
Il sistema MPEG-1 ................................................................................ 409
Il sistema MPEG-2 ................................................................................ 409
Livelli e profili dell’MPEG-2 ................................................................... 410
Transpoprt Stream (TS) ........................................................................ 410
PROIETTORI DIGITALI ........................................................................... 412
Proiettori DLP ....................................................................................... 414
LA TELEVISIONE STEREOSCOPICA .................................................... 415
La scena ha tre dimensioni ................................................................... 415
Lo schermo: un componente "passivo". ................................................ 416
Il display 3D diventa intelligente. ........................................................... 417
Verso la multimedialità. ......................................................................... 419
Realtà virtuale o virtualizzata? .............................................................. 419
Europa e Giappone: competizione o cooperazione? ............................. 420
Il contributo della Fub............................................................................ 421
TERZA DIMENSIONE DELL'IMMAGINE! ............................................... 424
Il suono digitale ..................................................................................... 424
Sistemi audio utilizzati nelle sale cinematografiche ............................... 424
Dolby Digital ......................................................................................... 425
SDDS – Sony Dynamic Digital Saund ................................................... 425
DTS –Digital Theater System:............................................................... 426
Cinema Dolby Digital EX....................................................................... 426
CERTIFICAZIONE DI IMPIANTI E QUALITÁ AUDIO NELLE SALE
CINEMATOGRAFICHE ........................................................................... 427
Il sistema THX per le sale cinematografiche. ........................................ 427
CSS-Cinema Sound System................................................................. 428
UN PERCORSO IN CERCA DI EFFETTI SPECIALI FRA GLI STRUMENTI
DELLA TECNOLOGIA DIGITALE ........................................................... 429
CONCLUSIONI ........................................................................................ 433
Il futuro del Cinema............................................................................... 433
IL CINEMA E IL SUO VOCABOLARIO ................................................... 435
BIBLIOGRAFIA ....................................................................................... 451
458
459