il sonoro nei videogiochi

Transcript

il sonoro nei videogiochi
CONSERVATORIO STATALE DI MUSICA “SANTA CECILIA”, ROMA
DIPLOMA SPERIMENTALE DI II LIVELLO IN
COMPOSIZIONE PER LA MUSICA APPLICATA
IL SONORO NEI VIDEOGIOCHI
CARATTERISTICHE, TECNICHE COMPOSITIVE
E UN ESEMPIO PRATICO
Relatore:
M˚ ANTONIO DI POFI
Candidato:
FRANCESCO DEL PIA
Matricola 1769 BN
ANNO ACCADEMICO 2013/2014
A Matilde, la mia famiglia, i miei Maestri
INDICE
i
Indice
I
Perché studiare il sonoro dei videogiochi
1 Il videogioco come mezzo di espressione
2
1.1
Interattività e iteratività . . . . . . . . . . . . . . . . . . . . . . . .
3
1.2
La sospensione dell’incredulità . . . . . . . . . . . . . . . . . . . .
4
1.3
Videogiochi come forma d’arte . . . . . . . . . . . . . . . . . . . .
6
1.3.1
8
L’esposizione al MoMA . . . . . . . . . . . . . . . . . . . .
2 Alcune difficoltà
13
2.1
La censura di alcuni titoli impegnati . . . . . . . . . . . . . . . . .
13
2.2
I titoli che presentano violenza . . . . . . . . . . . . . . . . . . . .
15
3 Il sonoro nei videogiochi
16
3.1
Il successo delle colonne sonore . . . . . . . . . . . . . . . . . . . .
17
3.2
Pubblicazioni, documentari, fiere e corsi . . . . . . . . . . . . . . .
20
3.3
La richiesta di compositori . . . . . . . . . . . . . . . . . . . . . . .
22
4 Conclusioni
II
2
25
L’audio dinamico
27
5 Sonoro interattivo e adattativo
27
6 Alcune difficoltà dell’audio dinamico
30
6.1
La durata del gameplay . . . . . . . . . . . . . . . . . . . . . . . .
31
6.2
L’affaticamento uditivo . . . . . . . . . . . . . . . . . . . . . . . . .
31
6.3
I giochi multiplayer . . . . . . . . . . . . . . . . . . . . . . . . . . .
32
7 Le categorie di interventi musicali
34
7.1
Interventi principali . . . . . . . . . . . . . . . . . . . . . . . . . .
34
7.2
Ambient tracks . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
34
7.3
Stinger
35
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
INDICE
ii
8 La non linearità nei videogiochi
35
8.1
La non linearità nell’audio . . . . . . . . . . . . . . . . . . . . . . .
37
8.2
Le transizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
8.2.1
I metodi tradizionali . . . . . . . . . . . . . . . . . . . . . .
39
8.2.2
L’utilizzo del MIDI nelle transizioni . . . . . . . . . . . . .
40
9 Dieci metodi di variazione nella musica dinamica
41
9.1
Variazioni di tempo . . . . . . . . . . . . . . . . . . . . . . . . . . .
42
9.2
Variazioni di pitch e trasposizioni . . . . . . . . . . . . . . . . . . .
42
9.3
Variazioni di ritmo e metrica . . . . . . . . . . . . . . . . . . . . .
43
9.4
Variazioni di volume . . . . . . . . . . . . . . . . . . . . . . . . . .
43
9.5
Variazioni di DSP
. . . . . . . . . . . . . . . . . . . . . . . . . . .
44
9.6
Variazioni di temi (generazione algoritmica) . . . . . . . . . . . . .
44
9.7
Variazioni di armonie . . . . . . . . . . . . . . . . . . . . . . . . . .
45
9.8
Variazioni di mix (layering) . . . . . . . . . . . . . . . . . . . . . .
46
9.9
Variazioni della forma (forma aperta)
. . . . . . . . . . . . . . . .
47
9.10 Variazioni della forma (matrici di transizioni) . . . . . . . . . . . .
49
9.11 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
51
III
Il team di sviluppo e i mezzi a disposizione
10 I ruoli nella divisione audio
53
53
10.1 Sound director . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
53
10.2 Compositore
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
54
10.3 Sound designer . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
54
10.4 Doppiatori e dialogue director . . . . . . . . . . . . . . . . . . . . .
54
10.5 Licensing directors . . . . . . . . . . . . . . . . . . . . . . . . . . .
54
10.6 Audio programmers . . . . . . . . . . . . . . . . . . . . . . . . . . .
55
11 Le funzionalità dell’audio engine
55
11.1 L’internal looping . . . . . . . . . . . . . . . . . . . . . . . . . . . .
55
11.2 Il sideways crossfade . . . . . . . . . . . . . . . . . . . . . . . . . .
56
11.3 Istruzioni beat-synchronous . . . . . . . . . . . . . . . . . . . . . .
56
11.4 L’effetto di ducking . . . . . . . . . . . . . . . . . . . . . . . . . . .
57
11.5 Il permutation weighting . . . . . . . . . . . . . . . . . . . . . . . .
57
INDICE
iii
12 La dipendenza dalla tecnologia
58
IV
Il processo di produzione
59
13 Premessa
59
14 Pre-produzione
60
14.1 L’audio design document . . . . . . . . . . . . . . . . . . . . . . . .
60
14.2 La creazione di una temp track . . . . . . . . . . . . . . . . . . . .
60
14.3 Il sonoro nel gameplay . . . . . . . . . . . . . . . . . . . . . . . . .
61
14.4 Spotting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
61
14.5 La cue list e la emotion map . . . . . . . . . . . . . . . . . . . . .
61
14.6 La progettazione del sound design
. . . . . . . . . . . . . . . . . .
63
14.7 La progettazione dei suoni d’ambiente . . . . . . . . . . . . . . . .
64
14.8 L’asset list finale . . . . . . . . . . . . . . . . . . . . . . . . . . . .
65
14.9 Considerazioni tecniche . . . . . . . . . . . . . . . . . . . . . . . .
65
14.10Tabella di marcia e preventivo
66
. . . . . . . . . . . . . . . . . . . .
15 Produzione
66
15.1 Composizione e registrazione . . . . . . . . . . . . . . . . . . . . .
66
15.2 La realizzazione del sound design . . . . . . . . . . . . . . . . . . .
67
15.3 L’utilizzo di DSP in tempo reale . . . . . . . . . . . . . . . . . . .
67
15.4 Dialoghi e voce fuori campo . . . . . . . . . . . . . . . . . . . . . .
68
15.5 Localizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71
15.6 L’integrazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
73
15.6.1 L’utilizzo di middleware per l’integrazione . . . . . . . . . .
74
15.7 Il posizionamento dei suoni nel panorama surround . . . . . . . . .
75
15.8 Il mastering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
77
16 Post-produzione
78
16.1 Il missaggio in tempo reale . . . . . . . . . . . . . . . . . . . . . .
79
16.2 La necessità di un audio engine intelligente . . . . . . . . . . . . .
81
17 Conclusioni
17.1 Una ridefinizione del concetto di “autore” . . . . . . . . . . . . . .
83
84
INDICE
V Un esempio pratico:
Drowning in Problems
iv
85
18 L’approccio da executive producer
85
19 Il gioco
86
20 Il porting
87
21 L’organizzazione del sonoro
88
21.1 L’utilizzo di Wwise . . . . . . . . . . . . . . . . . . . . . . . . . . .
88
21.2 Le musiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
89
21.2.1 Composizione . . . . . . . . . . . . . . . . . . . . . . . . . .
90
21.2.2 Il montaggio delle musiche in Wwise . . . . . . . . . . . . .
95
21.3 Gli effetti sonori . . . . . . . . . . . . . . . . . . . . . . . . . . . .
99
21.3.1 Il montaggio degli effetti sonori in Wwise . . . . . . . . . . 101
21.4 Missaggio e mastering . . . . . . . . . . . . . . . . . . . . . . . . . 102
21.4.1 Routing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
21.4.2 Effetti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
21.4.3 RTPC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
21.4.4 Missaggio dinamico . . . . . . . . . . . . . . . . . . . . . . . 104
21.4.5 Mastering . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
22 L’implementazione
106
23 Esportazione
107
24 Considerazioni finali
107
24.1 Considerazioni sullo sviluppo in Unity . . . . . . . . . . . . . . . . 107
24.2 Considerazioni sull’utilizzo di Wwise . . . . . . . . . . . . . . . . . 108
VI
Conclusioni
109
VII
Glossario
110
VIII
Bibliografia e sitografia
114
Premessa: l’utilizzo di termini inglesi
In questa analisi viene utilizzato un gran numero di termini in lingua inglese.
L’autore ha scelto di mantenerli in questa lingua in quanto sono ormai di uso
comune anche in Italia e spesso risultano difficilmente traducibili senza ricorrere ad approssimazioni. Ogni termine straniero è comunque corredato, alla
sua prima comparsa, da una nota di traduzione e spiegazione del significato
tecnico; in appendice è presente un glossario che elenca i termini di uso più
frequente.
2
Parte I
Perché studiare il sonoro dei
videogiochi
Questo elaborato si pone l’obiettivo di studiare il sonoro dei videogiochi sia
dal punto di vista compositivo e realizzativo, sia da quello informatico e
tecnologico. L’argomento può sembrare esotico, motivo per cui l’autore ha
sentito la necessità di chiarire, in questa prima parte, le ragioni che lo hanno
spinto ad affrontare una trattazione su tale soggetto. L’obiettivo di questa
introduzione è anche quello di fornire al lettore meno informato una panoramica sullo stato dell’industria dei videogiochi, per sfatare (se ce ne fosse il
bisogno) alcuni pregiudizi che, come vedremo, risultano radicati nella cultura
di massa e talvolta rischiano di ostacolare le possibilità espressive dei video
games.
1
Il videogioco come mezzo di espressione
Non penso che mi crederete quando dico che volevo realizzare un
film, e visto che il mio sogno non si è realizzato sono entrato nell’industria dei videogiochi. All’epoca c’era solo la pixel art 1 con
16 colori e suoni che facevano “bip”, i personaggi non avevano
un volto e non esisteva una narrazione. Ma ero convinto che un
giorno questo media sarebbe diventato simile al cinema, ed è per
questo motivo che ho continuato, ma non mi sarei mai aspettato
che il livello di espressione avrebbe raggiunto quello cinematografico cosı̀ in fretta. È stato un felice errore di valutazione per
me.
1
La pixel art è una forma d’arte digitale che prevede la realizzazione di un’immagine
attraverso l’inserimento manuale di ogni singolo pixel. A causa delle limitazioni imposte
dai dispositivi elettronici più datati, era una pratica obbligata nel processo di realizzazione
dei primi videogiochi.
1.1
Interattività e iteratività
3
Il primo e più importante argomento su cui è necessario richiamare l’attenzione è il fatto che il videogioco, come risulta chiaro dalle parole di Hideo
Kojima2 , sia a tutti gli effetti un nuovo mezzo d’espressione, cosı̀ come lo
sono il cinema, la letteratura, il teatro e via dicendo3 . A differenza però di
quanto accade per i sistemi narrativi classici, nei videogiochi il giocatore può
compiere attivamente delle scelte che lo fanno procedere secondo modalità di
percorso spesso multilineari.
1.1
Interattività e iteratività
L’interattività, intesa come la capacità dell’utente di modificare la propria
esperienza di gioco utilizzando i controlli a disposizione, è la caratteristica
principe di questo media, che lo rende differente e unico rispetto a tutti gli
altri mezzi di espressione che conosciamo. Questo comporta che ogni esperienza di gioco risulti differente non solo da giocatore a giocatore, ma anche
per il singolo utente che decide di giocare nuovamente un certo episodio per
rivivere l’esperienza, scoprire dettagli che aveva inizialmente tralasciato, collezionare nuovi oggetti, oppure semplicemente migliorare i propri risultati.
È questo il concetto di iteratività, ovvero di ripetizione con sperimentazione,
che rende il gioco una sorta di “dispositivo didattico, una macchina per imparare”4 , citando Matteo Bittanti5 . Come vedremo più avanti nel corso della
trattazione e in particolare nella sezione 17.1 a pagina 84, le caratteristiche di interattività e iteratività portano a riconsiderare il concetto di autore
2
Hideo Kojima (Tokyo, 1963) è un autore di videogiochi, scrittore e designer giapponese. Tra i videogiochi da lui realizzati spicca la saga di Metal Gear. È stato inoltre
vicepresidente della software house Konami, prima di abbandonarla per fondare la Kojima
Productions.
3
Si può riscontrare una speciale affinità con l’arte cinematografica in particolare: nel
corso della trattazione avremo modo di indagare i punti di contatto, cosı̀ come le differenze,
comparando gli aspetti storici, estetici, tecnici, narrativi, e ovviamente sonori.
4
Quest’ultima peculiarità è assimilabile allo studio di uno brano musicale, dove la
ripetizione consente all’esecutore di comprendere meglio il pezzo e di affinare la tecnica
necessaria per suonarlo correttamente.
5
Matteo Bittanti, anche noto come MBF (Milano, 1975), è uno scrittore, giornalista,
docente e ricercatore universitario italiano. È conosciuto soprattutto per i suoi saggi
riguardanti il mondo videoludico e per le sue rubriche in alcune riviste del settore e nei
siti internet, dove è soprannominato Il Filosofo.
1.2
La sospensione dell’incredulità
4
comprendendo in esso anche il ruolo del giocatore, sia a livello del gioco in
generale, sia a livello musicale, visto che anche il sonoro viene influenzato
dalle sue scelte. Per ora limitiamoci comunque a introdurre i principi basilari, per poter affrontare una simile discussione quando avremo più elementi a
nostra disposizione.
1.2
La sospensione dell’incredulità
Come accade ad esempio nel teatro e nell’opera, durante il gioco si ha una
sospensione dell’incredulità 6 . Nel teatro lo spettatore non ha alcun problema
ad accettare comportamenti innaturali che spesso sono necessari per la fruizione dell’opera stessa (come ad esempio il fatto che i personaggi, entrando
in scena, si dispongano in una fila orizzontale per essere visibili dal pubblico); allo stesso modo nei videogiochi il giocatore è consapevole di trovarsi
di fronte ad uno schermo, e nonostante questo si immerge in un’esperienza
ludica determinata dalle elaborazioni di una macchina elettronica.
Figura 1: Una scena di Uncharted 4: A Thief ’s End, Naughty Dog, 2015
Questa sospensione è sempre più facilitata dal crescente realismo con cui
gli elementi visivi e uditivi vengono rappresentati nei videogiochi. Le console
6
Il riferimento è alla suspension of disbelief di cui parla S.T. Coleridge nel 1817: si
tratta della volontà, da parte del lettore o dello spettatore o in questo caso del giocatore,
di sospendere le proprie facoltà critiche allo scopo di ignorare le incongruenze secondarie
e godere di un’opera di fantasia.
1.2
La sospensione dell’incredulità
5
attuali consentono agli sviluppatori di ricreare nei dettagli sia le ambientazioni più realistiche, sia i tratti somatici, le espressioni facciali (vedi figura 1)
e le movenze dei personaggi tramite tecniche come il motion capture 7 . L’esperienza di gioco diventerà ancora più immersiva negli anni a venire, con
l’affermazione e la diffusione di dispositivi per la realtà virtuale come, tra
gli altri, Oculus Rift8 (vedi figura 2). Se questo genere di dispositivi avrà
il successo che ci si aspetta9 (la stessa Sony sta lavorando ad un visore dal
nome in codice Project Morpheus che verrà distribuito come accessorio della
sua attuale console domestica, la PlayStation 4), anche il comparto audio
subirà profonde innovazioni e potrà godere di un maggiore grado di immersione grazie alle cuffie integrate nella periferica, che permetteranno l’utilizzo
dell’audio binaurale e altri sistemi di diffusione per localizzare precisamente
il sonoro nell’ambiente tridimensionale.
Figura 2: Il secondo prototipo di Oculus Rift (DK2, 2014)
7
Il motion capture è la registrazione del movimento del corpo umano o di altri movimenti. L’attore indossa un vestito ricoperto da alcuni marcatori, le cui coordinate vengono
costantemente inviate al computer grazie ad una serie di telecamere poste intorno a lui;
sul computer viene quindi visualizzata un’immagine stilizzata dell’attore che riproduce
digitalmente i suoi movimenti.
8
Oculus Rift è uno schermo da indossare sul viso (in inglese HMD, head-mounted display) per la realtà virtuale. Nel 2014 Oculus VR, la società che lo sviluppa, è stata
acquistata da Facebook.
9
La tecnologia attuale dovrebbe essere quasi pronta per la produzione di un simile
dispositivo. Non lo era di certo nel 1995, quando Nintendo produsse una console con
visore stereoscopico, il Virtual Boy, con esiti disastrosi: fu un totale fallimento, anche
perché l’uso prolungato poteva causare senso di fastidio e di nausea, convulsioni e disturbi
visivi.
1.3
1.3
Videogiochi come forma d’arte
6
Videogiochi come forma d’arte
Data anche la sua breve storia, definire il videogioco una nuova forma d’arte
è forse prematuro10 : la questione è fonte di accesi dibattiti che in questa sede
non verranno trattati in modo approfondito perché non inerenti all’argomento centrale11 . Certo è che questo dibattito ricorda quelle stesse discussioni che
accompagnarono i primi anni di storia della fotografia e del cinema, attualmente riconosciute unanimemente come arti, e non è un caso che entrambe
si basassero su innovazioni tecnologiche (rispettivamente la macchina fotografica e la cinepresa). Il riconoscimento del videogioco come espressione
artistica sembra ripercorrere la stessa strada, disseminata di scetticismi e
luoghi comuni su un mezzo che è sicuramente giovane ma che ha già saputo
ampiamente dimostrare le sue potenzialità. Certo è che per capirle e apprezzarle bisogna sapere quali titoli prendere in considerazione: non dobbiamo
dimenticare infatti che si tratta pur sempre di un’industria (cosı̀ ricca che
nel 2007 ha superato come volume d’affari quella musicale), e che in quanto tale è molto interessata al profitto dei suoi prodotti, talvolta a scapito
dell’originalità stilistica. Il paragone con il cinema si dimostra anche qui calzante: parallelamente ai titoli “commerciali” esiste anche un buon numero
di videogiochi d’autore, dove si può facilmente riconoscere l’impronta della
personalità del game designer.
Sono questi in particolare i titoli più interessanti dal punto di vista stilistico, perché si spingono talvolta in territori inesplorati, portando innovazioni
che ridefiniscono il concetto stesso di videogioco, allargandone gli orizzonti. Alle volte si tratta di titoli per i quali l’appellativo di “gioco” risulta
riduttivo e fuorviante: spesso infatti fanno riflettere più di quanto facciano
divertire, si basano sulla trama o sull’introspezione psicologica più di quanto
diano spazio all’azione. Di recente, ad esempio, sono usciti alcuni titoli che
aiutano il giocatore a gestire, riconoscere e combattere i propri problemi e
10
Alcuni rinomati siti statunitensi specializzati in tecnologia e video games come The
Verge e Polygon non hanno invece alcun dubbio a riguardo e considerano i videogiochi
una nuova forma d’arte a tutti gli effetti.
11
Per chi invece volesse approfondire, si rimanda alla documentata voce su Wikipedia
inglese Video games as an art form (en.wikipedia.org/wiki/Video games as an art form).
1.3
Videogiochi come forma d’arte
7
paure: Actual Sunlight (Will O’Neill, 2014) esplora il tema della depressione
e dell’istinto suicida, Neverending Nightmares (Infinitap Games, 2014) è un
gioco horror psicologico che tratta del disturbo ossessivo-compulsivo, l’italiano Sym (Atrax Games, 2015) riguarda l’ansia sociale, e lo stesso Drowning
in Problems (Markus Persson, 2014), di cui parleremo approfonditamente
nella parte V a pagina 85, affronta il tema della vita, della crescita e delle
delusioni.
Figura 3: La copertina di Ico (2001) di Fumito Ueda con Team Ico
Come nel cinema ci sono autori del calibro di Woody Allen, Alfred Hitchcock, Stanley Kubrick, Francis Ford Coppola, Wes Anderson, Ridley Scott
(per citarne una minima parte), nei videogiochi troviamo dei nuovi pionieri di un tipo diverso di esperienza, che unisce agli aspetti grafici e sonori
quelli dell’interazione, in Fumito Ueda (vedi figura 3), Jenova Chen, Hideo Kojima, Markus Persson, Peter Molyneux, Shigeru Miyamoto, Jonathan
Blow, Phil Fish, Sid Meier, Yu Suzuki, Tim Schafer, Atsushi Inaba, Hironobu Sakaguchi12 e in una serie di autori minori e indipendenti, ancora poco
12
Hironobu Sakaguchi (Hitachi, Giappone, 1962) è un autore di videogiochi e regista
giapponese. È famoso per aver creato la serie di videogiochi Final Fantasy, di cui ha
curato i primi dieci capitoli. Nel 2004 ha fondato la compagnia di sviluppo Mistwalker.
1.3
Videogiochi come forma d’arte
8
conosciuti, che stanno rivoluzionando il mercato con le loro idee innovative e
sperimentali.
Non penso di essere bravo a creare giochi d’azione. Preferisco
narrare storie.
Hironobu Sakaguchi, da Beyond Final Fantasy, 2002
Alcune importanti istituzioni negli ultimi anni hanno preso consapevolezza del ruolo che possono ricoprire i video games nel campo dell’arte e del
design, riconoscendo loro un forte valore culturale e sociale. L’esposizione al
MoMA è sicuramente l’avvenimento che in tempi recenti ha fatto più parlare
di sè, data l’importanza del museo e le controversie sull’argomento.
1.3.1
L’esposizione al MoMA
Nel 2012 Paola Antonelli13 ha acquisito 14 videogiochi per esporli nell’ala
dedicata ad Architettura e Design del MoMA. La sua decisione, nonostante
non fosse la prima di questo tipo (già dalla fine degli anni ‘80 alcuni musei
ospitavano retrospettive sui videogiochi14 ), ha causato, com’era prevedibile,
una lunga serie di polemiche. Alcuni detrattori sostenevano che i giochi
non avrebbero mai potuto essere arte perché erano qualcos’altro: righe di
codice15 . Antonelli ha replicato alle accuse dicendo che le premesse erano
sbagliate:
C’è questo problema che riguarda il design, che viene spesso confuso con l’arte, o l’idea che i designer vorrebbero essere considerati
artisti. No. I designer aspirano soltanto ad essere grandi designer.
13
Paola Antonelli (Sassari, 1963) è una designer e architetto italiana, curatrice del Dipartimento di Architettura e Design e direttrice di Ricerca e Sviluppo presso il Museum
of Modern Art (MoMA) di New York. Secondo la rivista Art Review è una delle cento
persone più potenti del mondo dell’arte.
14
Un esempio è l’esposizione del 1989 Hot Circuits: A Video Arcade presso il Museum
of the Moving Image di New York.
15
Questa osservazione è senza dubbio profondamente ingenua, perché giudica il mezzo
e non il risultato ottenuto: sarebbe come dire che il cinema non può essere arte perché si
tratta soltanto di pellicola, o che la letteratura sia meramente inchiostro su carta.
1.3
Videogiochi come forma d’arte
9
La collezione comprende titoli molto conosciuti come Pac-Man (1980), Tetris
(1984, vedi figura 4) e The Sims (2000) cosı̀ come giochi meno popolari tra
i non addetti ai lavori16 . Questi titoli rappresentano il nucleo iniziale di una
collezione che andrà espandendosi negli anni a venire. Sono stati scelti in
quanto esempi eccezionali di interaction design, un campo che il MoMA ha
già largamente esplorato, e una delle più importanti e discusse espressioni di
creatività nel design di oggi. I criteri di scelta si basano non solo sull’esperienza visuale ed estetica del gioco, ma anche su altri aspetti - dall’eleganza
del codice al design del comportamento del giocatore - che appartengono tipicamente al campo dell’interaction design. Cosı̀ come accade per tutti gli
altri oggetti di design esposti al MoMA (dai poster alle sedie, dalle auto ai
caratteri tipografici), i curatori cercano una combinazione di rilevanza storica
e culturale, espressione estetica, validità funzionale e strutturale, un approccio innovativo alla tecnologia e al comportamento, e una sintesi riuscita di
materiali e tecniche per raggiungere il risultato inizialmente preposto. Queste considerazioni sono valide sia che si stia parlando di uno sgabello o di
un elicottero, sia che l’oggetto in questione sia invece un videogioco, in cui il
linguaggio di programmazione prende il posto del materiale costruttivo, e la
qualità dell’interazione rappresenta nel contesto digitale ciò che la sintesi di
forma e funzione rappresenta in quello fisico.
Nella scelta dei titoli da acquisire, Antonelli e il MoMA lavorano con video
game designer e accademici su quattro criteri fondamentali: comportamento,
spazio, estetica e tempo.
• il comportamento. Le sceneggiature, le regole, gli stimoli, gli incentivi e la narrazione prendono vita nei comportamenti che questi
incoraggiano e suggeriscono al giocatore, che può effettuare delle scelte
attraverso l’uso di un controller17 . Un videogioco con un preciso sco16
Oltre ai tre titoli citati, gli altri attualmente acquisiti dal MoMA sono Another World
(1991), Myst (1993), SimCity 2000 (1994), vib-ribbon (1999), Katamari Damacy (2004),
EVE Online (2003), Dwarf Fortress (2006), Portal (2007), flOw (2006), Passage (2008),
Canabalt (2009), Pong (1972), Space Invaders (1978), Asteroids (1979), Tempest (1981),
Yar’s Revenge (1982) e Minecraft (2011). A questi si aggiunge la console Magnavox
Odyssey (1972).
17
Il controller è un dispositivo plug-in per sistemi di intrattenimento, usato per fornire
1.3
Videogiochi come forma d’arte
10
Figura 4: Tetris (1984) di Aleksej Pažitnov
po può servire ad istruire ed educare, indurre emozioni, provare nuove
esperienze, immaginare un mondo alternativo.
• l’estetica. L’intenzione visiva è un aspetto importante, specialmente
quando si tratta di effettuare una selezione per la collezione di un museo. Come in altre forme di design, l’eleganza formale ha manifestazioni
differenti che variano in base alla tecnologia a disposizione. La grazia
asciutta e pixelata 18 di giochi datati come M.U.L.E. e Tempest può
essere quindi posta sullo stesso livello e comparata con la fluidità dei
più recenti flOw (vedi figura 5) e vib-ribbon. Proprio come nel mondo
reale, i designer particolarmente inventivi e innovativi eccellono nell’utilizzare le limitazioni della tecnologia per accrescere l’identità di un
gioco.
l’input in un videogioco. È tipicamente connesso a una console o a un computer da un
cavo o da una connessione senza fili. La funzione principale di un controller è di governare
un movimento/azione di un corpo/oggetto giocabile o comunque influenzato da eventi in
un videogioco.
18
Immagine digitale che assume un aspetto quadrettato.
1.3
Videogiochi come forma d’arte
11
Figura 5: flOw (2006) di thatgamecompany
• lo spazio. Lo spazio in cui un gioco esiste e si evolve - costruito con
righe di codice piuttosto che con mattoni e malta - è un’architettura pianificata e costruita in base a un programma preciso, che talvolta spinge
la tecnologia ai suoi limiti per creare nuovi livelli di libertà espressiva e
dimensionale. Cosı̀ come nella realtà, questo spazio può essere occupato individualmente o in gruppi. A differenza delle costruzioni fisiche,
invece, i videogiochi possono definire nuove logiche spaziali e gravitazionali, fornendo inedite esperienze come il teletrasporto (ad esempio
in Portal ) e l’ubiquità.
• il tempo. L’interaction design è per sua natura dinamico, e il modo in
cui la dimensione del tempo è espressa nel gioco è una scelta cruciale.
L’esperienza di gioco può durare cinque minuti (come in Passage, vedi
figura 6) o diversi anni, come in Dwarf Fortress. Il tempo nel gioco
può scorrere come nella realtà oppure ad una velocità diversa (come in
Animal Crossing).
Figura 6: Passage (2007) di Jason Rohrer
1.3
Videogiochi come forma d’arte
12
Il primo passo per la conservazione di questi giochi è stato quello di ottenere delle copie nel loro supporto originale (cartucce o dischi) e l’hardware dove
poterli eseguire (console o computer) quando possibile. Per poter preservare
i giochi, il MoMA cerca anche di acquisire il codice sorgente nel linguaggio
in cui era stato originariamente scritto, in modo che possa essere traducibile
nel caso in cui la tecnologia originaria diventasse obsoleta. Oltre a questo, il
MoMA richiede anche la documentazione tecnica e possibilmente gli appunti
del programmatore sul codice. Programmare è infatti un processo creativo
e personale: intervistare i designer e chiedere loro commenti e note sul loro
lavoro rende la conservazione e la futura emulazione più semplici, fornendo
al tempo stesso materiale per la mostra e per future ricerche sull’argomento.
È piuttosto avvilente constatare come tra i parametri guida del MoMA
nell’acquisizione dei titoli non venga preso in considerazione - anzi, non venga
nemmeno citato - tutto ciò che ha a che fare con l’audio. Come dimostreremo in questa trattazione, non mancano di certo esempi di videogiochi in
cui l’aspetto sonoro ricopre un ruolo fondamentale per la buona riuscita del
prodotto, e spesso anzi influisce e determina il comportamento del giocatore
diventando un elemento alla base del gameplay 19 . Questa “leggerezza” del
MoMA è inaccettabile al punto da mettere in dubbio i criteri logici di scelta
dei titoli e soprattutto l’onestà intellettuale alla base dell’operazione stessa,
in quanto evidenzia una certa superficialità sull’argomento. Sicuramente il riconoscimento dei videogiochi da parte di un’istituzione del calibro del MoMA
è un passo di fondamentale importanza, ma c’è da chiedersi quanto questa
operazione sia effettivamente sincera e quanto sia invece motivata da fini
sensazionalistici e pubblicitari. Come abbiamo riportato nell’introduzione al
capitolo, infatti, l’apertura della mostra ha generato numerose polemiche facendo parlare molto di sè. Nonostante sia legittimo avere dei dubbi su questa
operazione, si tratta comunque di un grosso passo in avanti verso una presa
di coscienza collettiva sull’importanza e il valore che ricoprono i videogiochi
nel panorama artistico contemporaneo.
19
Con il termine gameplay si intende, in senso generico, l’esperienza di gioco.
2 Alcune difficoltà
2
13
Alcune difficoltà
Nonostante il riconoscimento del valore che possono avere i videogiochi da
parte di un’istituzione cosı̀ importante e il crescente interesse del pubblico a
guardare con occhio diverso il panorama videoludico, alcuni titoli non hanno
sempre vita facile.
2.1
La censura di alcuni titoli impegnati
È il caso della censura. Apple, una società che come vedremo approfonditamente nella sezione 3.3 ha avuto e sta avendo un’importanza cruciale nel
mercato di un certo tipo di applicazioni e giochi, ha delle linee guida piuttosto restrittive e limitanti alle quali gli sviluppatori devono sottostare previa
l’approvazione del loro prodotto per la distribuzione nel suo App Store:
Guardiamo alle App in modo differente rispetto ai libri o alle
canzoni, che non curiamo. Se hai intenzione di criticare una religione, scrivi un libro. Se vuoi parlare di sesso, scrivi un libro o
una canzone, oppure crea una App medica. Può risultare complicato, ma abbiamo deciso di non consentire alcuni tipi di contenuti
nell’App Store.
da App Store Review Guidelines
Dal punto di vista legale, Apple ha il diritto di escudere ciò che vuole dal
suo negozio perché si tratta di una piattaforma privata, ma dicendo agli
sviluppatori che non possono trattare certi argomenti limita fortemente la
libertà di espressione di questo mezzo, negandogli le possibilità di cui invece
godono, tra gli altri, libri e canzoni.
A causa di queste imposizioni, alcuni titoli impegnati che trattano di soggetti controversi come la guerra civile in Siria20 o i suicidi alla Foxconn21 non
sono stati approvati e hanno fatto sorgere importanti domande sul ruolo dei
videogiochi, che in questi casi non era solo intrattenimento ma anche sensibilizzazione e informazione del pubblico in maniera diversa dal consueto. Gli
20
21
Endgame: Syria (GameTheNews, 2012).
In a Permanent Save State (Benjamin Poynter, 2012).
2.1
La censura di alcuni titoli impegnati
14
sviluppatori dei due titoli in questione sostengono che questi rifiuti siano un
modo per negare ai videogiochi lo status culturale di media capace di affrontare anche argomenti seri ed impegnati, e sono fortemente convinti che la
situazione debba cambiare. Tomas Rawlings, il creatore di Syria: Endgame,
sostiene che “Il tipo di media dovrebbe essere irrilevante, è il contenuto che
conta”. Jonathan Blow22 sostiene che la colpa sia da imputare agli sviluppatori superficiali: “Se avessimo costruito un mondo dove i video games hanno a
che fare costantemente con argomenti impegnati in un modo che interessa alla gente, Apple non potrebbe prendere questa posizione, perché non avrebbe
alcun senso. [Apple tratta i videogiochi come] esperienze di intrattenimento
commerciali e superficiali”. L’argomentazione di Blow punta implicitamente il dito anche contro i cosiddetti giochi AAA23 , che nonostante i budget
stellari di cui possono usufruire si basano spesso su meccaniche di gioco già
ampiamente collaudate e falliscono nel creare un prodotto innovativo o con
aspirazioni artistiche.
Anche se altri distributori agiscono con politiche differenti e ben più permissive (vedi ad esempio Google), Apple ha un enorme potere sul mercato, e
la sua decisione di non consentire giochi controversi porta a delle conseguenze nelle scelte degli sviluppatori, visto che vengono loro negate di partenza
importanti possibilità espressive. I piccoli sviluppatori in cerca di successo
puntano spesso sul mercato mobile 24 , e la censura di Apple rischia di creare
un ecosistema di applicazioni molto simili tra loro (se non proprio cloni) e
frivole, dove la vera innovazione non è consentita. Da un certo punto di vista,
Apple sta negando ai videogiochi la possibilità di evolversi e di essere riconosciuti, facendo diventare il mondo dei video games non quello che avrebbe
potuto essere, ma quello che in molti si aspettano che sia.
22
Jonathan Blow (1971) è un video game designer indipendente americano. È conosciuto
soprattutto per aver creato Braid nel 2008: il titolo è stato accolto con recensioni entusiastiche ed ha avuto molto successo, contribuendo a formare e definire la nuova corrente
indie dei videogiochi. La sua storia personale è raccontata nel documentario Indie Game:
The Movie (James Swirsky e Lisanne Pajot, 2012).
23
I giochi AAA (triple A in inglese) sono quelli con i budget più alti per lo sviluppo e
la promozione. Si tratta quindi, nella maggior parte dei casi, di giochi molto curati sotto
l’aspetto tecnico e con alte prospettive di vendita.
24
Per videogiochi mobile si intendono quei titoli destinati alle console portatili o, come
in questo caso, agli smartphone.
2.2
2.2
I titoli che presentano violenza
15
I titoli che presentano violenza
Questa analisi sarebbe però parziale se non considerassimo l’altro lato della
medaglia, ovvero come deve comportarsi la censura di fronte a titoli espressamente violenti. Hatred (Destructive Creations, 2015) ad esempio è un
videogioco che ha fatto molto parlare di sè negli ultimi mesi per la sua estrema brutalità. La meccanica di gioco è semplice: il giocatore controlla un
assassino che odia l’umanità e deve uccidere quante più persone possibile.
Il mio nome non è importante. Ciò che è importante è quello che
sto per fare. . . Odio profondamente questo mondo. E gli uominivermi che banchettano sulla sua carcassa. Tutta la mia vita è
soltanto odio, freddo e amaro. E ho sempre voluto morire in
modo violento. Questo è il momento della vendetta e nessuna vita
merita di essere risparmiata. Ucciderò quanta più gente possibile.
È tempo di uccidere. Ed è tempo che io muoia. La mia crociata
di genocidio comincia qui.
Stando alle parole dei suoi sviluppatori, Hatred vuole porsi in controtendenza rispetto alle caratteristiche diffuse in molti giochi usciti negli ultimi
anni, che spesso sono votati all’educazione, presentano colori sereni, sono
politically correct o aspirano ad essere una forma d’arte. Su Steam Greenlight 25 il gioco era stato rimosso da Valve stessa, per essere reinserito poco
dopo. Il 29 dicembre 2014 gli utenti, attraverso il loro voto, hanno acconsentito alla distribuzione del titolo nel negozio di Steam 26 (uscirà nel secondo
quadrimestre del 2015). Il video game ha generato un acceso dibattito tra i
giocatori: le due posizioni principali vedono opporsi chi è contrario a un gioco
cosı̀ ingiustificatamente violento, che potrebbe turbare i giocatori o istigare
all’emulazione (oltre a essere di cattivo gusto), e chi invece sostiene che titoli
di questo tipo esistono da sempre (su Steam stesso, vedi ad esempio Postal 27 )
25
Steam Greenlight è un sistema che permette agli utenti di Steam, una popolare piattaforma di distribuzione di videogiochi su computer sviluppata da Valve Corporation, di
votare per decidere quali titoli meritino di essere aggiunti al catalogo.
26
Vedi nota 25.
27
In Postal (Running With Scissors, 1997) il giocatore impersona un normale cittadino
improvvisamente impazzito che decide di uccidere chiunque gli capiti a tiro.
3 Il sonoro nei videogiochi
16
e che Hatred deve essere inteso come una forma di protesta degli sviluppatori
e come un mezzo di sfogo per il videogiocatore. In questo caso Valve, dopo
aver inizialmente respinto il gioco, ha deciso di lasciare agli utenti di Steam
il compito di decidere se il titolo meriti di essere distribuito attraverso le
votazioni su Greenlight, il servizio creato appositamente per promuovere o
meno i giochi degli sviluppatori più piccoli.
Questioni di questo genere sono all’ordine del giorno a causa di due principali fattori. In primo luogo, come abbiamo ampiamente discusso, i videogiochi hanno una caratteristica immersiva unica che permette al giocatore di
immedesimarsi nel personaggio molto più di quanto accada con un libro o
un film, in quanto sono le sue azioni a determinare ciò che succede nell’avventura. In secondo luogo, il pubblico dei videogiochi è mediamente molto
giovane, e nonostante ogni gioco abbia un’indicazione del target di età a cui
è rivolto (in Europa è diffuso il sistema PEGI28 ) nella maggior parte degli
stati questo non è imponibile per legge29 . Le conseguenze dei videogiochi
sul comportamento degli utenti sono un argomento di ricerca e discussione
estremamente importante e sentito, oggetto di numerosi studi. Vista la complessità e la vastità dell’argomento si è scelto di non entrare nello specifico
in questa trattazione30 .
3
Il sonoro nei videogiochi
Dopo una necessaria panoramica sullo stato dei videogiochi, le loro caratteristiche, potenzialità e limiti, questa parte introduce l’argomento centrale
28
Il Pan European Game Information (PEGI) è il metodo di classificazione valido su
tutto il territorio europeo usato per classificare i videogiochi attraverso cinque categorie
di età (3, 7, 12, 16 e 18 anni) e otto descrizioni di contenuto (turpiloquio, sesso/nudità,
discriminazione, violenza, droga, gioco d’azzardo, paura, gioco in rete). È in uso da aprile
2003.
29
In Europa fanno eccezione Finlandia, Norvegia, Paesi Bassi, Regno Unito e
parzialmente l’Austria.
30
Per chi volesse approfondire l’argomento, si consiglia la lettura dell’articolo aneddotico su Wikipedia italiana Controversie nei videogiochi
(it.wikipedia.org/wiki/Controversie nei videogiochi) e soprattutto di quello su Wikipedia
inglese Video game controversies (en.wikipedia.org/wiki/Video game controversies),
quest’ultimo molto dettagliato e con una ricca bibliografia.
3.1
Il successo delle colonne sonore
17
della trattazione, ovvero il sonoro dei videogiochi con particolare attenzione
alla musica.
3.1
Il successo delle colonne sonore
[. . . ] una cosa sembra essere chiara oggi: la musica per videogiochi è diventata popolare. Anche se ha soltanto eguagliato o, alle volte, superato - la qualità della musica offerta da altre
industrie dell’intrattenimento, è difficile negare la crescita della
popolarità della musica per videogiochi, la sua portata globale e
la sua influenza culturale. Questo è stato dimostrato più volte
dai dati di vendita delle colonne sonore, dai concerti che hanno
registrato il tutto esaurito (come Video Games Live e di recente
Symphonic Legends London con la London Symphony Orchestra
al Barbican31 ) e [. . . ] dal recente ingresso delle colonne sonore
per video games nella Hall of Fame di Classic FM.
L’opinione di James Hannigan, espressa in James Hannigan on video
game music: is it art? Part 1, è incontrovertibile. La musica per videogiochi
è diventata cosı̀ popolare che un artista del calibro di Paul McCartney ha
recentemente scritto a titolo gratuito la canzone Hope For The Future per
i titoli di coda di Destiny (Bungie, 2014), successivamente rilasciata come
singolo.
Quando devi scrivere qualcosa come Hope For The Future, che
è un brano fatto su misura, è come se facessi un ritratto per
qualcuno. Devi usare la tua immaginazione e capire di cosa hanno
bisogno, che cosa vorranno e cosa tu vuoi dar loro. A quel punto
devi mettere insieme quelle tre cose in un prodotto che mantenga
una sua integrità.
Paul McCartney
31
Il Barbican Centre è il più grande centro teatrale d’Europa. Situato a nord della City
of London, il complesso ospita concerti di musica classica e contemporanea, spettacoli
teatrali, mostre d’arte e sale cinematografiche. La London Symphony Orchestra e la BBC
Symphony Orchestra hanno la loro sede presso l’auditorium del Barbican Centre.
3.1
Il successo delle colonne sonore
18
L’ex dei Beatles non è l’unico grande compositore che ha scritto musica per
videogiochi. Tra gli altri, troviamo Michael Giacchino32 (ha lavorato a quasi
30 videogiochi, e in particolare alle serie Medal of Honor e Call of Duty),
Hans Zimmer33 (Call of Duty: Modern Warfare 2 e Crysis 2 ) e Gustavo
Santaolalla34 (il pluripremiato The Last of Us di Naughty Dog, 2013).
Uno degli esempi più significativi del successo che può avere la musica
per videogiochi è l’evocativa colonna sonora scritta da Austin Wintory per
Journey (thatgamecompany, 2012), che ha raggiunto la top 10 della classifica
delle colonne sonore di iTunes in più di 20 paesi e la posizione 116 nelle vendite
di Billboard.
Oltre al successo di vendita delle colonne sonore, sono numerosissime le
tournée di concerti orchestrali in tutto il mondo in cui vengono eseguite musiche tratte da diversi videogiochi, spesso raccogliendo un ottimo riscontro di
pubblico. Tra queste le più importanti sono Video Games Live (dal 2005),
PLAY! A Video Game Symphony (dal 2006) e Symphonic Game Music Concerts (dal 2003). Parallelamente a questi eventi, sono numerosi anche i concerti dedicati a serie di videogiochi specifici come ad esempio The Legend of
Zelda (The Legend of Zelda: Symphony of the Goddesses, dal 2012) e soprattutto Final Fantasy (per nominarne solo alcuni, Tour de Japon: Music from
Final Fantasy, Dear Friends - Music From Final Fantasy e More Friends:
Music from Final Fantasy, Distant Worlds: Music from Final Fantasy, Final
Symphony 35 ).
32
Michael Giacchino (Riverside, New Jersey, 1967) è un compositore statunitense conosciuto soprattutto per le sue colonne sonore cinematografiche e televisive. Tra i suoi
lavori più importanti si ricordano le musiche della serie Lost (2004 - 2010) e di molti film
della Pixar, tra cui Up (2009) grazie al quale si è aggiudicato il premio Oscar alla miglior
colonna sonora.
33
Hans Zimmer (Francoforte sul Meno, 12 settembre 1957) è un musicista e compositore
tedesco. Ha realizzato le musiche per oltre 150 film, tra cui Il gladiatore, il ciclo dei Pirati
dei Caraibi, Batman Begins e Inception. Nel 1995 ha vinto l’Oscar per la colonna sonora
de Il re leone.
34
Gustavo Alfredo Santaolalla (El Palomar, 19 agosto 1952) è un compositore argentino, due volte vincitore dell’Oscar alla migliore colonna sonora: nel 2006 per I segreti di
Brokeback Mountain e nel 2007 per Babel.
35
Per una lista completa dei concerti dedicati alle musiche dei Final Fantasy, si consulti
la pagina Wikipedia en.wikipedia.org/wiki/Final Fantasy concerts.
3.1
Il successo delle colonne sonore
19
Figura 7: La copertina della colonna sonora di Journey
Dal punto di vista radiofonico, l’emittente inglese Classic FM, dedicata principalmente alla trasmissione di musica classica, da diverso tempo si
interessa anche di musica per videogiochi, e oltre a trasmetterla sulle sue
frequenze ha recentemente sponsorizzato l’evento Game Music Connect a
Londra.
Il riconoscimento dell’importanza della musica per videogiochi viene anche dai numerosi premi che vengono conferiti alle colonne sonore dei migliori
titoli dell’anno. Oltre ai premi espressamente dedicati al mondo dell’intrattenimento videoludico come gli Spike Video Game Awards (organizzati a
partire dal 2003), numerose manifestazioni originariamente dedite alla premiazione di prodotti cinematografici e televisivi o espressamente musicali si
sono riadattate per includere anche i videogiochi più meritevoli. Tra queste
citiamo i Grammy Awards, che dedicano quattro premi alle colonne sonore
per video games, e i BAFTA (British Academy of Film and Television Arts)
che dal 2003 hanno istituito la sezione BAFTA Games Awards.
3.2
3.2
Pubblicazioni, documentari, fiere e corsi
20
Pubblicazioni, documentari, fiere e corsi
Dal punto di vista accademico, il sonoro dei videogiochi è sempre più studiato
e le pubblicazioni a riguardo stanno considerevolmente aumentando (quantomeno quelle in lingua inglese). Alcune importanti pubblicazioni sono The
Complete Guide to Game Audio di Aaron Marks (2009) e Creating Music
and Sound for Games di G.W. Childs IV (2007). È di particolare importanza il lavoro svolto da una delle più importanti studiose dell’argomento,
Karen Collins, titolare della cattedra di ricerca in Interactive Audio presso
l’università di Waterloo, Canada. I suoi due libri, Game Sound del 2008 e
Playing with Sound del 2013 sono dei capisaldi il cui studio è imprescindibile
per poter capire e affrontare l’argomento.
La ricercatrice è ora impegnata nella realizzazione di un ambizioso lungometraggio, corredato da dei video aggiuntivi su YouTube e da un libro,
dal titolo Beep: A History of Game Sound. Il progetto è stato finanziato
a settembre 2014 con circa 60.000 dollari canadesi raccolti attraverso una
campagna su Kickstarter36 . Il documentario raccoglierà le testimonianze di
un centinaio di compositori, sound designer e ingegneri del suono che hanno
fatto la storia della musica dei videogiochi, a partire dai primi cabinati per
arrivare alle orchestre di oggi.
Beep non è l’unico progetto di questo tipo: Diggin’ In The Carts (Red
Bull Music Academy, 2014) è un documentario in sei episodi distribuito su
YouTube che racconta la storia poco conosciuta della “musica più influente
mai scritta in Giappone”.
Il Giappone è una nazione che ha influenzato il mondo in molti
modi, dal cibo alla tecnologia ai contributi alla cultura pop, come
ad esempio i videogiochi. Per molti di noi, la musica dei videogiochi suonava nelle nostre case mentre crescevamo più spesso di
tutte le altre forme musicali dell’epoca. Ma per la maggior parte
di noi i compositori dietro queste melodie senza tempo non hanno
un volto. Diggin’ In The Carts vuole portare alla luce gli uomini
36
Kickstarter è un sito web di finanziamento collettivo per progetti creativi. Tramite
esso sono stati finanziati diversi tipi di imprese, tra cui film indipendenti, musica, spettacoli
teatrali, fumetti, giornalismo, videogame e imprese legate all’alimentazione.
3.2
Pubblicazioni, documentari, fiere e corsi
21
e le donne che hanno ispirato un’intera generazione creando probabilmente il più grande export musicale del Giappone verso il
mondo.
Oltre alle interviste ai protagonisti della musica per videogiochi giapponese
come Hirokazu Tanaka e Nobuo Uematsu, i video raccolgono le testimonianze
di artisti contemporanei come Flying Lotus, Dizzee Rascal e Fatima Al Qadiri, il cui percorso stilistico è stato fortemente influenzato dall’aver giocato
a questi titoli durante la loro infanzia e adolescenza e aver quindi assorbito
e fatto proprio quel genere compositivo.
Un altro elemento che ben testimonia la crescente attenzione dedicata
a questo settore è la presenza di fiere di richiamo internazionale sull’argomento. Le due più importanti sono GameSoundCon a Los Angeles (giunta
ormai alla decima edizione) e Game Music Connect a Londra (più recente,
nel 2014 si è svolta la seconda edizione raccogliendo il doppio dei partecipanti rispetto all’anno precedente); durante questi eventi vengono intervistati
diversi protagonisti della scena contemporanea della musica per videogiochi
(soprattutto compositori, ma anche sound directors e audio programmers37 ),
si tengono dibattiti con il pubblico partecipante, vengono impartite lezioni
teoriche sull’argomento e workshop sui software più utilizzati (tra gli altri,
FMOD Studio e Wwise).
Queste fiere testimoniano come la musica per videogiochi abbia esigenze
molto specifiche e differenti rispetto agli altri media; è quindi necessario che
il compositore abbia una conoscenza approfondita del funzionamento delle
meccaniche da cui dipenderà la sua musica. A riprova di ciò, i corsi di laurea
in composizione per film e televisione di molte università soprattutto negli
Stati Uniti38 da qualche anno includono nei loro piani di studio corsi mirati
alla realizzazione di colonne sonore per videogiochi.
37
Per un approfondimento sui ruoli nella divisione audio vedi sezione 10 a pagina 53.
Il Berklee College of Music di Boston, la USC e la UCLA di Los Angeles, la NYU di
New York, solo per citarne alcune.
38
3.3
3.3
La richiesta di compositori
22
La richiesta di compositori
Secondo un articolo del 2 settembre 2013 pubblicato sul sito internet di USA
Today39 , compositori e music directors occupano la terza posizione nella
classifica delle dieci professioni il cui bisogno negli Stati Uniti è cresciuto
maggiormente negli ultimi dieci anni40 . Questi vengono superati soltanto
dagli ingegneri petroliferi (al secondo posto) e dagli operatori nei processi di
estrazione delle risorse naturali (al primo). I dati riportati dall’articolo sono:
• Crescita negli ultimi 10 anni: 178% (15.960 posti di lavoro
in più)
• Totale impiegati: 24.940
• Stipendio annuale medio: 47.350$
Sembra che la sete degli americani per la musica stia crescendo. Questo dovrebbe portare a un aumento dei posti di lavoro
per music directors e compositori. Un altro fattore che determinerebbe la crescita dei posti di lavoro per questi incarichi è la
sempre maggiore necessità di colonne sonore originali e trascrizioni per pubblicità e film. Oltre al talento musicale e alla capacità
di suonare molteplici strumenti, gli impiegati in questo campo,
soprattutti quelli che scrivono e dirigono musica classica, hanno
solitamente una laurea triennale. Circa il 10% dei music directors
e dei compositori guadagnano meno di 21.450$ all’anno, mentre il
10% più retribuito ha uno stipendio annuale che supera 86.110$,
un dato comparabile con gli altri impieghi in questa lista.
L’11 settembre successivo, il sito internet di GameSoundCon41 in un articolo titolato in modo esplicativo USA Today Reports Composers Third-fastest
Growing Job in US: But they got the reason wrong 42 dimostra che i motivi
39
USA Today è un quotidiano nazionale americano. Insieme a The Wall Street Journal
è il quotidiano più diffuso negli Stati Uniti.
40
L’articolo è reperibile all’indirizzo usat.ly/15OW4Wf.
41
GameSoundCon - The Art, Technology and Business of Game Audio è un ciclo di
conferenze e incontri formativi sulla musica e il sound design per videogiochi (vedi sezione
3.2 a pagina 20).
42
L’articolo è reperibile all’indirizzo gamesoundcon.com/#!tumblr-feed/c1v03.
3.3
La richiesta di compositori
23
della crescita nella domanda di compositori e music directors è ben diversa
da quella - piuttosto approssimativa - riportata da USA Today. Brian Schmidt43 , insospettito dalla notizia per cui colonne sonore di film e pubblicità
sarebbero i maggiori responsabili nell’aumento della domanda di compositori
e music directors, ha approfondito l’argomento studiando nel dettaglio i dati
analizzati da USA Today e provenienti dal Bureau of Labor Statistics44 , e
nello specifico da Occupational Employment and Wage Estimates45 . Schmidt non ha confrontato soltanto i dati del 2002 con quelli del 2012, ma ha
analizzato le variazioni anno per anno in quell’arco di tempo (vedi figura 8).
Figura 8: Richiesta di compositori e music directors negli anni 1999-2012
Dal grafico si evince chiaramente che la richiesta di compositori e music
directors è stata piuttosto costante fino al 2008, quando è cominciato un
fortissimo aumento nella domanda, passando dai 9.120 posti di lavoro di
quell’anno ai circa 25.000 del 2012. Brian Schmidt non ha dubbi riguardo
43
Brian Schmidt è il presidente di G.A.N.G. (Game Audio Network Guild) e il direttore
esecutivo di GameSoundCon.
44
Il Bureau of Labor Statistics (BLS) è un ufficio del United States Department of Labor,
il Dipartimento del Lavoro degli USA. Si tratta della principale agenzia di indagine del
governo statunitense nel campo dell’economia e della statistica.
45
I dati sono reperibili all’indirizzo bls.gov/oes/oes data.htm.
3.3
La richiesta di compositori
24
alle cause di questa crescita, imputabile a due eventi fondamentali: la nascita
del programma di sviluppo di applicazioni per Facebook (maggio 2007), e
soprattutto il lancio dell’App Store di Apple (10 luglio 2008, vedi figura 9).
Figura 9: Lancio di Facebook Developer Program e App Store
Questi due avvenimenti hanno decretato l’ascesa dei videogiochi mobile 46 ,
social 47 e casual 48 , espandendo nel giro di pochi anni il bacino dei videogiocatori, trasformando radicalmente il mercato e facendo nascere migliaia di
team di sviluppo più o meno grandi. Si stima che ad oggi il 25% degli utenti
di Facebook (quindi circa 250 milioni di persone) giochi con le applicazioni dedicate al social network. L’App Store conta quasi 300.000 videogiochi,
ognuno dei quali ha bisogno di musica che il più delle volte viene composta
ad hoc per il gioco stesso. Secondo AppDevelopersAlliance49 , il 40% dei gio46
Vedi nota 24.
I videogiochi social sono quei videogiochi che prevedono l’associazione con l’account di
un social network (in particolare Facebook) in modo tale che si possa giocare, condividere
punteggi e statistiche con i propri contatti.
48
I videogiochi casual hanno solitamente un sistema di gioco molto semplice e richiedono
poco impegno dal giocatore. I livelli sono di durata breve o brevissima (anche pochi
secondi).
49
La Application Developers Alliance (AppDevelopersAlliance) è un’associazione industriale dedicata a soddisfare le necessità specifiche di sviluppatori e creativi, innovatori e
47
4 Conclusioni
25
chi su App Store (e analogamente su Play Store di Google) è realizzato da
programmatori per hobby, quindi con scarse probabilità che questi assumano
un compositore, ma il restante 60% delle applicazioni viene invece prodotto
da sviluppatori a tempo pieno che hanno quindi bisogno di musica realizzata
da professionisti. Comporre musica per videogiochi di questo tipo potrebbe sembrare meno remunerativo, ma i dati riportati da BLS ci dicono che
negli anni 2008-2012 lo stipendio medio annuale del compositore è rimasto
pressoché costante - passando da 54.840$ a 53.420$.
Brian Schmidt è fermamente convinto quindi che la crescita improvvisa e
consistente nella domanda di compositori e music directors sia da imputare ai
fattori sopra descritti. Resta da capire se questa tendenza continuerà anche
nei prossimi anni: la BLS è ottimista a riguardo e prevede che più di 32.000
nuovi posti saranno disponibili nei prossimi dieci anni a causa della crescita
del mercato e del ricambio generazionale. Si tratta quindi di una concreta e
non trascurabile possibilità di impiego per tutti i compositori giovani (e non)
nel presente e negli anni a venire.
4
Conclusioni
Dalle considerazioni su come possa essere un nuovo mezzo di espressione
alle sue caratteristiche peculiari, dai dibattiti in corso sulla legittimità nel
considerarlo un’arte al riconoscimento da parte di alcune importanti istituzioni, passando per alcune considerazioni sui contenuti più o meno legittimi
per finire parlando dell’importanza e del successo delle loro colonne sonore
e la richiesta di compositori, i capitoli di questa prima parte costituiscono
una doverosa introduzione al media videogioco. L’influenza di questo recente
mezzo d’espressione - anche come nuovo fenomeno culturale di massa - può
essere associata a quella del cinema degli albori o della televisione al momenimprenditori. Alliance conta più di 25.000 sviluppatori individuali e più di 135 compagnie.
Il loro scopo è quello di essere un orientamento per l’industria, fornire risorse essenziali,
diventare una voce collettiva su questioni burocratiche ed essere un mezzo per collegare
l’ecosistema delle applicazioni.
4 Conclusioni
26
to della sua massima espansione e trasformazione in mezzo di comunicazione
di massa vero e proprio.
Alcuni leggono libri che narrano di storie dolorose, tristi, tragiche,
che li fanno piangere fino alla fine. Altri giocano ai video games
per le stesse ragioni.
Charlie Hall50
I prossimi capitoli saranno focalizzati sulle caratteristiche dell’audio dinamico e sulla realizzazione delle colonne sonore dai punti di vista compositivo
e tecnico.
50
Charlie Hall è un giornalista presso Polygon, uno dei più autorevoli siti internet di
informazione per il mondo dei video games.
27
Parte II
L’audio dinamico
N.B.: diversi passaggi qui riportati sono tradotti e adattati da Game Sound
- An Introduction to the History, Theory, and Practice of Video Game Music and Sound Design di Karen Collins (The MIT Press, 2008), capitolo 8:
Compositional Approaches to Dynamic Game Music.
5
Sonoro interattivo e adattativo
Come abbiamo ribadito più volte nelle sezioni precedenti, la composizione
per un videogioco ha diversi punti di contatto con quella per un film. Il
compositore John Debney51 sostiene che:
Il processo è simile. Ci sono scene per cui il compositore deve
realizzare una musica specifica. Gran parte del gameplay, come
ad esempio le battaglie, devono essere scritte in un certo stile
predefinito. Quindi questo aspetto somiglia alla composizione
per un film. . . Secondo me la più grande differenza nell’atto di
comporre per un videogioco è che non hai un prodotto finito su
cui lavorare. Il più delle volte compongo sulla descrizione di una
battaglia. . . letteralmente una descrizione di una o due righe. Mi
trovo anche a scrivere ad esempio venti secondi di gioco che in
realtà diventeranno dieci o venti minuti. Questa è per me la differenza più grande. Si tratta si comporre sulla base di un concetto
o di una descrizione piuttosto che su qualcosa di specifico.
51
John Debney (Glendale, California, 1956) è un compositore e direttore d’orchestra di
colonne sonore per film e videogiochi. Tra i suoi molti lavori per il cinema sono da segnalare
le musiche di Le follie dell’imperatore (Mark Dindal, 2000), Una settimana da Dio (Tom
Shadyac, 2003), La passione di Cristo (Mel Gibson, 2004) per le quali ha ricevuto una
candidatura all’Oscar, Sin City (Robert Rodriguez, Frank Miller e Quentin Tarantino,
2005), Iron Man 2 (Jon Favreau, 2010), Machete (Robert Rodriguez e Ethan Maniquis,
2010). Nel campo dei videogiochi ha lavorato, tra gli altri, a LAIR (Factor 5, 2007) e The
Sims Medieval (Electronic Arts, 2011).
5 Sonoro interattivo e adattativo
28
Il compositore Richard Jacques52 sostiene che nel momento compositivo
può essere utile pensare come un programmatore creando semplici condizioni
if-then 53 . Viene qui riportato un esempio da Sonic 3D (Sega, 1996):
Esempio 1, Livello 1, Atto 1: suona musica Green Grove
IF Sonic prende le scarpe veloci
THEN suona “musica scarpe veloci”;
IF Sonic prende lo stemma dell’invincibilità
THEN suona “musica dell’invincibilità”;
IF Sonic ha collezionato 100 anelli
THEN suona “jingle dei 100 anelli”;
Mettere per iscritto una simile serie di istruzioni può aiutare il compositore ad
avere ben chiaro il lavoro che deve svolgere. Ovviamente, visto che parliamo
di musica interattiva, l’aspetto più complicato da gestire è proprio quello
che la contraddistingue: il collegamento tra i vari interventi. L’esempio qui
riportato fa riferimento a un gioco ormai piuttosto datato, e la tecnologia
si è molto evoluta da allora, ma ragionare tramite condizioni if-then resta
il metodo più immediato per fare chiarezza e, in seguito, per relazionarsi
correttamente con il programmatore che (come vedremo approfonditamente
in seguito) andrà ad implementare la musica nel videogioco.
Come si può evincere dall’esempio riportato poco sopra, la caratteristica
fondamentale della musica nei videogiochi è che questa deve adattarsi alle
azioni del giocatore e alla situazione in cui egli si trova. Dovrà essere lenta
e misteriosa quando il giocatore esplora un luogo in cui non è mai stato. Se
il personaggio comincia a correre, la musica potrebbe accelerare. Quando il
pericolo si avvicina, la musica dovrà sottolineare la tensione fino a raggiungere
un apice nel momento in cui compare il nemico di turno. Dovrà quindi
52
Richard Jacques (Leamington Spa, Inghilterra, 1973) è un compositore noto principalmente per le sue colonne sonore di videogiochi prodotti da Sega. Oltre ad aver lavorato
per numerosi titoli del franchise di Sonic, ha musicato Mass Effect (Electronic Arts, 2007),
Super Smash Bros. Brawl (Nintendo, 2008), Forza Motorsport 4 (Microsoft Studios, 2011)
e molti altri.
53
Ovvero se-allora.
5 Sonoro interattivo e adattativo
29
trasformarsi in una musica da battaglia per incitare il giocatore, e se questo
subirà delle ferite il suo carattere potrebbe diventare allarmante, per fargli
capire che la fine è vicina. Ma, se questi saprà contrattaccare adeguatamente,
la musica si evolverà in un motivo trionfante nel momento in cui riuscirà a
sconfiggere il nemico.
Quello appena descritto può essere un buon esempio di dynamic audio,
ovvero di una musica che si modifica a seconda degli eventi e diventa una colonna sonora adattativa che dà la sensazione di trovarsi in un film interattivo.
Se guardassimo la ripresa di una sessione di gioco di un’altra persona, una
colonna sonora dinamica avrà raggiunto il suo scopo nel caso in cui ci sembrerà di sentire una musica scritta specificamente per quella scena, in modo
del tutto simile ad un film lineare. Il problema alla base della necessità della
musica dinamica è che un giocatore non è prevedibile: non sappiamo infatti
quali azioni compierà tra le centinaia a sua disposizione, non sappiamo in
quale momento sceglierà di farle e per quanto tempo. La musica dinamica è
preparata ad ogni possibilità: essa deve sempre poter mutare ed evolversi in
modo naturale.
L’audio cosiddetto dinamico è quindi quell’insieme di musica, effetti sonori e dialoghi che cambia in base alle azioni del giocatore e all’ambiente in
cui gioca. Nel primo caso parliamo di audio interattivo: le azioni del giocatore, i suoi input, determinano dei cambiamenti a livello sonoro. Quando,
ad esempio, il giocatore preme un tasto sul controller per far saltare il suo
personaggio, il suono che sentiremo viene classificato come elemento dell’audio interattivo. Viceversa l’audio adattativo risponde a cambiamenti nei
parametri di gioco come conti alla rovescia, cambi di ambientazione, comparsa di nemici, e cosı̀ via. In diversi titoli (Super Mario Bros. tra tutti), ad
esempio, la velocità della musica cresce quando il tempo a disposizione del
giocatore per completare un livello sta per finire. Koji Kondo54 ha elencato
quattro capacità fondamentali che il team audio deve avere per realizzare
una buona musica dinamica:
54
Koji Kondo (Nagoya, Giappone, 1961) è un compositore e musicista giapponese noto
per aver realizzato le colonne sonore di alcuni tra i più celebri videogiochi prodotti da
Nintendo, ed in particolare delle serie di Super Mario e The Legend of Zelda.
6 Alcune difficoltà dell’audio dinamico
30
1. l’abilità di creare una musica che cambi ad ogni partita;
2. l’abilità di creare una musica sfaccettata trasformando i temi in diversi
modi;
3. l’abilità di aggiungere momenti di sorpresa e di aumentare in generale
la piacevolezza nell’esperienza di gioco;
4. l’abilità di inserire elementi musicali come attrattive del gameplay.
6
Alcune difficoltà dell’audio dinamico
La musica dinamica è ormai imprescindibile nei nuovi video games: i loop
tipici dei giochi più datati sono superati e la tecnologia odierna mette a disposizione del compositore una vastissima gamma di possibilità per incrementare
la varietà nel sonoro. L’utilizzo intensivo di semplici loop è ora sconsigliato
per la maggior parte dei titoli, in quanto, come sostiene Scott B. Morton55 ,
si tratta di un modo inefficace per musicare un gioco:
Non solo si elimina la componente emotiva della musica, generalizzandola e non applicandola al contesto, ma con l’utilizzo intensivo di loop ci si allontana dal giocatore, che ad un certo punto
non la percepirà più. E quel che è peggio è che spesso dopo un
po’ diventerà pure fastidiosa. [. . . ] Siamo onesti. Perché chiamare un compositore fin dall’inizio, se la musica non avrà un ruolo
funzionale nell’esperienza di gioco?
Stando a Koji Kondo, la musica dinamica dovrebbe enfatizzare la natura immersiva del gioco, attraverso cambi di tempo, aggiunta di layers 56 , variazioni
e in generale tutti gli espedienti che studieremo nel dettaglio nella sezione
dedicata (Dieci metodi di variazione nella musica dinamica, a pagina
41). Ci sono diverse difficoltà di cui bisogna tenere conto nella fase di produzione, tra cui la durata del gameplay, l’affaticamento nell’ascolto prolungato,
55
Scott B. Morton è un compositore di musiche per videogiochi, noto soprattutto per la
colonna sonora di Titan Quest (THQ, 2006).
56
Vedi sottosezione 9.8 a pagina 46: Variazioni di mix (layering ).
6.1
La durata del gameplay
31
la gestione del sonoro nelle partite multiplayer, etc. Di seguito andremo ad
esplorare queste difficoltà e come esse influenzano le scelte di composizione
musicale.
6.1
La durata del gameplay
La natura non lineare dei giochi implica che la durata del gameplay non
sia determinata: un giocatore potrebbe bloccarsi e non completare mai un
video game, oppure potrebbe cominciare a giocarci e interrompersi ripetutamente nell’arco di alcuni giorni, settimane o mesi. In una singola partita
il giocatore potrebbe passare ore in una locazione oppure attraversarla in
pochi secondi: le variabili sono infinite. Ad aumentare ulteriormente questa
indeterminazione si aggiungono recenti software di intelligenza artificiale come la tecnologia euphoria 57 di LucasArts, dove quelli che un tempo erano
eventi di gioco preprogrammati ora sono randomizzati, “fuori copione”. Il
compositore, ovviamente, non può comporre un numero infinito di interventi
per un gioco che ha infinite variabili. Perfettamente consapevoli che i giochi
hanno la reputazione di avere un sonoro ripetitivo ma ostacolati dalle molte
ore di musica richieste per un gioco, i compositori ora riutilizzano spesso le
stesse tracce in diverse aree del gioco per ridurre la quantità di interventi
musicali necessari, facendo in modo di creare al tempo stesso una colonna
sonora che non risulti stancante. Questo richiede un’attenta pianificazione
della composizione che spesso comporta la riduzione delle linee melodiche
più significative in modo tale che la musica rimanga meno impressa nella
memoria dell’ascoltatore.
6.2
L’affaticamento uditivo
Un concetto affine a quello sopra descritto è quello di affaticamento uditivo:
i giochi, per loro natura, sono realizzati in modo da essere giocati molte
57
Sviluppata da NaturalMotion Ltd., euphoria è un motore di simulazione comportamentale che replica l’imprevedibilità della vita reale, dove non si verificano mai due episodi
perfettamente uguali. euphoria permette ai personaggi non giocanti di muoversi, agire e
addirittura pensare come dei veri esseri umani, adattando il loro comportamento in tempo
reale e causando ogni volta diverse situazioni di gioco.
6.3
I giochi multiplayer
32
volte, e ascolti ripetuti possono diventare noiosi soprattutto se un giocatore
impiega molto tempo per superare un livello particolarmente impegnativo.
Alcuni giochi ora includono dei timer che, nel caso in cui il giocatore dovesse
rimanere bloccato in un livello, fanno in modo che la musica non vada in loop
all’infinito ma termini con dolci fade-out. Il compositore Marty O’Donnell58 ,
a proposito della colonna sonora di Halo: Combat Evolved (Bungie, 2001),
dice:
Esiste questo interruttore “ora sono stanco”, che significa che se
non hai raggiunto la parte dove dovrebbe cominciare un altro
brano, e sono passati cinque minuti, allora abbiamo un bel fadeout.
6.3
I giochi multiplayer
I giochi multiplayer rappresentano una grossa sfida per i compositori. Mentre nei giochi singleplayer una musica dinamica basata sui parametri di gioco
funziona adeguatamente, quando i giocatori diventano due o più la situazione
si complica. Se in un gioco singleplayer la musica è progettata per cambiare
quando la salute del giocatore è prossima a terminare, come dovrà comportarsi invece in una partita multiplayer in cui un giocatore ha quasi terminato
i suoi punti salute e l’altro invece li conserva ancora tutti? Oppure: se un
particolare suono deve essere eseguito una volta raggiunto un punto specifico del gioco, questo evento si verificherà quando entrambi i giocatori sono
entrati nell’area obiettivo oppure quando solo uno dei due l’ha raggiunta?
Le partite multiplayer possono presentare anche alcune opportunità interessanti per i compositori: in Asheron’s Call 2: Fallen Kings (Turbine, 2002)
l’interazione tra i giocatori crea delle “jam sessions” spontanee, in quanto a
differenti specie di personaggi corrispondono diversi strumenti musicali nel58
Martin “Marty” O’Donnell (1955) è un compositore americano noto per aver lavorato
su diversi videogiochi della Bungie tra cui Myth, Oni e soprattutto il franchise di Halo. Le
musiche di quest’ultima trilogia gli hanno fatto vincere numerosi premi, e quelle di Halo
2 in particolare costituiscono la colonna sonora di un videogioco più venduta di sempre
negli Stati Uniti. Di recente ha realizzato parte delle musiche di Destiny (Bungie, 2014).
6.3
I giochi multiplayer
33
la colonna sonora e la cooperazione tra i giocatori causa cambiamenti nella
musica. In questo modo i giocatori sono incoraggiati a interagire.
Questo tipo di giochi (chiamati MMO59 ) è decisamente più longevo rispetto a quelli offline, e in molti casi un giocatore ci gioca regolarmente per
diversi mesi o anche anni. Ci sono molti più ambienti da esplorare e quello che è più importante è che non c’è il controllo sulla situazione del gioco,
perché non esiste uno script 60 , una trama definita da seguire. La musica non
può corrispondere a specifici avvenimenti o ambienti, quindi l’approccio del
compositore deve essere molto diverso rispetto alla composizione per i giochi
singleplayer.
Nonostante le difficoltà nel comporre musica per giochi MMO, esistono
diversi metodi che possono aiutare a risolvere questi problemi. Bjørn Ave Lagim, uno dei compositori del MMORPG61 Anarchy Online (Funcom, 2001),
sostiene che uno dei metodi per non affaticare l’ascolto del giocatore è quello
di far uscire e entrare la musica (attraverso fade-in e fade-out) ad intervalli
regolari, in modo tale che questa non diventi troppo ripetitiva e prevedibile:
La chiave è stata trovare un buon bilanciamento tra la durata dell’esecuzione della musica e il tempo di silenzio. Pause brevi rendono la musica fastidiosa, mentre pause troppo lunghe rendono
la musica inefficace nel mantenere viva l’atmosfera del gioco.
Effettuare fade-in molto lenti è di grande importanza, in quanto se cosı̀ non
fosse il giocatore penserebbe che qualcosa di importante stia per succedere
nel gioco.
59
I giochi Massively Multiplayer Online (MMO) sono quelli capaci di supportare centinaia o migliaia di giocatori collegati contemporaneamente a internet. Tipicamente
l’ambientazione di questo tipo di giochi è un gigantesco mondo virtuale.
60
Letteralmente dall’inglese, sceneggiatura.
61
Massively Multiplayer Online Role-Playing Game, ovvero gioco di ruolo MMO.
7 Le categorie di interventi musicali
7
34
Le categorie di interventi musicali
Di seguito andremo ad analizzare le tre categorie principali di cue 62 presenti
nella musica per videogiochi.
7.1
Interventi principali
Sono quegli interventi musicali che hanno maggiore importanza nel gioco e il
loro alto volume li rende percepibili chiaramente dall’ascoltatore. I temi sono
spesso in grande evidenza; questi cue accompagnano le scene più importanti
del video game, le scene d’azione, quelle di esplorazione, quelle in generale in
cui “succede qualcosa”.
7.2
Ambient tracks
Per evitare silenzi non desiderati può essere utilizzata della musica d’ambiente in modo da mantenere attiva la componente sonora all’interno del
gioco. Questo tipo di musica di sottofondo resta solitamente nello stile degli
interventi principali, alleggerendone i temi tramite l’utilizzo di accordi lunghi, dinamiche tenui e melodie e armonie semplici in modo da passare quasi
inosservata nel complesso del panorama sonoro. Un brano orchestrale, ad
esempio, potrebbe utilizzare il legato della sezione degli archi, mentre una
colonna sonora con strumenti elettronici si affiderebbe a dei pad ; gli elementi
principali di cui tenere conto sono l’utilizzo di una scrittura facile e di un
volume basso. Normalmente, la musica d’ambiente è ideale per gli scenari di
lunga durata in cui il giocatore ha bisogno di concentrarsi (i giochi di sport e i
simulatori di volo sono tipicamente devoti a questo tipo di composizioni). Se
non fosse presente, il più delle volte si percepirebbe un vuoto ed altri rumori
esterni al videogioco potrebbero disturbare l’esperienza del giocatore.
62
Cue è un termine che ricorre molto spesso nell’ambito delle sonorizzazioni cinematografiche e videoludiche: si tratta degli interventi musicali che vanno a formare la colonna
sonora.
7.3
7.3
Stinger
35
Stinger
Usati unitamente ad altra musica che è già in esecuzione, gli stinger 63 sono
brevissimi interventi musicali eseguiti in punti specifici del gioco per richiamare l’attenzione su un improvviso evento significativo. La loro durata si
aggira solitamente intorno ai 2 o 3 secondi; nonostante siano chiaramente
udibili sopra la musica, essi vengono creati in modo da poter convivere con
essa utilizzando caratteristiche compatibili (come ad esempio la scelta timbrica o la tonalità). Oltre ad evidenziare dei momenti del gameplay, gli stinger
possono essere anche utilizzati per sottolineare la comparsa di loghi o scritte.
Per lo stesso scopo possono essere creati anche degli effetti sonori: la scelta
varia in base alle specifiche esigenze del gioco.
8
La non linearità nei videogiochi
Il più grande problema da affrontare per un compositore di musica per videogiochi è la loro non linearità. Molti giochi infatti sono estremamente
imprevedibili a causa delle possibilità di scelta del giocatore; la struttura
ramificata in figura 10 ne raffigura un possibile esempio.
Questo tipo di narrazione si poteva trovare in alcune collane di libri per
bambini che ebbero un certo successo negli anni ‘80: in precisi punti della
storia veniva chiesto al lettore di fare una decisione che lo rimandava a leggere
un altro capitolo ad un’altra pagina. Anche la Nintendo pubblicò una serie
di libri di questo tipo:
“Sto arrivando, Principessa!” grida Mario. Poi comincia a correre
lungo il corridoio ed apre la porta della stanza delle provviste. In
quel momento scatta di nuovo l’allarme, più forte che mai.
Mario dovrebbe cercare le provviste? Forse per prima cosa dovrebbe rintracciare Luigi. O forse dovrebbe dirigersi verso il Regno dei Funghi immediatamente. Deve decidersi, e deve farlo in
fretta!
63
Letteralmente dall’inglese, pungiglione; talvolta viene indicato anche come stab,
pugnalata.
8 La non linearità nei videogiochi
36
Figura 10: Una possibile struttura ramificata della narrazione
• Se pensi che Mario debba cercare Luigi, vai a pagina 100.
• Se pensi che Mario debba prendere le provviste, vai a pagina
34.
• Se pensi che Mario debba recarsi immediatamente nel Regno
dei Funghi, vai a pagina 68.
Questo scenario porta a tre possibili ramificazioni: cercare Luigi, prendere le
provviste, o andare nel Regno dei Funghi.
Fornire all’utente scelte simili in un gioco è estremamente complesso per
la narrazione. Andrew Glassner64 spiega:
Se ci sono dieci punti di ramificazione nel corso della storia, e tre
possibili scelte ad ogni punto, questo significa che l’autore deve
scrivere più di 59.000 storie.
64
Andrew S. Glassner (1960) è un esperto in computer grafica statunitense. Tra i suoi
interessi più recenti c’è la narrazione interattiva.
8.1
La non linearità nell’audio
37
Una soluzione è quella di creare un modello in cui i rami ritornano all’idea
centrale e dove c’è un’unica soluzione finale (vedi figura 11).
Figura 11: Una struttura ramificata con unica soluzione finale
8.1
La non linearità nell’audio
Le conseguenze sul sonoro di una struttura di narrazione ramificata sono
significative. Strutture di questo tipo, citando Glassner, “limitano il controllo dell’autore su ritmo, velocità, ripetizioni, tema e variazioni, anche sulla
casualità”, rendendo la realizzazione di emotion maps 65 molto difficile (se
non impossibile). Oltretutto, questi punti di transizione corrispondono solitamente a momenti estremamente importanti nella narrazione (il giocatore
deve appunto fare una scelta sulla strada da intraprendere), quindi l’importanza del sonoro è cruciale. La pianificazione di questi momenti dal punto di
vista dell’audio è complicata, ma anche estremamente importante.
65
Una emotion map è la rappresentazione grafica dell’evolversi della tensione nel tempo.
Per approfondire vedi sottosezione 14.5 a pagina 61: La cue list e la emotion map.
8.1
La non linearità nell’audio
38
Parlando di composizione musicale, ci sono ulteriori combinazioni rispetto alla struttura ramificata sopra descritta. La musica infatti deve poter
cambiare con molta più frequenza, in quanto deve rispondere alle azioni del
giocatore, alle azioni dei NPC66 , ai parametri di gioco come ad esempio i
punti vita, e ai parametri del luogo. Consideriamo ad esempio la struttura
di un ipotetico magazzino industriale (figura 12). Dalla stanza A il giocatore
può procedere in diverse direzioni, ognuna delle quali potrebbe richiedere una
nuova traccia musicale: andando in avanti il giocatore potrebbe ritrovarsi in
mezzo a nemici che gli sparano (stanza B), dietro di sè potrebbe trovare un
ambiente che va a fuoco (C), sopra di sè il tetto (F), sotto invece una botola
per accedere ai sotterranei (G), a sinistra un solo nemico (D), a destra la
stanza delle comunicazioni (E). La musica che sentiamo nella stanza A de-
Figura 12: La struttura del magazzino industriale dell’esempio
ve essere in grado di mutare, in un momento qualsiasi, in almeno sei modi
differenti. Il giocatore potrebbe aspettare nella stanza A per due minuti o
per dieci secondi. Potrebbe correre nella stanza B, affrontare lo scontro ma
poi tornare subito indietro, facendo ripartire la traccia della stanza A. Finora abbiamo parlato solo di tracce musicali dipendenti dal luogo, ma come
66
Non Playable Character, personaggio non giocante.
8.2
Le transizioni
39
abbiamo detto esistono numerosi altri parametri che potrebbero modificare
la musica.
8.2
Le transizioni
Il compositore deve tenere conto della moltitudine di situazioni possibili all’interno del gioco e cercare di creare una musica che possa rapidamente
adattarsi alle decisioni del giocatore e al cambiamento dei parametri di gioco. Comporre per specifici avvenimenti o locazioni è solo una parte del suo
compito, in quanto deve anche saper organizzare il modo in cui le diverse musiche possano essere collegate tra loro: transizioni morbide assicurano
continuità nel gioco e l’immersione del giocatore. Paul Hoffert67 elenca sette
elementi che devono essere considerati quando si affronta la composizione di
un momento di transizione: volume, tempo, ritmo, tonalità, armonia, consistenza e stile. Esiste una grande varietà di approcci a questo problema; le
colonne sonore dei videogiochi utilizzano spesso metodi differenti in base al
genere e alle caratteristiche specifiche del titolo.
8.2.1
I metodi tradizionali
I vecchi giochi, soprattutto nell’era degli 8 e 16 bit, tendevano a praticare
tagli netti tra le musiche. Oggi il modo più semplice per effettuare una
transizione è quello di far terminare con un rapido fade-out la prima musica
per poi far cominciare subito la seconda; una soluzione simile è quella del
crossfade. Anche in questi casi però la transizione potrebbe risultare brusca o
innaturale. Un altro modo frequente per effettuare una transizione è quello di
utilizzare uno stinger 68 , ad esempio un breve accordo sforzato. Soprattutto
nelle situazioni in cui la transizione deve essere immediata, come quando
passiamo da una situazione di calma ad un improvviso combattimento, lo
stinger, spesso combinato con un effetto sonoro violento (uno sparo, spade
67
Paul Matthew Hoffert (New York, 1943) è un compositore e accademico statunitense.
È sempre stata una figura di primo piano nello sviluppo e nella diffusione delle nuove
tecnologie.
68
Vedi sottosezione 7.3 a pagina 35: Stinger .
8.2
Le transizioni
40
che cozzano, etc.) aiuta a camuffare in modo efficace il repentino cambio
musicale.
8.2.2
L’utilizzo del MIDI nelle transizioni
Nonostante le difficoltà che si incontrano nella musica dinamica, alcuni compositori, sound designers e programmatori hanno avuto idee particolarmente
efficaci per risolvere i diversi problemi. Oltre alle soluzioni già discusse, nella
prossima sezione andremo ad analizzare nel dettaglio le tecniche utilizzate
per creare varietà musicale e affrontare il problema della struttura ramificata. Molte di queste tecniche sono basate sul MIDI69 . Nonostante la musica
registrata su file possa offrire una qualità generale più alta di quella del MIDI,
essa non è altrettanto adattabile a tecniche dinamiche. La tendenza sempre
più diffusa è quella di utilizzare grosse orchestrazioni per creare un suono
cinematografico, che richiede alti budget: anche se le orchestre potrebbero
tecnicamente creare musiche dinamiche registrando un gran numero di brevi
spezzoni, si tratta di una soluzione troppo complessa e dispendiosa per la
maggior parte dei produttori. L’adattabilità è un potenziale proprio del formato MIDI ed esistono alcune sue funzioni che non sono implementabili nei
file audio (una tra tutte la possibilità di modificare il tempo metronomico
senza alterare le frequenze in modo sensibile). Con la crescita continua della
qualità delle librerie di campionamenti, il protocollo MIDI potrebbe essere
una soluzione a molti problemi nella musica per videogiochi. Alla Game Developers Conference 70 del 2007, Jason Page e Michael Kelly, rappresentanti
di Sony, hanno sostenuto la tesi che il MIDI rappresentasse il futuro per la
musica nei videogiochi. Della stessa opinione si è dimostrato Simon Ashby,
cofondatore di Audiokinetic (la società che sviluppa il middleware Wwise71 ),
69
Con l’acronimo MIDI (Musical Instrument Digital Interface) si indica il protocollo
standard per l’interazione degli strumenti musicali elettronici (anche tramite un computer).
Nato agli inizi degli anni ‘80, è utilizzatissimo ancora oggi per la sua versatilità e facilità
di utilizzo.
70
La Game Developers Conference (GDC) è il più grande raduno annuale degli sviluppatori di videogiochi professionisti. L’evento comprende un expo, eventi di networking, premi
e conferenze di professionisti del settore che coprono argomenti legati a programmazione,
progettazione, audio, produzione e arti visive dei video games.
71
Vedi sottosezione 15.6.1 a pagina 74: L’utilizzo di middleware per l’integrazione.
9 Dieci metodi di variazione nella musica dinamica
41
quando interpellato sull’argomento durante Game Music Connect 2014 72 .
Ora che i campionamenti hanno raggiunto livelli di altissima fedeltà, l’utilizzo del MIDI ha grandi vantaggi rispetto alle registrazioni tradizionali per
la sua adattabilità, per l’assenza dei costi legati alla registrazione e per le
dimensioni ridotte dei file (che comportano tempi di caricamento più brevi).
9
Dieci metodi di variazione nella musica dinamica
Esistono diversi approcci per ottenere una variabilità musicale che assicuri
alla composizione una maggiore longevità senza annoiare il giocatore e al
tempo stesso abbia anche una profonda aderenza alle azioni e alla narrazione. Un compositore potrebbe comporre centinaia di brani differenti oppure,
risparmiando una considerevole quantità di tempo e fatica, potrebbe introdurre delle variazioni ai materiali musicali più importanti utilizzando uno dei
dieci metodi sotto elencati:
1. Variazioni di tempo
2. Variazioni di pitch e trasposizioni
3. Variazioni di ritmo e metrica
4. Variazioni di volume
5. Variazioni di DSP
6. Variazioni di temi (generazione algoritmica)
7. Variazioni di armonie
8. Variazioni di mix (layering)
9. Variazioni della forma (forma aperta)
10. Variazioni della forma (matrici di transizioni)
72
Vedi sottosezione 3.2 a pagina 20: Pubblicazioni, documentari, fiere e corsi.
9.1
Variazioni di tempo
42
Discuteremo ognuna di queste possibilità nel dettaglio. Le funzionalità
di programmazione necessarie alla loro implementazione sono spesso incluse
in middleware 73 appositi come ad esempio FMOD Studio e Wwise.
9.1
Variazioni di tempo
Questo tipo di variazioni è piuttosto frequente e si può ritrovare addirittura in alcuni dei primissimi esempi di videogiochi della fine degli anni ‘70
come Space Invaders (Midway Games, 1978) e Asteroids (Atari, 1979). Questo metodo viene particolarmente utilizzato in relazione al tempo di gioco:
quando i secondi a disposizione per completare un livello in Super Mario
Bros. (Nintendo, 1985) stanno per terminare e quando aumentano le righe
sulla schermata di Tetris (1984) viene sfruttata questa tecnica. Il tempo
metronomico di un brano più anche essere modificato in tempo reale per rispondere a diversi parametri come, ad esempio, il numero di giri al minuto
del motore in un gioco di corse, il numero di nemici rimasti vivi, o il numero di HP74 rimasti al giocatore. Un rischio che si corre è che il tempo sia
troppo sincronizzato con l’azione: in questo caso si può incorrere nel mickey
mousing 75 con l’immagine, ottenendo cosı̀ un risultato vagamente comico e
inappropriato.
9.2
Variazioni di pitch e trasposizioni
In passato, trasportare intere sequenze era un metodo per superare le limitazioni tecniche delle console, in quanto l’istruzione per la trasposizione
richiedeva una quantità di memoria irrilevante rispetto a quella richiesta da
73
Con il termine middleware si intendono quei software che fungono da intermediari tra
diverse applicazioni (vedi sottosezione 15.6.1 a pagina 74: L’utilizzo di middleware per
l’integrazione).
74
Health Points, punti vita. Nella maggior parte dei giochi quando questi si esauriscono
il giocatore perde la partita.
75
Con l’espressione mickey mousing si indica una tecnica cinematografica ottenuta sincronizzando le azioni sullo schermo con gli effetti sonori e la musica di accompagnamento,
che seguono punto per punto le immagini. Il sistema prende il nome dal personaggio di
Topolino, Mickey Mouse. Questa tecnica era peraltro ricca di suoni onomatopeici che
favorivano un effetto umoristico.
9.3
Variazioni di ritmo e metrica
43
una traccia completamente nuova. Funzioni di trasposizione venivano quindi inserite nel codice del gioco. In The Legend of Zelda: Twilight Princess
(Nintendo, 2006) per Nintendo Wii e GameCube troviamo un interessante
utilizzo della variazione di pitch: nel combattimento contro il boss finale,
dopo ogni colpo di spada andato a segno, la musica viene trasportata. Questo tipo di utilizzo, cosı̀ come la variazione del tempo, può essere utile per
incrementare la tensione di una scena.
La variazione di pitch è anche un ottimo metodo per risparmiare spazio
nel sound design: se utilizziamo un unico sample 76 e ne alteriamo di volta in
volta il pitch in maniera casuale potremo usarlo molte volte senza che risulti
ripetitivo.
9.3
Variazioni di ritmo e metrica
Come la storia della musica ci insegna, variare un tema utilizzando ritmo e
metrica differenti può essere un ottimo metodo per accompagnare situazioni
sceniche differenti mantenendo comunque una coerenza generale. Anche i
videogiochi non fanno eccezione e sfruttano ampiamente questa tecnica.
9.4
Variazioni di volume
Le variazioni di volume sono molto frequenti nei videogiochi e sono particolarmente evidenti nelle schermate dei menu, dove il volume scende mentre il
giocatore effettua la selezione per poi tornare a crescere quando si riprende a
giocare. Come abbiamo già detto nella sottosezione 6.2 a pagina 31 dedicata all’affaticamento uditivo, anche lo “spegnimento” della musica può essere
una soluzione quando il giocatore ha passato diversi minuti in uno stesso livello. Nel momento in cui il giocatore ritroverà la strada da seguire, il volume
tornerà al livello consueto. Anche i parametri collegati alla tensione possono
influenzare il volume, che passerà da un pianissimo nei momenti di calma a
un fortissimo in quelli più concitati.
76
Letteralmente dall’inglese, campione.
9.5
9.5
Variazioni di DSP
44
Variazioni di DSP
L’aggiunta di DSP77 in tempo reale, oltre ad essere fondamentale nel missaggio degli SFX7879 , può essere effettuata anche sulle tracce musicali ottenendo
risultati creativi. Aggiungere un DSP di overdrive alle percussioni rende immediatamente la musica più aggressiva; l’aggiunta di riverbero, delay o di
un filtro passa-basso attenuerà invece il suo impatto emotivo. In generale
l’utilizzo di DSP in tempo reale sulle tracce musicali rappresenta una grande
risorsa da tenere in considerazione per il compositore.
9.6
Variazioni di temi (generazione algoritmica)
La generazione algoritmica, che utilizza il processore per creare nuova musica
autonomamente, non è ancora molto diffusa. Il compositore Peter Langston
creò per la colonna sonora di Ballblazer (Lucasfilm Games, 1984) l’algoritmo
riffology, che sceglieva dinamicamente. . .
[. . . ] quale riff eseguire da un repertorio di 32 frasi da otto note
ciascuna, e con che velocità eseguirla, con quale dinamica, quando omettere alcune note, quando inserire uno stacco ritmico e
altre variabili di questo tipo. Per determinare il riff da eseguire, il software sceglie alcune possibilità in modo randomico; tra
queste sceglie il riff “più facile” da suonare, ovvero quello la cui
nota iniziale è più vicina alla nota finale del precedente. La decisione di saltare una nota (sostituendola con una pausa oppure
allungando la durata della nota precedente) è basata su un certo
indice di probabilità. Questo indice comincia con un valore molto
basso, cresce fino a raggiungere un picco vicino alla metà del solo
per poi tornare a un valore basso verso la fine. L’effetto è che i
solo cominciano con una serie di note confuse, per diventare più
77
I Digital Signal Processors (DSP) sono dei processori dedicati all’elaborazione di segnali audio digitali; in questo caso si fa riferimento a quegli effetti che modificano le
caratteristiche sonore dell’audio.
78
SFX è l’abbreviazione di sound effects, effetti sonori.
79
Per approfondire vedi sottosezione 15.3 a pagina 67: L’utilizzo di DSP in tempo
reale.
9.7
Variazioni di armonie
45
“pigri” nella parte centrale e avere più forza verso la fine. Il solo
è accompagnato da una linea di basso, un ritmo di percussioni
e degli accordi che variano in modo più controllato rispetto alla
parte solistica. Il risultato è quello di un’improvvisazione infinita
che non si ripete mai, sopra un accompagnamento che allo stesso
modo non si ripete ma ci risulta presto familiare.
Man mano che gli algoritmi raggiungono risultati sempre più prossimi
alla composizione che un essere umano potrebbe realizzare, usare musica di
questo tipo nei videogiochi sembra sempre più una strada da seguire. Non
è detto che tutta la composizione debba essere generata da un algoritmo:
questo potrebbe controllare soltanto alcuni strumenti o sezioni del brano.
Come nel caso di Ballblazer, potrebbe improvvisare sopra una linea di basso
e batteria, oppure potrebbe far evolvere nel tempo un ritmo di percussioni, o
ancora gestire l’orchestrazione in base all’atmosfera di una particolare scena.
Continuando a parlare di algoritmi, la sintesi granulare offre numerosissime possibilità creative utilizzabili in tempo reale nel sound design di un
gioco. L’organizzazione dei grani di suono può essere facilmente regolata da
qualsiasi variabile del gameplay.
9.7
Variazioni di armonie
È possibile modificare il carattere di un pezzo alterandone le sequenze armoniche o i singoli accordi in tempo reale. Questa tecnica è stata utilizzata in
Asheron’s Call 2: Fallen Kings (Turbine, 2002) da Jason Jorg Booth80 , che
dice a riguardo:
Volevamo mantenere le musica relativamente semplice, ambientale, evitando soluzioni d’impatto. Sapevamo anche che potenzialmente c’era un gran numero di parti melodiche che suonavano
su una certa base armonica e che queste melodie erano il modo
di aggiungere tensione e risoluzione alla composizione.
80
Jason Jorg Booth è un compositore, sound designer e sound editor nato a Huddersfield,
Inghilterra.
9.8
Variazioni di mix (layering )
46
Evitare di utilizzare specifiche cadenze armoniche è un modo per rendere la
musica più adattabile, come descrive Booth:
[La nostra soluzione era] simile a particolari strutture utilizzate nella musica indiana; decidevamo la tonalità come se fosse
un Raga (la tonica ripetuta in continuazione per un pomeriggio
intero), creando uno spazio meditativo senza la ripetizione e la
direzionalità data da una serie ciclica di accordi.
Cambi nei modi utilizzati corrispondono a cambi di situazioni nel gameplay:
Un giocatore solo in un ambiente di gioco potrebbe sentire una
musica di sottofondo nel modo lidio, ma nel momento in cui creature nemiche riempiono l’area il modo potrebbe diventare frigio,
conferendo alla musica un carattere più oscuro.
Variazioni nell’armonia possono riguardare non solo i modi ma anche
differenti scelte di accordi: si potrà riarmonizzare uno stesso passaggio con
gradi diversi appartenenti alla tonalità prescelta.
9.8
Variazioni di mix (layering )
Variazioni nella strumentazione possono offrire soluzioni interessanti nella
musica dinamica. Regolando vari elementi nel mix - ad esempio alzando il
livello delle percussioni per aggiungere tensione - una traccia può essere modificata in modo facile ed efficace. In un brano potrebbe esserci, ad esempio,
una linea malinconica di sassofono molto bassa nel mix prima che il giocatore
arrivi ad una svolta drammatica nella trama; a questo punto quella traccia
potrebbe emergere attraverso un innalzamento del suo volume. Si possono
mettere in muto intere tracce e inserirle nel mix come layers 81 con il preciso intento di farli comparire e scomparire dal mix in punti precisi della
narrazione. Questo metodo di composizione dinamica funziona molto bene
nelle transizioni dolci, ma potrebbe risultare difficile cambiare completamente
atmosfera in modo rapido.
81
Letteralmente dall’inglese, strati.
9.9
Variazioni della forma (forma aperta)
47
Un esempio molto efficace dell’utilizzo di questa tecnica si può ascoltare in
Super Mario World (Nintendo, 1990): un layer di percussioni si sovrappone
al tema principale quando Maria cavalca Yoshi.
La tecnica del layering può diventare più complessa e basarsi su parametri
del gameplay come il numero di giocatori in un MMO. Nel già citato Asheron’s
Call 2, ciascuno dei personaggi ha un tema differente che si aggiunge alla
base musicale. La razza dei tumeroks ad esempio suona i tamburi, mentre
ad altre razze corrispondono altri strumenti. Ogni personaggio sulla scena
aggiunge un elemento musicale localizzato in 3D, mentre la locazione nel
gioco determina la musica d’ambiente, il tempo di metronomo e la tonalità.
9.9
Variazioni della forma (forma aperta)
Nella storia della musica si possono trovare diversi studi sull’ordinamento
casuale di frasi o sequenze per creare composizioni sempre diverse; questi
espedienti, tra cui ad esempio i dadi di Mozart 82 e la musica aleatoria, rappresentano delle grandi possibilità utilizzabili in modo creativo ed efficace
nella musica per videogiochi. Esistono molti tipi diversi di ordinamento variabile, o “forma aperta”; l’apertura della struttura può riguardare qualsiasi
livello (lunghe porzioni di un brano, sequenze, singole frasi o brevi incisi).
L’idea risale almeno al XVIII secolo, quando troviamo la moda dei dadi
musicali in Europa: il gioco era stato ideato per le persone a digiuno di composizione che attraverso il lancio dei dadi sceglievano l’ordine delle sequenze
e potevano cosı̀ creare minuetti, marce, polacche, walzer, e via dicendo. Più
recentemente troviamo degli interessanti esempi nella musica aleatoria di
compositori come John Cage, Karlheinz Stockhausen e Pierre Boulez. Nella
Sonata per pianoforte No. 3 83 di Boulez (1956-57) troviamo in particolare
82
Si fa qui riferimento al Musikalisches Würfelspiel (dal tedesco, gioco musicale con
i dadi) datato 1792 e talvolta attribuito a Mozart, anche se questa informazione non è
verificata. Il risultato del lancio dei dadi determina le battute musicali da eseguire che,
eseguite in sequenza, creano un walzer completo. Si possono realizzare 1116 combinazioni
(circa 45 milioni di miliardi).
83
La Sonata per pianoforte No. 3 di Pierre Boulez è in costante revisione sin dalla sua
prima esecuzione nel 1957, e solo due dei suoi cinque movimenti sono stati pubblicati.
9.9
Variazioni della forma (forma aperta)
48
delle serie di if-then 84 e indicazioni di tempo che ricordano molto la sintassi
di un linguaggio di programmazione. La forma aperta offre molte possibilità
al compositore per video games in quanto mantiene vivo l’interesse introducendo variazioni e sfruttando delle transizioni pianificate in precedenza. Il
compositore Henri Pousseur85 spiega:
Le esecuzioni erano sempre molto diverse, in quanto l’inizio e la fine di ogni sequenza potevano diventare l’inizio o la fine dell’intero
brano, con adattamenti dinamici specifici. Due sequenze potevano essere collegate se la fine della prima e l’inizio della seconda
erano similari (ad esempio entrambe nel registro acuto, con ritmo
veloce, omogenee); una continuità completa era quindi possibile
senza il minimo segno di giunture.
La forma aperta è stata utilizzata con successo in numerosi videogiochi.
The Legend of Zelda: Ocarina of Time (Nintendo, 1998), ad esempio, utilizza
una musica con struttura aleatoria quando ci si sposta tra i livelli nel mondo
di Hyrule. Dato che il giocatore deve passare molto tempo in quelle aree per
accedere ad altre zone, le sequenze musicali sono eseguite in ordine casuale
per mantenere vivo il suo interesse. Ogni volta che ci si trova in quella zona
di transizione, quindi, la musica è diversa.
Nonostante gli indiscutibili vantaggi di una forma aperta, essa presenta
anche diverse difficoltà per il compositore. La prima è che l’ascoltatore occidentale ha una naturale aspettativa che lo porta a pensare che la musica
sia orientata verso una certa direzione: la maggior parte delle composizioni
che ascoltiamo hanno infatti una chiara struttura organizzata e riconoscibile.
Nella forma aperta invece incontriamo delle difficoltà nel riconoscere questa
struttura, in quanto non esiste una curva emozionale, non c’è un climax, e
questo rischia di trasformarla presto in una sorta di musica ambientale86 . Il
84
Vedi sezione 5 a pagina 27: Sonoro interattivo e adattativo.
Henri Pousseur (Malmedy, Belgio, 1929 - Bruxelles, Belgio, 2009) è stato un compositore di musica contemporanea e didatta belga. Generalmente considerato come un
esponente della scuola di Darmstadt, Pousseur ha utilizzato tecniche tipiche di quella
scuola, quali lo strutturalismo e l’alea, contaminate frequentemente con altri stili.
86
Vedi sottosezione 7.2 a pagina 34: Ambient tracks.
85
9.10
Variazioni della forma (matrici di transizioni)
49
pezzo perde le sue funzioni comunicative e per questo è molto difficile relazionarlo all’immagine. Le difficoltà nel comporre e implementare musica di
questo tipo in modo efficace sono evidenti; nonostante ciò, esistono diversi
casi in cui utilizzare la forma aperta può rivelarsi una scelta opportuna.
9.10
Variazioni della forma (matrici di transizioni)
Un metodo di composizione affine alla forma aperta è quello che prevede l’utilizzo di matrici di transizioni. Il motore di gioco analizza i due interventi
musicali da collegare e seleziona una breve transizione appropriata da inserire
tra loro. Le tracce musicali devono contenere markers 87 che contraddistinguono dei momenti in cui la transizione può avere luogo88 . iMUSE89 offriva
una serie di comandi di questo tipo, e nonostante fosse un software proprietario queste idee sono state in seguito incorporate nella maggior parte dei
middleware 90 e dei motori di gioco. In questi software le tracce contengono
dei markers che identificano i punti in cui possono avvenire dei cambiamenti
o delle ramificazioni in tempo reale in base a parametri di gioco. Quando
viene raggiunto un marker il computer verifica se ci sono le condizioni per
modificare la musica in quel punto; se queste non ci sono, essa continua cosı̀
com’era. Il compositore deve prevedere e mappare tutte le possibili congiunzioni tra musiche diverse ad un qualsiasi marker, e comporre un gran
numero di transizioni compatibili - si tratta di un processo estremamente
lungo. Il numero di transizioni da comporre può infatti salire molto rapidamente. Facendo riferimento all’esempio in figura 12 a pagina 38: dalla
87
I markers (o decision points) sono una sorta di “segnalibri” applicati a punti specifici
dei file audio.
88
Vedi anche la sottosezione 11.3 a pagina 56: Istruzioni beat-synchronous.
89
iMUSE (interactive MUsic Streaming Engine) è un motore di gioco sviluppato nei
primi anni ‘90 dai compositori Michael Land e Peter McConnell presso LucasArts. L’idea
dietro ad iMUSE è di sincronizzare la musica con l’azione sullo schermo, cosı̀ che l’audio
corrisponda agli eventi rappresentati e che le transizioni da un tema musicale ad un altro
avvengano senza brusche interruzioni. iMUSE fu sviluppato a causa della frustrazione
di Michael Land per il motore audio usato dalla LucasArts durante la realizzazione del
popolare The Secret of Monkey Island (LucasArts, 1990). Il primo gioco ad usare il sistema
iMUSE fu Monkey Island 2: LeChuck’s Revenge (LucasArts, 1991) ed esso fu da allora
impiegato per tutte le avventure LucasArts.
90
Vedi nota 73 a pagina 42.
9.10
Variazioni della forma (matrici di transizioni)
50
stanza A il giocatore può dirigersi in sei differenti direzioni, quindi ci sono
al minimo altrettanti trigger-points 91 di nuove musiche per i diversi ambienti
raggiungibili. Consideriamo il caso in cui il giocatore vada dalla stanza A
alla stanza B. Poniamo che la musica di A sia una sequenza di 16 battute e
che il cambio di musica possa verificarsi soltanto sul primo movimento di una
qualsiasi di queste battute: il compositore dovrà comporre 16 diverse transizioni per passare dalla musica di A alla musica di B, una per ogni battuta del
tema di A. La transizione appropriata verrà eseguita nel momento in cui il
giocatore entrerà nella stanza B. Lo stesso numero di transizioni dovrà essere
realizzato per passare da A a C, da A a D, e cosı̀ via. . . e bisogna tener conto
anche del ritorno da B ad A, da C ad A, e via dicendo. È facile capire che
un metodo simile non sia praticabile in tutte le situazioni.
Ad aggiungersi ai punti di innesco causati dai movimenti del giocatore
(che determinano l’interattività della musica), potrebbero anche esserci dei
triggers procurati da eventi (l’inizio di uno scontro a fuoco, ad esempio) o altri
parametri a cui ci si riferisce con l’acronimo RPCs92 , ovvero quei parametri
in continua evoluzione come conti alla rovescia, HP del giocatore, quantità
di munizioni e cosı̀ via (che determinano invece l’adattatività della musica), e
che potrebbero comportare modifiche nel sonoro e, quindi, altre transizioni.
Alcune transizioni potrebbero essere riutilizzate in corrispondenza di diversi markers; alcuni di questi possono essere tolti, ma un numero basso di
punti di innesco aumenterebbe il tempo necessario ad effettuare una transizione creando il cosiddetto lag 93 . Per ridurre la quantità di lavoro necessaria
si potrebbero anche riutilizzare parti della musica in diverse sezioni del gioco, oppure ripetere gli stessi interventi con maggiore frequenza, ma questi
accorgimenti limiterebbero molto la qualità complessiva della colonna sonora
che probabilmente risulterebbe presto poco interessante e monotona.
Per Anarchy Online la soluzione è stata creare un software dal nome SIM
(Sample-based Interactive Music) che permette la combinazione di molte pic91
Letteralmente dall’inglese, punti di innesco.
RPCs (o RTPCs), Run-time Parameter Controls.
93
Letteralmente dall’inglese, ritardo. La parola lag coincide anche con l’abbreviazione dei termini LAtency Gap, che indicano una differenza (gap) causata da latenza di
informazioni (latency).
92
9.11
Conclusioni
51
cole sequenze in un’unica lunga traccia. Ad ogni sequenza musicale è associata una lista di altre sequenze che la possono continuare. Il compositore deve
inserire il tempo e la metrica di ogni sequenza per consentire l’allineamento
dei beat. Nel gioco ci sono più di 750 sequenze in totale, ognuna delle quali
è stata catalogata e organizzata in relazione a tutte le altre e in relazione a
vari layers. Le sequenze vengono scelte randomicamente quando il giocatore
sta fermo in una locazione in modo tale che la musica non si ripeta mai e che
si abbia la sensazione di ascoltare un brano infinito. Il compositore Bjørn
Arve Lagim dice a proposito di questa sua colonna sonora:
Ogni gruppo di sequenze può cambiare in qualsiasi altro gruppo
in qualsiasi momento. Ad esempio: il giocatore si sposta dalla
foresta in un’area deserta. È giorno. Sta suonando la sequenza
“forest day”. Una volta che il giocatore entra nel deserto, SIM
verifica se la musica in esecuzione è associata a qualche transizione per “desert day”. Se cosı̀ fosse, allora quella è la traccia che
verrà eseguita successivamente, altrimenti il software troverà automaticamente il percorso più breve per arrivare a “desert day”
attraverso altre musiche relative a “forest day”.
Concludendo, le matrici di transizione possono essere molto efficaci nel
gestire le transizioni in un gioco anche se richiedono un lungo tempo di
pianificazione, composizione e programmazione.
9.11
Conclusioni
La musica dinamica offre numerose sfide interessanti al compositore, dalla necessità di adattarsi alle diverse situazioni di gioco alle interazioni con
dialoghi ed effetti sonori, al dover prevedere sempre una certa varietà. La
colonna sonora può essere modificata tramite soluzioni relativamente semplici come cambiamenti di tempo, pitch, volume e DSP, o più complesse come
algoritmi di generazione di melodie e armonie, layers, forme aperte, matrici.
L’efficacia di queste soluzioni dipende il più delle volte dal genere di video-
9.11
Conclusioni
52
gioco: i puzzle game 94 ad esempio hanno necessità musicali estremamente
differenti rispetto agli FPS95 . I giochi con livelli più lunghi e articolati, come
quelli di avventura, possono fare un uso efficace della forma aperta. Questi
approcci richiedono sia nuovi modi di pensare alla musica da parte del compositore, sia un costante sviluppo delle nuove tecnologie per implementarla
nel gioco e forse, in un prossimo futuro, anche in altre tipologie di prodotti
artistici e multimediali.
94
Un videogioco rompicapo (puzzle game in inglese) è il termine utilizzato per identificare
quella particolare categoria di giochi dedicata alla soluzioni di enigmi sotto forma di puzzle
logici, strategici o in cui, ad esempio, si deve completare una sequenza (numeri, parole,
forme geometriche), etc.
95
Dall’inglese, First Person Shooter, sparatutto in prima persona.
53
Parte III
Il team di sviluppo e i mezzi a
disposizione
N.B.: diversi passaggi qui riportati sono tradotti e adattati da Game Sound
- An Introduction to the History, Theory, and Practice of Video Game Music and Sound Design di Karen Collins (The MIT Press, 2008), capitolo 5:
“Game Audio Today: Technology, Process, and Aesthetic” e da Creating Music and Sound for Games di G.W. Childs IV (Thomson Course Technology,
2007), capitolo 10: “Composing: The Game Design”.
10
I ruoli nella divisione audio
Il sonoro per i videogiochi si evolve di pari passo con gli strumenti a disposizione degli sviluppatori, ragion per cui i ruoli coinvolti diventano sempre più
specifici e dedicati. Mentre un tempo (e tuttora, nei giochi a basso budget)
un’unica persona era responsabile per tutti gli aspetti della produzione dell’audio e della sua implementazione, ora nei progetti che possono usufruire
di risorse economiche cospicue ci sono interi team che coprono una varietà di
abilità artistiche e tecniche. Il sonoro di un videogioco è infatti il risultato
di un processo di collaborazione: il programmatore non può implementare il
codice senza la musica, e la musica dipende molto da come verrà implementata. Il sound design deve tenere conto dei dialoghi, e cosı̀ via. La divisione
degli incarichi che concernono il sonoro di un videogioco è simile a quella per
la realizzazione di un film o di una serie televisiva, con l’aggiunta della figura
fondamentale dell’audio programmer.
10.1
Sound director
A capo della divisione audio troviamo il sound director. Egli è responsabile
di tutto ciò che concerne l’audio in un videogioco. Supervisiona il design,
10.2
Compositore
54
definisce la direzione creativa e tecnica che il suo staff deve seguire e si occupa
anche delle questioni riguardanti scadenze, budget, collaborazioni esterne e
attrezzatura tecnica. È il responsabile del prodotto finale.
10.2
Compositore
Si tratta, ovviamente, del musicista che compone le musiche per il videogioco.
Nelle compagnie più piccole il compositore si occupa spesso anche del sound
design ed eventualmente dell’orchestrazione, lavori delegati ad altri esperti
se il team è particolarmente grande. Il compositore supervisiona anche le
sessioni di registrazione dei brani della colonna sonora ove il budget permettesse di utilizzare strumenti reali e non virtuali. In passato il compositore
era solitamente un dipendente del team di sviluppo, mentre al giorno d’oggi
è sempre più diffusa la tendenza ad assumere un freelancer esterno.
10.3
Sound designer
È il responsabile degli effetti sonori (SFX) del videogioco. Le librerie di effetti
utilizzate possono essere acquistate (in commercio ce ne sono numerosissime)
oppure, se il budget è alto e il gioco richiede effetti particolari, possono essere
realizzate ad hoc dal sound designer stesso.
10.4
Doppiatori e dialogue director
I doppiatori si occupano di dare la voce ai personaggi dei video games; solitamente non sono dipendenti del team di sviluppo ma collaboratori occasionali. Sono diretti dal dialogue director, che coordina e supervisiona il lavoro
di doppiaggio.
10.5
Licensing directors
Si occupano della gestione dei diritti necessari alla riproduzione dei brani
all’interno di un videogioco.
10.6
10.6
Audio programmers
55
Audio programmers
Detti anche audio engineers, sono gli sviluppatori dell’audio engine, ovvero
dell’insieme degli strumenti informatici necessari all’integrazione di tutto il
comparto sonoro nel gioco. L’audio engine è quella parte del codice che fa
in modo che i vari eventi sonori (musica, SFX, dialoghi) vengano innescati
dalle azioni del giocatore, dalle caratteristiche di stato del suo personaggio,
dall’intelligenza artificiale del gioco, dal motore fisico, etc. Di particolare
importanza è quindi il rapporto tra il compositore e l’audio programmer : il
loro lavoro dà vita all’interattività e all’adattabilità proprie della natura della
musica per videogiochi.
11
Le funzionalità dell’audio engine
In questa sezione sono elencate e descritte le principali funzionalità che l’audio
programmer mette a disposizione del compositore attraverso l’audio engine.
È di fondamentale importanza che l’autore delle musiche sia ben consapevole
delle potenzialità di questo strumento e al tempo stesso dei suoi limiti per
poter realizzare una colonna sonora adeguata. L’audio engine può essere sviluppato dagli audio programmers in base alle esigenze specifiche del gioco da
realizzare oppure si può scegliere di utilizzare un middleware già esistente96 .
11.1
L’internal looping
L’internal looping è la possibilità dell’audio engine di far ricominciare un
brano quando questo raggiunge la fine o un certo punto specifico. Invece di
riprendere dall’inizio è possibile far ripartire la musica da un marker in un
punto qualsiasi della traccia in modo tale che l’ascoltatore non percepisca che
si tratta di una ripetizione. Con un uso appropriato di questo espediente la
musica può sembrare molto più lunga di quanto in realtà non sia: il giocatore
sente l’inizio del brano quando comincia un livello, e ne sente la fine quando
lo completa (o quando muore). Per tutto il resto del tempo, ascolterà una
96
Vedi sottosezione 15.6.1 a pagina 74: L’utilizzo di middleware per l’integrazione.
11.2
Il sideways crossfade
56
musica che continua incessantemente a ripetersi. Per fare in modo che il
giocatore non si accorga che si tratta di un loop, la parte del brano da ripetere
non dovrebbe durare meno di 3 o 4 minuti. Loop dalla durata più breve (fra
i 30 e i 60 secondi circa) sono usati spesso nelle schermate dei menu, in cui
il giocatore trascorre generalmente poco tempo.
11.2
Il sideways crossfade
Una feature 97 del motore sonoro di un videogioco è il cosiddetto sideways
crossfade, ovvero la possibilità di effettuare un crossfade tra due differenti
brani durante il gioco senza che ci siano interruzioni, per modificarne l’atmosfera. Ad esempio: il compositore crea all’interno del sequencer un brano dal
carattere morbido e disteso; a questo aggiunge delle tracce di percussioni che
rendano il pezzo più intenso e dinamico. Il compositore esporterà il brano
con la sua variazione in due file diversi (solo le tracce morbide e il mix con anche le percussioni): in questo modo, all’interno di uno stesso livello, il primo
pezzo accompagnerà le scene in cui non c’è azione (ad esempio, una passeggiata in un bosco) e il secondo, che andrà a sostituire il primo tramite un
sideways crossfade, farà da sottofondo ai momenti di tensione (ad esempio,
un combattimento nello stesso bosco dove si andava passeggiando). L’orecchio del giocatore percepirà un unico brano che si arricchisce di una traccia di
percussioni nei momenti di maggiore tensione. Il sideways crossfade è quella
funzionalità dell’audio engine alla base della tecnica di layering 98 .
11.3
Istruzioni beat-synchronous
Un’altra feature spesso implementata nel motore audio è il beat-sync: questa
permette al compositore, con l’aiuto del programmatore o del level designer, di introdurre dei markers all’interno di una traccia musicale. Queste
istruzioni dicono all’audio engine di effettuare le transizioni in momenti musicalmente importanti, come ad esempio l’inizio di una specifica battuta. In
97
98
Dall’inglese, funzionalità.
Vedi sottosezione 9.8 a pagina 46: Variazioni di mix (layering ).
11.4
L’effetto di ducking
57
questo modo le transizioni possono essere gestite da matrici ed effettuate a
tempo per sembrare naturali evoluzioni musicali al giocatore99 .
11.4
L’effetto di ducking
L’effetto di ducking consiste nel ridurre il segnale di una traccia quando ci si
trova in presenza di un altro segnale. Questo effetto si ottiene abbassando
il volume (facendo il ducking, appunto) di una traccia audio secondaria nel
momento in cui viene eseguita una traccia più importante, e rialzandolo
nuovamente una volta che questa è finita. Il ducking è di fondamentale
importanza nel missaggio in tempo reale100 .
11.5
Il permutation weighting
Il permutation weighting 101 si utilizza per fare in modo che alcuni passaggi
musicali o SFX non si affidino troppo al looping ed in particolare per evitare
che il giocatore riesca a distinguere con facilità i suoni fortemente caratterizzati che si ripetono. Questa soluzione è stata utilizzata nella colonna
sonora di Halo (Bungie, 2001) e viene cosı̀ descritta da Marty O’Donnell e
Jay Weinland:
In molte situazioni avevamo diverse tracce che suonavano insieme
(ad esempio una traccia d’ambiente esterno e una traccia di vento), ognuna con multiple permutazioni nel loop principale, e suoni
isolati che venivano eseguiti in modo casuale e venivano collocati casualmente nello spazio tridimensionale. Una tecnica efficace
in questo caso (che fu utilizzata estensivamente anche nel campo
musicale) è il permutation weighting, ovvero l’abilità di assegnare probabilità differenti ad ogni permutazione in modo tale da
controllare quanto spesso una certa permutazione viene eseguita.
99
Vedi sottosezione 9.10 a pagina 49: Variazioni della forma (matrici di
transizioni).
100
Maggiori informazioni a riguardo nella sottosezione 16.1 a pagina 79: Il missaggio
in tempo reale.
101
Letteralmente dall’inglese, attribuzione di peso alle permutazioni.
12 La dipendenza dalla tecnologia
58
Per esempio, poniamo che ci siano sei permutazioni di un loop in
uno spazio esterno con lunghezze variabili da 2 a 8 secondi per
un totale di 27 secondi di materiale. In uno di questi loop si può
sentire chiaramente il verso di un gufo, che si ripeterebbe ogni
27 secondi in media, a volte un po’ di meno e a volte un po’ di
più. Se quel verso distintivo si ripetesse comunque con troppa
frequenza, possiamo utilizzare il permutation weighting per assegnargli un fattore di probabilità che istruisca il motore audio a
saltare questa permutazione l’x % delle volte. Aggiustiamo questo
valore fino a che potremo ascoltare quel verso cosı̀ distinto con
una frequenza che possa sembrare naturale.
12
La dipendenza dalla tecnologia
Gli audio engine non sono tutti uguali: alcuni sono molto completi, altri supportano soltanto le funzioni più basilari. Come avremo modo di approfondire
anche nella prossima sezione riguardante il processo di produzione, tutto ciò
che riguarda la realizzazione tecnica e artistica del sonoro di un videogioco
è fortemente condizionato dalle potenzialità dell’audio engine e della piattaforma per cui il prodotto viene programmato. Le specifiche hardware della
console, del PC o del dispositivo mobile e la programmazione del software
forniscono al compositore e agli altri membri della divisione audio un punto
di partenza imprescindibile per il loro lavoro, e parallelamente alle inevitabili
limitazioni del mezzo (che possono condizionare, ad esempio, la dimensione
dei file audio) offrono numerosi spunti per la realizzazione di un lavoro musicale creativo. Si può pensare alla tecnologia come ad un nuovo ensemble
a disposizione del compositore, che deve tener conto delle caratteristiche dei
suoi strumenti (tecnologici) nello stesso modo in cui si preoccuperebbe di
arrangiare al meglio un brano per quartetto d’archi o per orchestra.
59
Parte IV
Il processo di produzione
N.B.: diversi passaggi qui riportati sono tradotti e adattati da Game Sound
- An Introduction to the History, Theory, and Practice of Video Game Music and Sound Design di Karen Collins (The MIT Press, 2008), capitolo 5:
Game Audio Today: Technology, Process, and Aesthetic.
13
Premessa
Dopo aver studiato le caratteristiche dell’audio dinamico e i ruoli nel team di
sviluppo, questa parte descriverà passo dopo passo lo svolgimento del lungo
e complesso processo di produzione dell’audio di un video game.
Il processo di produzione dell’audio cambia notevolmente da videogioco
a videogioco. Generi differenti hanno bisogno di sonorizzazioni differenti: un
semplice puzzle game 102 probabilmente non richiederà dialoghi, ad esempio.
Inoltre, compagnie differenti hanno differenti budget e possono investire più o
meno denaro nella produzione. Il team audio di God of War 2 (Sony, 2007),
ad esempio, era composto da quattro compositori, tre orchestratori, tre ensembles (ottoni, archi e coro) e diversi musicisti esperti di strumenti etnici,
che andavano ad aggiungersi al team di programmazione e implementazione.
Le compagnie più piccole al contrario possono avere una o due persone che
svolgono tutti questi lavori insieme. Anche la piattaforma di destinazione
del gioco influenza il processo di produzione: i prodotti per le console domestiche di nuova generazione richiedono molti mesi o anche anni di lavoro,
mentre l’intera realizzazione del sonoro di un gioco per smartphone avviene
solitamente in qualche settimana.
L’esempio qui riportato ha come riferimento un team abbastanza grande
che comprende un compositore, un sound designer, un orchestratore, dei
doppiatori e dei programmatori. Verranno analizzati i processi che portano
102
Vedi nota 94 a pagina 52.
14 Pre-produzione
60
alla creazione di tutte e tre le componenti del sonoro - musica, SFX e dialoghi
- suddivisi nelle fasi di pre-produzione, produzione e post-produzione.
14
14.1
Pre-produzione
L’audio design document
Il primo passo verso la creazione dell’audio di un video game è la stesura
dell’audio design document. Questo, supplementare al game design document, specifica dettagliatamente il design e l’implementazione dell’audio nel
videogioco; ci possono essere documenti separati riguardanti musica, dialoghi e sound design. Non sempre si crea un audio design document (dipende
molto dal genere di videogioco e dallo sviluppatore) e talvolta, anche se viene
realizzato, lo sviluppo del gioco prende direzioni diverse e imprevedibili rispetto alla pianificazione iniziale. L’audio design document è progettato per
aiutare la divisione audio, ed ha particolare importanza per i programmatori
che lo utilizzano per implementare il suono nel videogioco.
Un team audio che comincia con un certo anticipo il processo di produzione potrebbe avere come unico materiale su cui lavorare storyboards, concept
art, un gameplay appena abbozzato, schizzi dei personaggi da cui sviluppare
un audio design document. Ciononostante, ci sono molte decisioni che possono essere prese in questo stadio di lavorazione in modo tale che l’elaborazione
del sonoro possa iniziare al più presto, assicurando cosı̀ un ruolo significativo
per l’audio all’interno del gioco.
14.2
La creazione di una temp track
Dapprima è necessario scegliere il tipo di gioco per determinare lo stile del
sound design e il genere musicale appropriato. La creazione di una temp track
è un modo piuttosto diffuso per individuare lo stile musicale da utilizzare.
La temp track utilizza musica preesistente al posto della composizione finale,
definendo i parametri di base a partire dai quali il compositore può lavorare
per realizzare la colonna sonora originale. Compositori diversi, ovviamente,
14.3
Il sonoro nel gameplay
61
hanno diversi approcci alla composizione. Koji Kondo ad esempio preferisce
vedere l’intero videogioco come un’unica composizione in cui ogni traccia fa
parte di un progetto più grande e completo. Quando si tratta di serie di
videogiochi, o di giochi in franchise, è anche importante considerare come il
suono si relaziona ai titoli precedenti, ai film associati, e cosı̀ via.
14.3
Il sonoro nel gameplay
Dopo aver determinato il carattere e lo stile, il secondo obiettivo fondamentale è quello di organizzare il comportamento dell’audio, ovvero come il suono
interagisce con il gameplay. In questa fase si decide se la musica sarà soltanto sporadica o se si tratterà di una colonna sonora molto presente, si
determina il ruolo che avrà il sound design, e viene pianificata l’interattività
e l’adattabilità del sonoro103 .
14.4
Spotting
Lo spotting è il passo successivo nello sviluppo del sonoro: in questa fase
si determinano i suoni ambientali e la musica per le diverse parti del gioco.
In modo specifico, questo comporta la definizione dei momenti di entrata e
di uscita delle musiche e la scelta delle variabili del gioco (come la salute
del giocatore, il terreno su cui si cammina e cosı̀ via) che influenzeranno i
parametri sonori. Kondo suggerisce di tenere a mente il ritmo del gameplay
quando si lavora allo spotting. È anche importante tenere conto dei controlli
e di come questi possano influenzare l’estetica del suono: se i tasti sono
premuti in rapida successione e il gameplay è caotico, il sonoro dovrebbe
essere altrettanto frenetico.
14.5
La cue list e la emotion map
Per quanto riguarda la musica, solitamente viene creata una cue list (o cue
sheet) provvisoria che suddivide lo script in atti, capitoli e sezioni, definendo ciò che deve accadere dal punto di vista musicale in modo essenziale e
103
Vedi sezione 5 a pagina 27: Sonoro interattivo e adattativo.
14.5
La cue list e la emotion map
62
schematico. È importante anche creare delle emotion map del videogioco
in generale e di ciascun livello in particolare che rappresentino graficamente
l’evolversi della tensione nel tempo (vedi figura 13).
Figura 13: Un esempio di emotion map per un livello di gioco
Scott B. Morton scrive a proposito delle emotion map:
Questo arco musicale è spesso più importante degli eventi in sè
perché può suggerire significati più profondi, più di quanto possano fare delle semplici azioni sullo schermo. . . I compositori non
dovrebbero pensare solo “Come suona questo livello?” ma pensare invece “Quale ruolo hanno questo livello e i suoi personaggi nel
grande schema del gioco e della trama? Come posso raffigurarlo
con la mia musica? Dove posso inserire la musica nel livello per
far risaltare questo aspetto della narrazione nel modo più efficace?” . . . Devi creare un climax musicale nel tuo gioco. Non usare
la tua musica più intensa fino a che non hai raggiunto il punto
essenziale nell’arco emozionale del gioco. Lo scontro con il boss
finale è più importante di quello precedente con il mini-boss? Fallo sentire nella musica. Un giocatore dovrebbe essere in grado di
interpretare a livello subconscio l’importanza degli eventi in base
alla musica che li accompagna.
La cue list aiuta quindi il compositore ad organizzare e progettare la colonna sonora, e al tempo stesso aiuta il programmatore ad implementare i file
14.6
La progettazione del sound design
63
nel videogioco. Organizzare i momenti in cui il gioco ha bisogno di musica
è un ottimo sistema per pianificare il tempo necessario alla composizione,
all’orchestrazione, alle sessioni di registrazione e agli altri aspetti della creazione della colonna sonora. Il frammento di cue list riportato in tabella 1
appartiene al gioco di ruolo online Earth Eternal (Turnout Ventures, 2009)
musicato da Jeff Simmons.
N˚
Nome file
Azione
01
02
dungeon01 Non loop
caverna01 Loop
2:07
1:37
03
04
05
deserto01
mistica01
gotica01
1:57
1:49
2:00
Non loop
Non loop
Non loop
Durata
Note
Leggermente drammatico, oscuro
Più spaventosa, più presentimento del dungeon, meno oscura di
tomba del re
Egizia/vagamente araba
Per i posti mistici
Oscurità con elementi metallici
Tabella 1: Esempio di cue list per le musiche di Earth Eternal
14.6
La progettazione del sound design
Lo stile del sound design viene deciso durante la fase di pre-produzione. Cosı̀
come accade per la musica, fare lo spotting e creare una asset list 104 da
utilizzare è il primo passo da compiere (la tabella 2 rappresenta una parte
dell’asset list di Earth Eternal ). Partendo dalla lettura dello script e del
design document, si ricercano i suoni per oggetti, azioni, ambienti, andature,
momenti di tensione e di rilascio, personaggi, e cosı̀ via. Lo spotting di un
gioco in termini di intensità emozionale del sound design è estremamente
importante: come abbiamo visto, c’è ritmo e movimento all’interno di un
singolo livello o di un intero gioco in termini di picchi e valli nelle sensazioni
percepite dal giocatore. Come accade per la musica, una emotion map che
rappresenti graficamente i punti di tensione e rilascio può aiutare il sound
designer a decidere quali suoni hanno bisogno di enfasi, quali possono coesistere con altri e quali hanno un’importanza secondaria. Le asset lists sono
104
Letteralmente dall’inglese, lista di risorse.
14.7
La progettazione dei suoni d’ambiente
64
spesso basate sulla descrizione dei livelli e sono suddivise in tipi di suoni (di
armi, d’ambiente, del menu, rumori e cosı̀ via).
Colpi d’arma
Spade
N˚
Nome file
50
51
52
53
54
55
56
57
58
spada
spada
spada
spada
spada
spada
spada
spada
spada
N˚
Nome file
59
60
61
62
63
64
65
66
67
bastone
bastone
bastone
bastone
bastone
bastone
bastone
bastone
bastone
Durata
carne impatto01
carne impatto02
carne impatto03
pelle impatto01
pelle impatto02
pelle impatto03
legno impatto01
legno impatto02
legno impatto03
0:01
0:01
0:01
0:01
0:01
0:01
0:01
0:01
0:01
Bastoni
carne impatto01
carne impatto02
carne impatto03
pelle impatto01
pelle impatto02
pelle impatto03
legno impatto01
legno impatto02
legno impatto03
Durata
0:01
0:01
0:01
0:01
0:01
0:01
0:01
0:01
0:01
Tabella 2: Esempio di asset list per il sound design di Earth Eternal
14.7
La progettazione dei suoni d’ambiente
I suoni d’ambiente hanno un’importanza cruciale nel creare l’atmosfera di
un gioco. Questi solitamente includono dialoghi d’ambiente e suoni esterni.
Creare un’atmosfera (di sicurezza, eccitazione, etc.) serve a preparare il
giocatore per una situazione particolare, o per ingannarlo facendogli pensare
14.8
L’asset list finale
65
che un’area è sicura mentre in realtà non lo è (o viceversa). Steve Kutay,
sound designer a Radius360105 , dice:
L’impatto psicologico dei suoni d’ambiente può aggiungere moltissimo all’immagine sullo schermo anche se questi non sono fisicamente presenti sulla scena. Ad esempio, il pianto distante e
continuo di un bambino può suggerire vulnerabilità o insicurezza. Un recinto rotto che sbatte a causa del vento in una città
abbandonata suggerisce al giocatore che in passato è avvenuto
qualcosa di drammatico. Questi sono dei casi in cui si accresce la
consapevolezza nel giocatore. Suoni più scontati possono essere
utilizzati per avvertire il giocatore della prossimità del pericolo.
Droni oscuri e voci ovattate dei nemici prepareranno il giocatore
a un violento combattimento. La paura, l’anticipazione e l’ansia possono essere facilmente evocate da un attento uso dei suoni
d’ambiente.
Per fare in modo che i SFX ambientali siano realistici, e per evitare soprattutto che il giocatore riconosca con facilità i suoni che si ripetono, si
utilizza la tecnica del permutation weighting 106 .
14.8
L’asset list finale
Terminata la progettazione, viene stilata la lista di tutto il materiale sonoro
necessario alla produzione del video game. L’asset list finale è strutturata
in diverse sotto-liste per il sound design, la musica, i dialoghi, e per tutti i
contenuti audio aggiuntivi (per la promozione e il marketing, per i trailer, e
cosı̀ via).
14.9
Considerazioni tecniche
A questo punto è necessario considerare le caratteristiche e le limitazioni
tecniche delle piattaforme di destinazione del gioco, tra cui quanti canali
105
Radius360 è un’azienda con base a Los Angeles specializzata nella creazione di effetti
sonori per videogiochi.
106
Vedi sottosezione 11.5 a pagina 57: Il permutation weighting .
14.10
Tabella di marcia e preventivo
66
sonori ci sono a disposizione, se il suono sarà surround, quale frequenza di
campionamento e quale algoritmo di compressione devono essere adottati,
etc. Sulla base di tutti questi dati vengono elencati gli strumenti necessari
all’implementazione del sonoro nel gioco, la tecnologia già disponibile nello
studio e quella invece da sviluppare o comprare. Molte volte l’utilizzo di
un middleware si rivela la soluzione più semplice, in quanto permette di
risparmiare tempo e di avere a disposizione uno strumento potente, affidabile
e ottimizzato per ogni piattaforma.
14.10
Tabella di marcia e preventivo
Infine vengono realizzati una tabella di marcia e il preventivo dei costi di produzione dei materiali sonori (varie sessioni di registrazione, implementazione
e tutti i processi che vedremo nella sezione seguente) e di post-produzione
(testing 107 , controllo della qualità, etc.).
15
15.1
Produzione
Composizione e registrazione
Se lo spotting della musica non era stato fatto nella fase di pre-produzione,
questo avverrà su una versione stabile e giocabile del video game (quando disponibile). Se cosı̀ non fosse, i compositori possono creare una serie di scratch
tracks, ovvero delle bozze di interventi. Ogni compositore ha tipicamente il
suo modo di lavorare in questa fase, ma il processo di creazione può dipendere anche dalla grandezza del team di sviluppo: le compagnie più piccole non
utilizzano orchestre ma campionatori e sintetizzatori, più abbordabili economicamente e le cui tracce possono essere rielaborate più facilmente nel caso
ci fossero modifiche da fare. Nelle compagnie più grandi, una volta che le
scratch tracks sono state approvate queste vengono affidate agli orchestrato107
Il collaudo del software (detto anche testing) è un procedimento utilizzato per individuare le carenze di correttezza, completezza e affidabilità delle componenti software in
corso di sviluppo. Consiste nell’eseguire il software da collaudare e nel valutare se il suo
comportamento rispetta i requisiti.
15.2
La realizzazione del sound design
67
ri. Le partiture definitive vengono poi consegnate agli ensemble unitamente
a dei pre-records realizzati con l’ausilio degli strumenti virtuali, che fungono
da riferimento. Si effettuano infine le sessioni di registrazione, il missaggio e
il mastering delle tracce.
15.2
La realizzazione del sound design
La produzione del sound design di un videogioco ha tipicamente luogo nell’arco di diverse sessioni. Nello studio di registrazione vengono spesso utilizzati effetti sonori provenienti da librerie, che vengono manipolati fino a
raggiungere il risultato voluto. Nello studio è talvolta possibile registrare
suoni completamente nuovi: alcune compagnie dispongono di spazi attrezzati dedicati ai rumoristi. Si realizzano spesso dei field recordings, ovvero
registrazioni di ambienti. Una volta che tutti i materiali sonori sono stati
raccolti, questi vengono alterati e perfezionati in studio utilizzando diversi
effetti e tecniche per raggiungere il suono più adatto al gioco e per distinguere
certi sample da quelli presenti in altri video games che utilizzano di partenza
le stesse librerie. Questo solitamente comporta l’utilizzo di tecniche quali il
layering 108 , l’equalizzazione, la compressione, o altri DSP109 .
15.3
L’utilizzo di DSP in tempo reale
Una delle nuove tecnologie che ha consentito passi avanti importanti nella
qualità del sound design è stata l’introduzione di DSP più potenti che riescono a processare i suoni in tempo reale (ovvero mentre si sta giocando).
Questa possibilità fa risparmiare molto tempo in fase di registrazione, consente di economizzare lo spazio richiesto dai campioni e al tempo stesso è
una soluzione versatile che aumenta il realismo dell’esperienza di gioco. In
passato, per far cambiare il suono dei passi da un terreno roccioso a quello
dell’interno di una grotta i campioni venivano registrati separatamente: a
ogni luogo del gioco erano attribuiti i suoi specifici sample. Ora invece si
108
Si parla di layering quando si ottiene un nuovo suono a partire dalla sovrapposizione
di due o più sample.
109
Vedi nota 77 a pagina 44.
15.4
Dialoghi e voce fuori campo
68
possono aggiungere DSP diversi a seconda del luogo in cui il giocatore si trova, mentre i campioni di base restano gli stessi. In questo modo è necessaria
una sola registrazione di passi per creare potenzialmente infinite variabili a
seconda del luogo. In altre parole, l’utilizzo di DSP in tempo reale permette
di creare effetti sonori più realistici e dinamici nel gioco risparmiando spazio
nella memoria. Ecco cosa ne pensa Sotaro Tojima, sound director di Metal
Gear Solid 4: Guns of the Patriots (Kojima Productions, 2008):
Ad esempio, se una bottiglia cade da un tavolo, colpisce una pala
di metallo e poi rotola su un tappeto, il sound processing convenzionale affibbierebbe un unico suono ai diversi eventi indipendentemente dall’ambiente e dall’oggetto urtato. Sulla PlayStation 3
in questo stesso scenario la bottiglia farebbe un rumore metallico
quando colpisce la pala, e poi un suono attutito e continuo mentre rotola sul tappeto. Nel caso la stanza avesse delle peculiarità
sonore il rumore della bottiglia genererebbe un’eco se ci si trova
in un bagno, mentre sarebbe più attenuato se l’ambiente è una
camera da letto. Bisogna poi calcolare in tempo reale il posizionamento nel panorama surround, che modificherà il panning
mentre la bottiglia scivolerà verso il fondo della stanza, o da una
parete all’altra, in funzione della direzione in cui rotolerà.
15.4
Dialoghi e voce fuori campo
Il team audio supervisiona solitamente anche la produzione dei dialoghi e
della voce fuori campo, dato che questi devono essere mixati con il resto
dell’audio nel gioco. Agli albori dei dialoghi nei videogiochi, per registrare
le voci venivano spesso ingaggiati gli amici degli sviluppatori; oggi vengono
chiamati solitamente attori professionisti e il processo in generale è molto
più curato. Il dialogo è una parte importante del suono complessivo di un
videogioco, come i già citati Marty O’Donnell e Jay Weinland sostengono
parlando di Halo:
I dialoghi in Halo furono uno degli elementi che aiutarono a dare
al gioco una caratterizzazione unica. Ci sono due tipi di dialogo:
15.4
Dialoghi e voce fuori campo
69
il dialogo cinematografico, che segue un tradizionale script lineare, e il dialogo dinamico. Mentre stai giocando ad Halo, i tuoi
Marines ti allerteranno dinamicamente su cosa sta succedendo intorno a te, avvisando il tuo personaggio e i compagni del pericolo,
si sgrideranno tra loro, si scuseranno per aver sparato o ucciso degli alleati, ti loderanno. Questo aspetto del sonoro di Halo non
avrebbe potuto esistere senza il duro lavoro del programmatore
di AI110 Chris Butcher, che ci mise a disposizione diversi possibili parametri dell’AI in base a cui un personaggio potrebbe dire
qualcosa; è inoltre possibile controllare quante frasi vengono dette per far sembrare la conversazione naturale. . . Anche il dialogo
cinematografico funziona bene, sia per l’ottima trama scritta dal
team Bungie, sia per l’eccellente sceneggiatura di Joseph Staten.
Gli script per le cut scenes e altre scene interne al gameplay furono scritte e strutturate in modo tale da far capire chiaramente
la trama al giocatore. Ci sono circa un’ora e quindici minuti
di cut scenes nel nostro gioco, che pongono questa parte della
produzione di Halo alla pari di un breve lungometraggio.
I dialoghi possono essere cosı̀ categorizzati:
• eventi presenti nello script (ovvero scene facenti parte del gioco, in cui
il giocatore può anche andare via e non ascoltare i dialoghi ma cosı̀
facendo perderebbe informazioni importanti);
• cinematografici (ovvero presenti nelle FMV111 );
• dialoghi ambientali (chiamati anche walla, costituiscono il sottofondo
dei luoghi dove ci sono altre persone che parlano, come ad esempio una
città, un negozio, etc.);
110
Artificial Intelligence, intelligenza artificiale.
Un Full Motion Video (FMV) è una tecnica di narrazione propria dei videogiochi.
Invece di fare uso di sprite, vettori o modelli 3D, questi filmati raffigurano azioni nel
gioco attraverso sequenze prerenderizzate. Molti videogiochi sfruttano questa tecnica per
presentare informazioni nelle cut scenes.
111
15.4
Dialoghi e voce fuori campo
70
• suoni generati dall’AI (conosciuti anche come barks, latrati, sono esclamazioni non verbali come ad esempio le urla);
• la narrazione della voce fuori campo;
Tutti insieme, questi dialoghi contano migliaia di righe nello script: quello
di Halo 2 (Bungie, 2004), ad esempio, arriva a più di sedicimila.
I dialoghi devono essere attentamente catalogati, cosı̀ come succede per i
suoni e le musiche. Uno script può essere organizzato in un cue sheet in base
al personaggio o alla scena (vedi tabella 3).
Nome file
Pers.
Luogo
Dialogo
Sh001
Sharon
Lv.3 grotta
“Aiuto!”
Kev001
Kevin
Lv.3 grotta
“Tieni
duro!
Arrivo!”
Mostro001 Mostro1 Lv.3 grotta
(esterno)
“Grrrauh!”
Kev002
“Cos’è
stato?”
Kevin
Lv.3 grotta
Reg. orig.
DSP FX
Note
Riverbero
grotta03
Tieni duro!
Riverbero
grotta03
DSP da
inserire
Riverbero
grotta03
Tabella 3: Esempio di cue sheet per i dialoghi
Generalmente, gli studi sfruttano singoli attori per doppiare diversi ruoli.
È importante, per questo motivo, che la cue sheet sia organizzata attentamente in modo tale che all’attore non capiti di “parlare con se stesso”
all’interno del gioco. Negli studi le voci vengono registrate personaggio per
personaggio piuttosto che in ordine sequenziale, e per questo vengono creati
dei recording sheets per ogni attore. I dettagli riguardanti il cosiddetto asrecorded script 112 devono essere annotati. I dialoghi sono spesso registrati
negli studi ADR113 , che risultano funzionali anche al lavoro sul parlato nei
112
L’ARS (As-Recorded Script) è letteralmente dall’inglese lo script come è stato registrato, ovvero quella versione della sceneggiatura che comprende le modifiche - solitamente
lievi - che vengono introdotte durante le sessioni di registrazione.
113
L’Automated Dialogue Replacement o ADR è, anche nel cinema e nella televisione, il
processo di registrazione dei dialoghi in studio dopo che la scena è stata girata. Originariamente nel cinema si utilizzava questa tecnica per sostituire un suono in presa diretta
scadente.
15.5
Localizzazione
71
videogiochi oltre che nel cinema. La qualità dei file dry 114 viene accertata; questi vengono poi tagliati in modo che ognuno comprenda una singola
frase per favorire il processo di integrazione nel gioco. I file risultanti vengono infine modificati con l’aggiunta di effetti quando necessario. Sessioni
di registrazione addizionali e nuovi take vengono spesso richiesti nel caso in
cui i risultati non soddisfino la produzione o lo script subisca modifiche o
ampliamenti.
15.5
Localizzazione
Un aspetto della produzione del sonoro che negli anni è diventato sempre
più complesso è la localizzazione, ovvero il processo per cui un videogioco
viene adattato ad un territorio o ad un mercato specifico. La localizzazione,
quando viene effettuata, include tipicamente le lingue europee più diffuse
(francese, tedesco, spagnolo e italiano) e può anche comprendere i mercati
asiatici. Tutto il processo di produzione dei dialoghi deve essere rifatto per
ognuna delle lingue scelte. A volte, per questioni di tempo e soprattutto
di budget, questo non succede e vengono invece introdotti i sottotitoli. Le
versioni localizzate possono essere finalizzate insieme alla versione originale
(processo noto come sim-ship 115 ), o post-gold, in cui gli adattamenti vengono
invece effettuati una volta che il prodotto originale è già stato completato.
Assicurarsi un mercato vasto in termini di distribuzione aiuta a minimizzare
alcuni dei rischi economici della produzione di un gioco. La localizzazione
dipende spesso dal genere, come sostiene la Game Localization Network116 :
Distribuire un gioco con il manuale cartaceo tradotto potrebbe
essere sufficiente per un gioco di corse, ma non servirà a coinvolgere e aiutare i giocatori di un RPG117 . Un RPG indirizzato a un
114
Letteralmente dall’inglese, asciutto. Si tratta di quei suoni che non sono stati
modificati attraverso l’aggiunta di effetti. Il suo contrario è wet, umido.
115
L’abbreviazione sim-ship deriva da simultaneous shipping, ovvero distribuzione
simultanea per un lancio mondiale.
116
La Game Localization Network è una compagnia con sede a Dublino specializzata
nella localizzazione di videogiochi.
117
RPG è l’acronimo di Role Playing Game, ovvero Gioco Di Ruolo (GDR).
15.5
Localizzazione
72
largo mercato può trarre beneficio da una localizzazione “completa” (interfaccia utente, testi nel gioco, audio parlato, manuale
e documenti di supporto); un gioco simile per un mercato più
piccolo potrebbe invece essere distribuito in una versione con i
sottotitoli, e in questo modo [il produttore] risparmierebbe sui
costi delle registrazioni audio.
La localizzazione è necessaria per creare un ambiente di gioco realistico
indipendentemente dalla lingua del giocatore. Si tratta infatti di qualcosa di
più di una semplice traduzione: l’interfaccia utente deve mantenersi intuitiva, la storia deve risultare fine e ricercata come nell’originale e l’audio deve
essere altrettanto realistico e avvincente. La localizzazione può includere anche differenze nei controlli e nelle animazioni, e molto spesso anche differenti
frame-rate a seconda degli standard del paese di destinazione, che richiedono quindi adattamenti nell’audio. È importante tener conto che potrebbero
esserci differenze culturali significative nei vari paesi, che possono richiedere
cambiamenti anche significativi nelle versioni localizzate del gioco. Musiche
differenti possono essere selezionate per differenti mercati. Problemi legali o
culturali possono sorgere da differenti sistemi di rating 118 nei vari territori,
dovuti alla censura e all’opinione pubblica. La Germania, ad esempio, ha
leggi molto restrittive riguardanti la violenza: per la localizzazione tedesca
quindi è possibile che gli sviluppatori siano costretti ad abbassare il volume
degli effetti sonori relativi alle azioni di questo tipo. Nei casi in cui la narrazione di un gioco venga significativamente rivisitata per una cultura differente
si parla di blending. Questo può comportare la scrittura di nuove narrazioni
indirizzate a una cultura specifica e a questo scopo possono diventare necessari anche nuovi elementi grafici e sonori. Esempi di giochi sottoposti a
blending sono i celebri Crash Bandicoot (Naughty Dog, 1996), in cui l’aspetto
del protagonista fu modificato per il mercato giapponese, e Half-Life (Valve,
118
Dall’inglese, classificazioni. Si tratta di sistemi utilizzati per garantire che forme di
intrattenimento quali film, video, DVD e videogiochi siano chiaramente etichettate per
gruppi di età a seconda del loro contenuto. Queste classificazioni forniscono indicazioni
ai consumatori (in particolare ai genitori) e li aiutano a decidere se acquistare o meno un
particolare prodotto. Vedi anche sottosezione 2.2 a pagina 15: I titoli che presentano
violenza.
15.6
L’integrazione
73
1998), in cui gli sviluppatori dovettero sostituire i personaggi umani con dei
robot per soddisfare diversi standard di rating della violenza. Ovviamente, il
cambio di personaggi da umani a macchine comporta significative modifiche
nel campo dell’audio.
15.6
L’integrazione
Lo stage finale nel processo di produzione dell’audio è l’integrazione di musica, effetti sonori e dialoghi nel videogioco. Questo richiede ben più della
scrittura di qualche riga di codice. Come descrive Marty O’Donnell:
Il processo di implementazione è un grosso lavoro. . . non si tratta
soltanto di “Abbiamo bisogno di un suono”. Si tratta di “Qui
c’è questo veicolo, o qui c’è quest’arma, che ha molte componenti
diverse e molti differenti modi di comportarsi in un ambiente
audio 3D”.
Secondo O’Donnell l’implementazione è responsabile per almeno il 50% del
risultato sonoro finale: il modo in cui l’audio è integrato in un gioco avrà
un impatto decisivo sulla sua efficacia. Tipicamente l’integrazione determina come il sonoro viene richiamato (attraverso i cosiddetti triggers) e quali
aspetti dell’audio devono essere modificati dai parametri di gioco. Ad esempio, certe musiche o certi loop ambientali possono essere innescati dal luogo,
da variabili come la salute del giocatore o quella del nemico, da conti alla
rovescia, da un’azione del giocatore stesso e cosı̀ via.
I file con le registrazioni delle musiche devono poter essere integrati nel
video game in modo da permettere numerose combinazioni. Integrare la musica comporta infatti la sua suddivisione in split 119 , loop o chunk 120 in modo
da creare una traccia complessiva dinamica attraverso l’uso delle tecniche che
abbiamo precedentemente descritto121 . Come descrive John Debney:
119
Dall’inglese, porzioni.
Dall’inglese, grossi pezzi.
121
Vedi sezione 8 a pagina 35: La non linearità nei videogiochi e sezione 9 a pagina
41: Dieci metodi di variazione nella musica dinamica.
120
15.6
L’integrazione
74
C’erano quasi due ore di musica, che per un gioco non è molto.
[I programmatori] Prendono quelle due ore e le ritagliano trasformandole in ore e ore di musica. . . il processo di scrivere musica
che fossero in grado di tagliare facilmente è importante. Molti
dei pezzi per le scene d’azione sono piuttosto ritmici, in modo
che potessero essere tagliati molto facilmente.
15.6.1
L’utilizzo di middleware per l’integrazione
Diversi altri elementi musicali possono essere modificati in tempo reale dal
motore di gioco, come gli effetti DSP, il tempo metronomico e la strumentazione. Middleware 122 come Wwise, FMOD Studio, ISACT e altri vengono
utilizzati sempre più spesso per ridurre i tempi e i costi di produzione e per
integrare un sonoro più dinamico nel gioco. Il software Wwise della compagnia canadese Audiokinetic, ad esempio, consente agli audio developers di
realizzare un prototipo di integrazione dell’audio in una simulazione del gioco
prima che questo sia completato. Suoni d’ambiente possono essere sintetizzati in tempo reale, e effetti di ostruzione123 e occlusione124 sono gestiti dal
software. È inclusa anche l’organizzazione del suono in base alle priorità per
un missaggio in tempo reale125 , cosı̀ come la randomizzazione126 di elementi quali pitch e volume per aumentare il realismo degli SFX127 . I parametri
di gioco possono essere simulati in modo da implementare l’adattabilità e
l’interattività del sonoro. Un altro aspetto importante è che i middleware
consentono di adattare la programmazione dell’audio a molte possibili piat122
Vedi nota 73 di pagina 42.
L’ostruzione è il fenomeno per cui la percezione di un suono viene ostacolata dalla
presenza di oggetti posizionati tra la sorgente sonora e l’ascoltatore. Gli ostacoli non
bloccano completamente il suono, cosı̀ come succederebbe con la luce: il suono infatti
viene riflesso e arriva all’ascoltatore da diverse direzioni, ognuna delle quali è attutita in
modo differente.
124
A differenza dell’ostruzione, nell’occlusione c’è una parete tra il suono e l’ascoltatore.
Il suono risulterà quindi attutito o del tutto inudibile in base al materiale del muro e alla
vicinanza della fonte e dell’ascoltatore ad esso.
125
Vedi sottosezione 11.5 a pagina 57: Il permutation weighting .
126
La randomizzazione è il processo di assegnazione di valori casuali ad una variabile.
127
Vedi sottosezione 9.2 a pagina 42: Variazioni di pitch.
123
15.7
Il posizionamento dei suoni nel panorama surround
75
taforme di destinazione e di gestire le performance in termini di utilizzo di
CPU e memoria per ottimizzare le prestazioni.
15.7
Il posizionamento dei suoni nel panorama surround
Una fase importante della produzione è il posizionamento dei suoni nello
spazio tridimensionale. L’utilizzo del formato ad alta definizione (HD) nei
televisori e nei monitor e l’adozione dei sistemi di diffusione 5.1 hanno portato
a una crescita della domanda nei consumatori di un suono surround nei
videogiochi. Ormai tutte le console sono compatibili con il surround Dolby
Digital 5.1; alcuni sistemi di gioco permettono anche la diffusione del sonoro
in 7.1. Il suono surround è diventato lo standard e quindi sarà sempre più
richiesto mano a mano che gli utenti aggiorneranno i loro impianti hometheater. La posizione spaziale del suono sta diventando un aspetto sempre
più importante del gameplay. Il suono surround viene utilizzato per aiutare
a creare un ambiente realistico ed immersivo, come spiega Richard Dekkard
(fondatore e audio director di Orphic Media) a proposito dell’uso di questa
tecnica in Auto Assault (NetDevil, 2006):
Tutto ciò che si muove nel gioco viene pannato dinamicamente
nel panorama surround. Questo include tutti i veicoli, i nemici, le esplosioni, etc. Anche i suoni emessi da oggetti stazionari
vengono pannati in questo modo. [. . . ] Ad aggiungersi a questi
elementi interattivi, abbiamo sei livelli di suoni surround “preconfezionati”: i suoni di armi, la musica, il tempo atmosferico,
l’audio d’ambiente, i suoni dell’interfaccia utente e l’esplosione
del tuo stesso veicolo. Sono tutti pannati nel panorama surround.
Abbiamo sviluppato questo aspetto al massimo.
La tecnologia surround può essere utile non soltanto per la sua caratteristica immersiva ma anche per dare al giocatore degli indizi sonori. Un
esempio è l’uso del surround per Shadow Mario in Super Mario Sunshine per
Nintendo Game Cube (Nintendo, 2002), dove il posizionamento dell’audio
15.7
Il posizionamento dei suoni nel panorama surround
76
suggerisce al giocatore il luogo in cui questo personaggio invisibile comparirà. Un altro utilizzo interessante del suono surround si trova in Onimusha 3:
Demon Siege (Capcom, 2004), dove il giocatore può scegliere la sua posizione
di ascolto scegliendo tra la prospettiva sonora percepita dal protagonista del
gioco o dal punto di vista della “telecamera”. Il suono surround può quindi
giocare una molteplicità di ruoli importanti all’interno dei videogiochi, come
confermano Marty O’Donnell e Jay Weinland parlando di Halo:
Sapere che un Marine ti “copre le spalle” e sentire la sua voce
provenire da sopra la tua spalla destra ti dà sicurezza, cosı̀ come sentire l’armatura metallica di un hunter 128 dietro di te ti
trasmette un senso di pericolo incombente. Molti degli elementi sonori nel gioco sono posizionati tridimensionalmente, come
gli effetti sonori delle armi, gli impatti dei proiettili, i dialoghi,
gli oggetti meccanici, le particelle come il fango o le scintille e
i dettagli ambientali come gli animali selvatici, i fiumi e le cascate. Fondamentalmente, tutto ciò che si può ascoltare in Halo
che non sia la musica o un tappeto ambientale è posizionato in
3D. . . Tutto l’audio 3D è soggetto a occlusione129 , ostruzione130 ,
effetto Doppler131 e HRTF132 . Ogni volta che un elemento solido
si trova tra il giocatore e una sorgente sonora, questa viene occlusa o ostruita. Un buon esempio di questo si può riscontrare
nell’hangar della nave aliena, dove si trova una navicella con il
motore acceso. Nel momento in cui Master Chief 133 si muove dietro a una colonna, il suono del motore viene occluso, ovvero viene
128
Si tratta di uno dei nemici più pericolosi del gioco.
Vedi nota 124 a pagina 74.
130
Vedi nota 123 a pagina 74.
131
L’effetto Doppler è un fenomeno fisico che consiste nel cambiamento, rispetto al valore
originario, della frequenza percepita da un osservatore raggiunto da un’onda emessa da
una sorgente che si trovi in movimento rispetto all’osservatore stesso. Nel caso in cui la
sorgente e l’osservatore si muovano entrambi rispetto al mezzo di propagazione delle onde,
l’effetto Doppler totale deriva dalla combinazione dei due movimenti.
132
L’HRTF (Head-Related Transfer Function, ovvero “funzione di trasferimento relativa
alla testa”) è il modo in cui l’orecchio percepisce un suono da un particolare punto nello
spazio.
133
Il protagonista del gioco, che viene controllato dal giocatore.
129
15.8
Il mastering
77
abbassato il suo volume e le sue frequenze più acute. . . L’HRTF
contribuisce all’esperienza sonora filtrando i suoni in base alla direzione puntata dalla testa del protagonista. Lo si può percepire
nei dialoghi delle sequenze FMV cosı̀ come nei suoni durante i
combattimenti. Probabilmente il miglior modo per sentire questo effetto è però ascoltare i propri stessi passi. Quando in Halo
muovi Master Chief in giro, ascolta i suoni dei suoi passi su diverse superfici. Poi, corri attraverso le stesse aree guardando giù
verso i suoi piedi piuttosto che in avanti, e ascolta quegli stessi
passi: la differenza è incredibile.
15.8
Il mastering
Il processo di mastering viene effettuato sui singoli suoni (dialoghi, effetti,
etc.): questo consente di regolare al meglio la loro escursione dinamica. Attualmente, il range dinamico nei videogiochi è ancora molto piccolo. Con il
mastering in tempo reale le informazioni sonore non volute possono essere
rimosse per ottenere una gamma dinamica più realistica e cinematografica.
Come sostiene Alexander Brandon134 :
Una fissazione di molta gente che lavora sull’audio aggrappandosi
ai BBE Sonic Maximizer135 è che tutti i suoni abbiano bisogno di
essere normalizzati136 a livelli super-alti, creando in alcuni casi file
WAV che in Sound Forge 137 assomigliano a mattoni massicci. . . un
bilanciamento adeguato dei range dinamico e frequenziale è vitale
per evitare di macellare le orecchie dell’ascoltatore medio.
134
Alexander Brandon è un musicista e compositore statunitense. Ha composto musica
principalmente per videogiochi prodotti da Epic Games e altri titoli che si basano sulla
loro tecnologia: Unreal (Epic Games, 1998), Unreal Tournament (Epic Games, 1999),
Deus Ex (Ion Storm, 2000), Tyrian (Eclipse Productions, 1995), Jazz Jackrabbit 2 (Epic
MegaGames, 1998).
135
Il BBE Sonic Maximizer è un effetto in un’unità rack che permette di massimizzare il
volume di un segnale sonoro fino a 0 dB.
136
La normalizzazione consiste nel rendere massimo il livello di un segnale audio senza
introdurre distorsione.
137
Sound Forge è un software di audio editing digitale creato da Sony Creative Software.
16 Post-produzione
78
Rob Bridgett138 sostiene che una ragione alla base di questa carenza di range
dinamico è forse da imputare al fatto che. . .
[. . . ] i videogiochi nacquero nelle sale giochi, dove dovevano
competere con i suoni delle console vicine.
L’audio quindi doveva essere molto forte per attirare l’attenzione. Procede
sostenendo che la “cinematizzazione” dei giochi sta cambiando il loro posizionamento culturale e quindi li sta portando verso un’estetica più vicina al
cinema, dove tutto il materiale audio richiede una certa “etichetta di ascolto”,
dove. . .
[. . . ] ci si aspetta che venga ascoltato in un ambiente silenzioso
e che l’ascoltatore gli presti totale attenzione, visto che non deve
competere simultaneamente con altri suoni.
16
Post-produzione
La post-produzione nei videogiochi riguarda tipicamente il missaggio, ovvero l’aggiustamento di volume e contenuto frequenziale di musica, dialoghi
ed SFX per fare in modo che non si disturbino tra loro; nel mix si decidono inoltre quali di questi elementi enfatizzare e a quali invece dare minore
importanza. Il missaggio deve evitare quelli che Charles Deenen139 chiama
believability gaps 140 : silenzi fastidiosi, troppe ripetizioni, bilanciamenti innaturali (nell’equalizzazione, nel range dinamico, e cosı̀ via), o dialoghi poco
realistici. Il missaggio è un processo di cui bisognerebbe idealmente tenere conto durante tutta la fase di progettazione del sonoro. Ed Lima, audio
director presso Gearbox Software, dice a riguardo:
138
Rob Bridgett è un sound designer, sound mixer e audio director per i videogiochi
canadese. Ha lavorato, tra gli altri, a Sudeki (Climax, 2004), Scarface: The World Is Yours
(Radical Entertainment, 2006), Prototype (Radical Entertainment, 2009) e Prototype 2
(Radical Entertainment, 2012).
139
Charles Deenen (Holthees, Olanda, 1970) è un compositore, audio director, sound
designer e addetto al mix per i videogiochi. È anche conosciuto per il suo lavoro sulla
musica e il sonoro in generale nei videogiochi dell’era di Commodore 64 e Amiga.
140
Letteralmente dall’inglese, lacune di credibilità.
16.1
Il missaggio in tempo reale
79
Penso al missaggio durante tutto il processo di design. Generalmente tento di organizzare i suoni in famiglie a seconda delle
loro caratteristiche frequenziali. Ad esempio, le esplosioni tendono ad avere molte frequenze basse, la voce fuori campo occupa
una banda più alta, e la musica può essere composta con specifici
strumenti e, di conseguenza, frequenze.
I suoni nei video games sono, in un certo senso, in competizione tra di loro
- dialoghi, effetti, ambiente e musica occupano tutti lo stesso spazio sonoro. In particolar modo, visto che i dialoghi e gli SFX di, ad esempio, un
combattimento sono spesso nel range centrale di frequenze, c’è un costante
rischio di creare ciò che il sound designer del cinema Walter Murch chiama
una logjam 141 . Se il personaggio si trova in uno spazio aperto e mentre sta
parlando con un NPC sente uno sparo in lontananza, se il compositore ha
scelto di includere molte frequenze centrali in quel passaggio (ad esempio un
rullante e una chitarra), lo sparo, la conversazione, e/o la musica verranno
coperti. Considerando che questo è sempre stato un problema nel sonoro
cinematografico e di altri media lineari, nei giochi l’aggiunta dell’imprevedibilità dettata dal non sapere il momento in cui questi eventi si presenteranno
fa sı̀ che il missaggio diventi un compito ancora più impegnativo.
16.1
Il missaggio in tempo reale
Il missaggio in tempo reale permette di dare una priorità ad ogni evento
sonoro: in questo modo, se il giocatore deve ascoltare il dialogo per sapere
quale sarà il suo obiettivo successivo, la musica di un ipotetico suono esplosivo
in lontananza verrà abbassata nel mix. Si tratta del già descritto effetto di
ducking 142 . Come descrive Bridgett:
Effettuare il ducking su musica e SFX durante i dialoghi è un modo molto semplice di raggiungere un risultato più cinematografico
nei videogiochi e anche di assicurare che le informazioni essenziali
141
Letteralmente dall’inglese, “ingorgo di tronchi in un fiume” (la metafora è calzante).
In senso figurato, ingorgo, caos.
142
Vedi sottosezione 11.4 a pagina 57: L’effetto di ducking .
16.1
Il missaggio in tempo reale
80
vengano veicolate e siano chiaramente udibili. Il processo di missaggio interattivo coinvolge un gran numero di effetti sonori con
le relative priorità che devono essere sentiti in momenti designati
del gameplay e a volte abbassare completamente il volume di un
suono è l’opzione migliore. Fare il ducking permette di sottrarre
suoni secondari in modo tale che tu non debba alzare il volume di
tutto per riuscire a sentire. . . Sottrarre dinamicamente frequenze
da una traccia musicale è, ad esempio, un ottimo modo di lasciare
spazio a disposizione quando ci sono dialoghi.
Come sostiene Bridgett, i precedenti tentativi di missaggio nei giochi consistevano nell’inserire limiter e comprimere all’estremo i suoni e la musica
perché potessero coesistere. Nei casi in cui era presente un sistema elementare di missaggio, l’implementazione (via righe di codice) era problematica e
poco efficace. In un certo modo, dice Bridgett, era quasi un bene che questi
vecchi sistemi non potessero gestire un grosso ammontare di informazioni
sonore in contemporanea:
Le console di nuova generazione, con memorie espanse, un numero maggiore di voci disponibili e codec di compressione audio più
sofisticati come XNA di Microsoft e ATRAC di Sony che permettono una qualità di sample rate ragionevole con una compressione
di circa 10:1, fanno sı̀ che l’ammontare di suoni che possono essere
eseguiti sia incrementata di almeno dieci volte. Questo comporta
che il missaggio in tempo reale nel gioco abbia un ruolo molto più
importante, perché deve prevenire una cacofonia di effetti sonori. Assegnare un numero finito di voci a disposizione è un modo
rozzo di aggirare il problema, ma poi possono sorgere complicazioni perché suoni davvero importanti possono non essere eseguiti in quanto altri più importanti stanno suonando. Il missaggio
nei video games, cosı̀ come nel cinema, si basa sulla sottrazione
piuttosto che sullo spingere in alto i volumi. Nel missaggio, si
richiede spesso un leggero ducking per garantire a un gruppo più
importante di suoni di emergere sopra agli altri.
16.2
16.2
La necessità di un audio engine intelligente
81
La necessità di un audio engine intelligente
Ci sono ancora diversi passaggi procedurali necessari e aspetti tecnici che
devono essere esplorati dagli audio designers di videogiochi. In particolare,
gli aspetti psicologici del missaggio possono essere una sfida, perché il mix
più efficace può non essere il più realistico: se ad esempio consideriamo un
film qualsiasi dove il protagonista cammina per un’affollata strada di città, il
pubblico sentirà principalmente il monologo interiore dei pensieri del personaggio e non i suoni del traffico. Ciò di cui si ha bisogno è un motore audio
intelligente che possa prendere diversi materiali audio, filtrarli con i DSP in
base ai vari parametri di gioco, a volte sintetizzando i suoni stessi, missare e
pannare in tempo reale, fare il mastering e quindi far uscire il suono perché
venga ascoltato dal giocatore (vedi figura 14).
Figura 14: Un esempio di motore audio intelligente
Esistono differenti modelli per il missaggio dell’audio in un videogioco,
tra cui quello delineato da Bridgett. Tipicamente, il mix in post-produzione
si trova soltanto nelle FMV, ovvero dove il reparto visivo è stato precedentemente renderizzato. Bridgett comunque, lavorando su Scarface: The World
Is Yours, ha creato un modello di snapshot mixing 143 che permette di raggruppare livelli di gioco con caratteristiche simili (in base ad azioni generiche
143
Letteralmente dall’inglese, missaggio per scene.
16.2
La necessità di un audio engine intelligente
82
di gameplay, locazioni, eventi specifici, etc.) e di missarne suono, musica e
dialoghi allo stesso modo secondo una serie di mix preprogrammati.
Un mix ben riuscito è quello in cui sentiamo con nitidezza le informazioni
sonore che ci sono utili all’avanzamento nel gioco senza compromettere troppo
il resto del materiale audio. Come descrive Jay Weinland riguardo al lavoro
su Halo:
Una delle cose interessanti che riguardano il nostro codice è che
possiamo fare il ducking in tempo reale nel nostro gioco cosicché
riusciamo a gestire ogni suono indipendentemente, possiamo controllare come effettuiamo il ducking durante le sequenze cinematografiche o altri tipi di dialogo, che era la nostra sfida più
grande. Se un personaggio ti sta dando delle informazioni molto
importanti, e all’improvviso tre granate atterrano ai tuoi piedi ed
esplodono, tu non vuoi che quelle parole non vengano comprese.
Abbiamo dei parametri modificabili in tempo reale a cui possiamo dire “dobbiamo effettuare un ducking a questo suono di 9 dB
per due secondi e lasciare che risalga in 1,5 secondi a 0 dB una
volta che il dialogo è finito”. Questo ci permette il controllo in
tempo reale dei volumi nel gioco, e ci aiuta ad essere certi che
possiamo sempre sentire il dialogo fondamentale ed altri elementi
importanti.
Questo ordinamento dei suoni per priorità, sebbene necessario, può voler dire
che il mixer prende delle decisioni che influenzano il modo in cui il giocatore
sente e interpreta i suoni. Il compositore può credere che la musica in un
certo punto del gioco particolarmente importante debba avere la priorità, per
introdurre emozionalmente il giocatore nella scena, ma il dialogo può includere una rivelazione che guiderà il giocatore in quel punto della storia; mentre il
sound designer può aver speso molto tempo non necessario nel creare il suono di una chiave che cade da un tavolo sulla destra del panorama sonoro, ad
esempio. Ognuno di questi materiali può meritare una certa priorità secondo
i suoi creatori (o anche secondo il giocatore). Il mixer intelligente, a questo
punto, deve compiere decisioni difficili riguardo quali suoni l’ascoltatore deve
17 Conclusioni
83
sentire, alterando potenzialmente l’impatto che si voleva dare all’audio, e i
modi in cui l’informazione sonora viene ricevuta dal giocatore.
17
Conclusioni
Come abbiamo visto, esistono differenze specifiche tra i processi di produzione di film e videogiochi. Nel cinema, ad esempio, l’ambiente viene spesso
registrato nel luogo di produzione, se non durante le riprese stesse, tipicamente nello stesso giorno. Nel suo libro Film Production Theory, Jean-Pierre
Geuens144 sostiene che “l’ambiente è il cemento che tiene insieme l’intera costruzione sonora”. Ovviamente, cosı̀ come accade per i film di animazione e
per quelli in CG145 , non esistono luoghi di produzione nei videogiochi. Non
c’è un ambiente in cui recitano gli attori: per questo tutti i suoni devono
essere doppiati. Il doppiaggio era l’ultima risorsa per i filmmakers, dato che
un buon tecnico con una strumentazione adeguata riusciva a tenere fino al
70% delle tracce originali nel film finito. Geuens sostiene che nel doppiaggio
noi “falsifichiamo lo spazio” visto che il contesto del luogo originale viene
perso e questo causa un suono innaturale. Si tratta di “una procedura da
evitare perché le tracce ridoppiate suonano invariabilmente piatte e morte se
paragonate alle registrazioni sul luogo”. Nei videogiochi, tutti i suoni devono
essere creati in studio o in ambienti selezionati, per poi essere editati in modo
da suonare reali. In assenza di un punto di riferimento reale per lo spazio
che si sta creando sullo schermo, questi suoni risultano inevitabilmente “poco
reali”, e per rimediare a questo i sound designer si adoperano per creare un
ambiente credibile in studio.
Allo stesso tempo, il problema del missaggio è molto più complicato nei
giochi, che devono tenere conto non solo dei cambiamenti in tempo reale nel
gameplay, ma anche del posizionamento del giocatore. Il missaggio per i film
è basato sul presupposto che gli spettatori siano statici, ovvero dei ricettori
passivi e immobili del suono. Il missaggio per i giochi deve essere invece
144
Jean-Pierre Victor Geuens insegna cinema e televisione alla USC - University of
Southern California.
145
CG è l’acronimo di Computer Graphics, computer grafica.
17.1
Una ridefinizione del concetto di “autore”
84
basato sul presupposto che - nonostante la posizione del giocatore possa
restare sempre la stessa - il personaggio sullo schermo (e, per estensione, il
giocatore stesso) cambia continuamente posizione. Pianificare il missaggio di
un gioco in surround, quindi, richiede un insieme di capacità che necessitano
di sempre maggiori specializzazioni.
17.1
Una ridefinizione del concetto di “autore”
Il lavoro del team che crea il sonoro per i giochi suggerisce un’importante
ridefinizione del concetto di “autore”. Come abbiamo dimostrato, il sound
design, i dialoghi e la musica dipendono tanto dall’integrazione quanto dalla
composizione, e i modi in cui il suono viene implementato influenzano notevolmente la sua ricezione. In un certo modo questa stessa relazione esiste
nei film, ma nei giochi viene portata all’estremo. Oltretutto, quando gli split
e i chunk musicali non esistono come una singola traccia lineare, non esiste
nemmeno una singola partitura, e gli autori diventano in qualche modo il
giocatore/ascoltatore (le cui azioni influenzano la loro riproduzione), il compositore (responsabile della loro creazione) e il programmatore (che li taglia
e li integra nel gioco). Negli ultimi decenni si è ragionato spesso sul fatto che
l’audience stessa possa costruire dei significati propri a partire dai testi, e la
nozione stessa di testo è diventata sempre più indefinita. Nei giochi questi
concetti sono ancora più indistinti perché il giocatore diventa un agente di
cambiamento attivo e il “testo” è malleabile e mutevole, condizionato dalle
sue scelte e azioni. Questo aspetto viene ulteriormente sviluppato nei giochi
online, in cui non esistono nemmeno uno script o un finale vero e proprio. La
localizzazione disintegra ancor più la relazione tra giochi e “testo” definitivo.
Non soltanto ogni gioco sarà diverso a causa della sua natura interattiva e
partecipativa, ma i giochi possono anche essere modificati significativamente
per mercati differenti, facendo sorgere la questione di quale sia la versione
“autentica” del prodotto.
85
Parte V
Un esempio pratico:
Drowning in Problems
I concetti riguardanti le tecniche di realizzazione di musiche ed effetti sonori
esposti nelle sezioni precedenti sono serviti all’autore come punto di partenza
per la creazione dell’audio di un videogioco.
Titolo originale
Drowning in Problems
Sviluppo
Francesco Del Pia
Pubblicazione
Indipendente (Francesco Del Pia)
Ideazione
Markus “Notch” Persson
Versione attuale
v0.9.5
Data di pubblicazione 5 marzo 2015
Genere
Avventura testuale
Modalità di gioco
Giocatore singolo
Piattaforma
Microsoft Windows, Apple OSX
Supporto
Download (65 MB circa)
Periferiche di input
Mouse
Tabella 4: Scheda tecnica di Drowning in Problems
18
L’approccio da executive producer
L’autore ha lavorato da solo in tutte le fasi di produzione del titolo (eccetto,
ovviamente, quella di testing 146 ). Questo ha consentito una completa gestione
dello sviluppo e la totale libertà di scelta in ogni campo. Nonostante le
musiche ricoprano un ruolo estremamente importante nel bilanciamento degli
elementi nel video game, queste devono comunque sottostare alle esigenze
espressive del gioco. L’approccio intrapreso nel lavorare a questo titolo è stato
infatti quello di executive producer, prima che di compositore. Le musiche,
146
Vedi nota 107 a pagina 66.
19 Il gioco
86
dunque, nonostante occupino gran parte dello spazio sonoro, hanno dovuto
convivere con gli effetti sonori, talvolta subendone l’importanza in favore del
più importante equilibrio generale.
19
Il gioco
Figura 15: La schermata iniziale del gioco originale
Il gioco realizzato non è originale: si tratta di Drowning in Problems
di Markus “Notch” Persson147 , realizzato all’interno della 29esima edizione
della competizione Ludum Dare148 , tenutasi dal 25 al 28 aprile 2014 e il cui
tema era Beneath the Surface 149 .
Ho cominciato con un’idea piuttosto semplice, e ho continuato a
semplificarla mentre ci lavoravo. Ho finito molto presto.
147
Markus Persson, noto anche come Notch (Ystad, Svezia, 1979), è un autore di videogiochi. È noto soprattutto per Minecraft (Mojang, 2009), tramite il quale ha guadagnato
fama nell’industria dei videogiochi, ha vinto diversi premi e intrapreso relazioni con le
industrie più importanti. Nel 2014 Persson lascia Mojang in seguito all’acquisizione di
Microsoft per 2,5 miliardi di dollari.
148
Ludum Dare è un concorso di sviluppo di videogiochi accelerato. Fondato da Geoff
Howland, si svolse per la prima volta nell’aprile del 2002. I partecipanti sono tenuti a
creare un videogioco in due giorni sulla base di un tema determinato in precedenza.
149
Letteralmente dall’inglese, al di sotto della superficie.
20 Il porting
87
Il gioco è un’avventura testuale150 che ripercorre le fasi della vita di un uomo, da prima della nascita a dopo la morte, con un approccio esistenziale
e pessimistico. Nonostante la semplicità del progetto, il gioco ha avuto una
certa diffusione e diverse critiche molto positive.
20
Il porting
Figura 16: Una schermata del porting realizzato in Unity
Il gioco originale è stato sviluppato da Notch per il web utilizzando il
linguaggio di programmazione Dart151 . Nonostante il codice sorgente del
gioco sia stato messo a disposizione online dall’autore per essere consultato
ed eventualmente modificato, si è preferito effettuare un porting 152 del gioco
150
Le avventure testuali sono software in cui la situazione di gioco è descritta all’utente tramite frasi di testo. Possono essere considerate sia come lavori letterari che come
videogiochi. Come prodotto commerciale, raggiunsero un picco di popolarità negli anni
‘80.
151
Dart è un linguaggio di programmazione per il web sviluppato da Google. Si propone
come alternativa a JavaScript come lingua franca per lo sviluppo web sulla piattaforma
web aperto.
152
La portabilità, (in lingua inglese porting) indica il processo di trasposizione, a volte
anche con modifiche, di un software, volto a consentirne l’uso in un ambiente di esecuzione
diverso da quello originale.
21 L’organizzazione del sonoro
88
utilizzando Unity153 per poter usufruire di maggiori potenzialità per quanto
riguarda la gestione dell’audio. L’intero software è stato quindi riscritto da
zero per la nuova piattaforma di sviluppo.
21
L’organizzazione del sonoro
Per la gestione del sonoro nel video game si è deciso di non utilizzare il
motore audio integrato in Unity (le cui funzioni, nella versione attuale del
software ovvero la 4.6, sono piuttosto limitate154 ) e di utilizzare invece un
middleware 155 .
21.1
L’utilizzo di Wwise
La decisione di utilizzare il middleware Wwise di Audiokinetic è dovuta a
tre fattori fondamentali: le potenzialità nella gestione della musica interattiva e degli effetti sonori, la grande quantità di documentazione disponibile
online e la stabilità e affidabilità del software. Il secondo e il terzo fattore
potrebbero sembrare di poca importanza se comparati alle effettive funzionalità del software, ma si rivelano estremamente necessari per la realizzazione
di un prodotto professionale in un periodo di tempo limitato, ed esente da
qualsivoglia problema.
Prima di procedere alla fase di composizione delle musiche e di realizzazione degli effetti sonori, è stato necessario studiare approfonditamente tutte
le potenzialità di Wwise, per poter poi procedere alla pianificazione del panorama sonoro del gioco avendo una chiara idea delle possibilità - cosı̀ come
delle limitazioni - del mezzo a disposizione. La realizzazione dell’audio è
stata quindi fortemente condizionata dal software utilizzato.
153
Unity è uno strumento di authoring integrato multipiattaforma per la creazione di
videogiochi (2D o 3D) o altri contenuti interattivi. L’ambiente di sviluppo Unity gira sia
su Microsoft Windows sia su Mac OSX, ed i giochi che produce possono essere eseguiti
su Windows, Mac, Linux, Xbox 360 e One, PlayStation 3 e 4, PlayStation Vita, Wii e
Wii U, iPad, iPhone e Android. Si possono anche sviluppare giochi per browser web che
utilizzano il plugin Unity web player, supportato su Mac e Windows.
154
In Unity 5, in uscita nel 2015, ci saranno molte nuove feature riguardanti la gestione
dell’audio.
155
Vedi sottosezione 15.6.1 a pagina 74: L’utilizzo di middleware per l’integrazione.
21.2
Le musiche
89
La stesura del progetto sonoro ha richiesto molto tempo e diverse correzioni sono state eseguite in corso d’opera, mano a mano che l’autore prendeva
confidenza con lo strumento Wwise e imparava a sfruttarne le funzioni caratteristiche. Inoltre, alcune soluzioni potevano sembrare azzeccate durante
le fasi di composizione e di montaggio in Wwise, ma quando venivano poi
applicate al gioco vero e proprio risultavano inadatte.
Figura 17: La schermata del progetto in Wwise
21.2
Le musiche
L’idea di partenza, su cui si è basato l’intero lavoro compositivo, era quella
di realizzare una colonna sonora in cui le transizioni da un brano all’altro
avvenissero senza soluzione di continuità. I diversi frammenti musicali che
vengono richiamati durante i vari livelli di gioco e che vengono influenzati
dalle azioni del giocatore vanno quindi a formare un unico lungo brano, diverso ogni volta che viene eseguito, ma che mantiene un senso musicale anche
se ascoltato al di fuori del contesto del video game.
21.2
Le musiche
21.2.1
90
Composizione
Figura 18: L’emotion map delle musiche in Drowning in Problems
Nel gioco le varie età si susseguono in modo lineare, e le musiche sottolineano pedissequamente questa successione. Sono state quindi realizzate
diverse tracce per ogni età, e le concatenazioni tra di esse sono state accuratamente pianificate. La composizione nel suo complesso gode di un equilibrio
che si può schematizzare attraverso la emotion map 156 in figura 18.
Dal punto di vista della strumentazione, c’è una forte differenziazione tra
le fasi di gioco in cui il personaggio è “vivo” e quelle in cui il personaggio
non lo è ancora o non lo è più. Nella prima gli strumenti utilizzati comprendono pianoforte (talvolta effettato), arpa, flauto, due corni, archi e varie
percussioni, mentre nella seconda si è preferito utilizzare suoni di sintesi.
Di seguito verranno elencate le caratteristiche degli interventi musicali
associati alle diverse età.
Age 0: There is nothing
prima fase di gioco.
156
Un drone scuro e cupo accompagna questa
Vedi sottosezione 14.5 a pagina 61: La cue list e la emotion map.
21.2
Le musiche
91
Age 1: You are not Al drone precedente si ne sovrappone un altro, dal
carattere più metallico157 .
Age 2: You are starting to become Ai precedenti due si aggiunge un
terzo drone, il cui timbro vuole ricordare un ambiente “amniotico”.
Age 3: You are Il suono di un cuore pulsante, ottenuto anch’esso tramite
l’utilizzo di strumenti di sintesi, va ad aggiungersi ai precedenti.
Age 4: You are born Una transizione percussiva termina in un improvviso silenzio, da cui emerge qualche secondo dopo il pianoforte. Non si tratta
di un tema o di un materiale preregistrato, ma di una serie di 13 brevissimi
incisi - di due o tre note ciascuno, talvolta un’unica nota - appartenenti ad
uno stesso ambito tonale, che vengono riprodotti in una sequenza casuale dal
motore audio in modo che uno stesso segmento non venga ripetuto prima che
altri 5 siano stati suonati dopo di lui158 (vedi figura 19 per la partitura dei
primi sei). L’effetto che si vuole raggiungere è quello di un’etereo stupore,
aiutato dall’effetto di delay, che si può provare di fronte ad un mondo in cui
si è appena messo piede.
Figura 19: I primi sei incisi di Age 4: You are born
157
L’aggiunta di layers è una delle tecniche compositive più utilizzate nella musica per
videogiochi. Si veda in proposito la sottosezione 9.8 a pagina 46: Variazioni di mix
(layering ).
158
Si tratta di una semplice applicazione dei concetti espressi nella sottosezione 9.6 a
pagina 44: Variazioni di temi (generazione algoritmica).
21.2
Le musiche
92
Age 5: You are a toddler La struttura è simile alla precedente; qui
però invece di utilizzare note singole vengono introdotti degli accordi, sempre
appartenenti alla tonalità prescelta.
Age 6: You are a child In questa età comincia a formarsi la personalità dell’individuo, ed è per questo motivo che si è scelto di abbandonare la
struttura precedentemente utilizzata in favore della riproduzione di un più
classico tema. Al pianoforte si aggiungono qui gli archi e un flauto. Una volta
terminata l’esposizione, se il giocatore è ancora impegnato in questa sezione di gioco la musica calerà di tensione riproducendo dei loop di pianoforte
con un leggero accompagnamento scelti randomicamente tra tre differenti
possibilità.
Age 7: You are a teenager La transizione aggiunge dolcemente, attraverso un fade-in, un accompagnamento orchestrale al precedente loop di pianoforte, preparando il giocatore all’ingresso del tema dell’adolescenza. Questo vuole dare l’idea di crescita, serena ma con delle ombre di incertezza
dovute alle difficoltà tipiche di questa età di transizione. Dopo che il tema
è stato eseguito nella sua interezza, la musica abbandona i materiali fortemente caratterizzanti per eseguire accordi lenti e pressoché statici, in cui
l’arrangiamento viene scelto randomicamente - ci sono in tutto 144 possibilità differenti: il motore audio sceglie tra due possibili tracce di flauto, due
di arpa, tre dei corni, quattro del pianoforte e tre degli archi. Una volta terminata questa sezione torneremo a sentire il tema dell’adolescenza arricchito
da un layer con leggere percussioni e corni, a cui seguirà un altro passaggio
più calmo dall’orchestrazione randomizzata, e cosı̀ via.
Age 8: You are a human Qui la musica raggiunge il suo picco emozionale, che coincide con la maggiore imponenza dell’orchestrazione e la dinamica
ff (le prime due battute del tema sono visibili in figura 20). Un tema solenne
ci fa capire che abbiamo finalmente raggiunto la maturità dell’essere umano. Dopo una prima esposizione affidata agli archi e al flauto, il tema viene
riarmonizzato e ripreso dai corni. Successivamente gli archi lo rieseguono
21.2
Le musiche
93
con qualche variazione, per poi lasciare spazio alle percussioni che fanno da
transizione per giungere infine al nuovo inizio del loop 159 .
Figura 20: Le prime due battute del tema di Age 8: You are a human
Age 9: You are troubled La transizione radicale dall’età precedente a
questa, affidata a piatti e tam-tam, è stata curata nel dettaglio per garantire
un cambio musicale veloce e naturale - il motore audio seleziona la transi159
Per capire meglio la struttura di questa sezione, si faccia riferimento alla figura 23 a
pagina 97.
21.2
Le musiche
94
zione più adatta tra tre possibilità160 . L’atmosfera cambia profondamente:
l’armonia si stabilizza, un leggero ritmo di rullante accompagna il giocatore
tra frasi spezzate affidate agli archi con tremolo, citazioni del tema dell’età
precedente e passaggi esitanti di arpa e pianoforte. Il protagonista è preoccupato e insoddisfatto; la musica seleziona in ordine casuale cinque brevi
interventi da quattro battute ciascuno (uno di questi è visibile in figura 21).
Una volta che sono stati tutti eseguiti, se il giocatore si attarda in questa età,
la tensione della colonna sonora verrà momentaneamente stemperata da un
intervento più lungo di rullante (quasi) solo, alla fine del quale torneranno i
cinque segmenti precedenti, riprodotti in ordine diverso161 .
Figura 21: Un segmento di Age 9: You are troubled
160
È stata qui utilizzata la tecnica descritta nella sottosezione 9.10 a pagina 49:
Variazioni della forma (matrici di transizioni).
161
La tecnica è quella spiegata nella sottosezione 9.9 a pagina 47: Variazioni della
forma (forma aperta). Si faccia anche riferimento alla figura 24 a pagina 98.
21.2
Le musiche
95
Age 10: You are bitter I materiali proposti nella sezione precedente
vengono riadattati per questa parte, assottigliando l’arrangiamento e al tempo stesso incrementando la tensione. La rassegnazione del giocatore, amareggiato dai continui fallimenti, è materializzata dal ribattuto ostinato del
pianoforte, mentre l’arpa, nel suo registro più grave, introduce dissonanze.
Age 11: You are starting to accept Il processo di svuotamento dell’arrangiamento continua anche in questa parte, in cui rimane soltanto il
ribattuto del pianoforte, dal ritmo incostante. Viene reintrodotto l’effetto
di delay che avevamo ascoltato nelle prime età dopo la nascita, come se lo
spaesamento di quel periodo tornasse, con accezione negativa, anche prima
delle fine della vita.
Age 12: You are dead Il ribattuto del pianoforte si cristallizza in una
coda perpetua che, come a simboleggiare il segnale di un elettroencefalogramma, rappresenta la fine dell’esperienza.
Age 13: You are forgotten Il suono precedente si mescola in un lento
cross-fade con un distante drone sintetico.
Age 14: There is nothing A questo drone si sostituisce, attraverso un
altrettanto lento cross-fade, il suono che avevamo già ascoltato in Age 0,
anch’essa nominata There is nothing. Nonostante la similitudine tra questa
due fasi, ormai la vita è alle spalle, e il drone, nell’arco dei dieci minuti
successivi, calerà di frequenza fino a diventare un grave suono sommesso, in
corrispondenza dello schermo nero162 .
21.2.2
Il montaggio delle musiche in Wwise
Verrà ora descritta l’organizzazione delle diverse tracce in Wwise.
162
È questo un semplice esempio della tecnica illustrata nella sottosezione 9.2 a pagina
42: Variazioni di pitch e trasposizioni.
21.2
Le musiche
96
Definizione di entry ed exit cue Nell’ambiente di produzione delle tracce musicali - in questo caso Cubase 8163 - erano già stati stabiliti i punti in cui
inserire successivamente in Wwise gli entry cue e gli exit cue, ovvero quei locatori che dividono il file in tre parti: quella centrale corrisponde al contenuto
musicale vero e proprio, quella iniziale e quella finale invece vengono eseguite rispettivamente prima dell’inizio (pre-entry) e dopo la fine (post-exit) di
questo, in sovrapposizione alla sezione in esecuzione in quel momento (può
essere il loop della stessa traccia o di una differente). Questo accorgimento
consente di preservare le anacrusi, gli attacchi e le code dei segmenti musicali,
cosı̀ come gli eventuali effetti d’ambiente o i delay, gli echi e via dicendo, ed
è di fondamentale importanza per garantire che la ripetizione e l’alternarsi delle varie tracce avvenga senza soluzione di continuità e che il loop non
venga chiaramente percepito dall’ascoltatore come tale.
Figura 22: Entry cue ed exit cue di una traccia
In figura 22 possiamo vedere la finestra di Wwise che ci consente di effettuare il posizionamento di entry cue (verde) ed exit cue (rosso): le battute
1 e 2 costituiscono la parte musicale, il quarto precedente alla battuta 1 è la
(breve) sezione pre-entry che contiene gli attacchi più lenti e l’intera battuta
3 rappresenta la parte post-exit che, come si può chiaramente evincere dalla
forma d’onda, include le code dei suoni.
Creazione delle playlist Ad ogni età corrisponde una specifica playlist
che impone i criteri di successione nell’esecuzione dei file musicali al suo inter163
Steinberg Cubase è uno dei sequencer più comunemente usati per le applicazioni audio
su piattaforma Microsoft Windows e Mac OSX.
21.2
Le musiche
97
no. In Wwise si possono creare strutture ramificate anche molto complesse,
determinate da semplici regole logiche imposte dall’utente. In figura 23, ad
esempio, possiamo analizzare la playlist corrispondente a Age 8 (You are a
human). Il motore audio riproduce, nell’ordine:
• i file da Age8 loop01a a Age8 loop02b (il tema vero e proprio);
• i file da Age8 loop03a a Age8 loop04b (una variazione del tema);
• nuovamente i file da Age8 loop01a a Age8 loop02b (ritorno del tema,
con una piccola variazione);
• i file Age8 loop05a e Age8 loop05b (segmenti di transizione).
Questa struttura viene ripetuta potenzialmente infinite volte, a meno che il
giocatore non proceda nel gioco.
Figura 23: La playlist per Age 8
Un altro esempio è quello in figura 24, relativo a Age 9 (You are troubled ):
• i file da Age9 segment01 a Age9 segment05 vengono eseguiti tutti, in
ordine casuale;
• viene eseguito Age9 lowIntensity, un intervento musicale più calmo che
dà respiro prima di ricominciare il loop.
21.2
Le musiche
98
Figura 24: La playlist per Age 9
Gestione delle transizioni Se ci troviamo in una specifica età e clicchiamo sul bottone Solve per avanzare allo stadio successivo, Wwise deve
realizzare una transizione dal file musicale in esecuzione ad un altro file contenuto nella playlist relativa al nuovo stadio di gioco. Queste transizioni sono
state accuratamente pianificate, una ad una, considerando tutte le possibilità. Tipicamente, in questo progetto una transizione ha luogo nell’arco di
(al massimo) 4 secondi dall’istante in cui viene dato l’input.
Figura 25: Un esempio di transizione in Wwise
In figura 25 possiamo vedere un esempio di transizione: riguarda, in particolare, il caso in cui il giocatore clicchi su Solve mentre si trova in Age
21.3
Gli effetti sonori
99
8 (You are a human) e siano in esecuzione le prime due battute del tema
principale (contenute nel segmento Age8 loop01a, vedi figura 20 a pagina 93
per la partitura). Queste sono le azioni che il motore audio compierà:
• riquadro “Source”: il file in esecuzione continuerà a suonare ritardando
l’effettiva transizione fino all’arrivo del suo exit cue (si tratta infatti di
una transizione beat-synchronous 164 ). Verrà eseguita anche la sezione
post-exit;
• riquadro “Transition Segment”: verrà utilizzato un segmento di transizione, nello specifico Age9 transition03, di cui verranno anche eseguite
anche le sezioni pre-entry e post-exit;
• riquadro “Destination”: la nuova playlist verrà eseguita cominciando
dall’entry cue del file Age9 segment01 (vedi partitura in figura 21 a
pagina 94), comprendendo la sua sezione pre-entry.
Schematicamente, la transizione precedente può essere rappresentata come in figura 26. In questo caso la transizione non ha una sezione intermedia
tra le parti pre-entry e post-exit.
Figura 26: Schematizzazione della transizione in figura 25
21.3
Gli effetti sonori
Gli SFX presenti nel videogioco sono stati realizzati a partire da suoni registrati dall’autore stesso o da librerie presenti online. È stata molto utilizzata
la tecnica del layering per riuscire a condensare in un tempo breve tutte le
informazioni sonore che facessero capire inequivocabilmente l’evento rappresentato. Gli effetti hanno una durata variabile tra i 2 e i 10 secondi, in base
164
Vedi sottosezione 11.3 a pagina 56: Istruzioni beat-synchronous.
21.3
Gli effetti sonori
100
Nome file
Eventi
Condizioni
Canali Durata
Note
learn
learn
learn
learn
01.wav
02.wav
03.wav
04.wav
Learn
mono
0:02
mono
0:02
mono
0:02
mono
0:02
Tre pagine sfogliate
Due pagine sfogliate
Due pagine sfogliate
Tante pagine sfogliate
playToddler 01.wav
playToddler 02.wav
playToddler 03.wav
Play
if Toddler
mono
0:02
mono
0:02
mono
0:02
Carillon
Caduta giocattolo
Sonaglio
playChild
playChild
playChild
playChild
playChild
if Child
mono
0:02
mono
0:02
mono
0:02
mono
0:02
mono
0:02
Musica Tetris
Intro film Disney
Scala glockenspiel
EA Sports
Tuffo in piscina
if Teenager e oltre
mono
0:02
mono
0:02
mono
0:02
mono
0:02
mono
0:02
Partita di calcio
Suoni di Halo
Partita di tennis
Motocicletta
Jogging
play
play
play
play
play
01.wav
02.wav
03.wav
04.wav
05.wav
01.wav
02.wav
03.wav
04.wav
05.wav
meetFriend 01.wav
MeetFriend
mono
0:08
Composizione SMS e invio
seeChild 01.wav
seeChild 02.wav
seeChild 03.wav
SeeFriend
if Child
mono
0:04
mono
0:04
mono
0:04
Schiamazzi di bambini
Schiamazzi di bambini
Schiamazzi di bambini
seeFriend
seeFriend
seeFriend
seeFriend
01.wav
02.wav
03.wav
04.wav
if Teenager e oltre
mono
0:04
mono
0:04
mono
0:04
mono
0:04
Atmosfera
Atmosfera
Atmosfera
Atmosfera
bar
bar
bar, musica live
bar, brindisi
[. . . ]
Tabella 5: Parte dell’asset list per gli effetti sonori
21.3
Gli effetti sonori
101
al tempo impiegato nel gioco per completare l’azione relativa. Sono stati inseriti negli SFX diversi punti di sincrono per far coincidere il completamento
della percentuale relativa all’evento nel gioco con suoni specifici. Spesso gli
effetti sonori non terminano esattamente in corrispondenza di quel momento,
ma conservano una coda per evitare tagli bruschi e sembrare quindi più naturali all’ascoltatore. Nella tabella 5 si può vedere parte dell’asset list stilata
per l’organizzazione e la gestione degli SFX.
21.3.1
Il montaggio degli effetti sonori in Wwise
Per ogni azione sono stati realizzati da 1 a 5 effetti sonori differenti. Quando
Wwise riceve il comando per eseguire uno specifico SFX, il software seleziona
randomicamente uno tra i possibili suoni associati a quell’azione, senza mai
ripetere l’ultimo (o gli ultimi) eseguito.
Figura 27: La gestione degli SFX per un evento
In figura 27 possiamo analizzare il comportamento di Wwise in relazione
all’evento You need to play, circoscritto alla fase dell’infanzia (Age 6: You are
a child ). I cinque diversi file hanno probabilità differenti di essere eseguiti,
a seconda del parametro weight 165 . I volumi dei singoli suoni sono stati
aggiustati per ottenere un equilibrio complessivo, mentre i parametri pitch e
low pass filter non sono stati alterati o automatizzati. L’utile sezione notes
consente di appuntarsi informazioni relative ai file.
165
Vedi sottosezione 11.5 a pagina 57: Il permutation weighting .
21.4
21.4
Missaggio e mastering
102
Missaggio e mastering
Di seguito verranno descritte le impostazioni di routing, gli effetti utilizzati, i
parametri di gioco che influenzano l’audio e le soluzioni adottate per quanto
riguarda il missaggio dinamico del sonoro di Drowning in Problems.
21.4.1
Routing
Il grafico in figura 28, letto da destra verso sinistra, consente di capire il
routing166 dell’audio in Drowning in Problems. Le musiche, contenute nell’oggetto Age switch, confluiscono nel Music Bus 167 , mentre gli effetti sonori
(nell’oggetto InGameSFX ) sfociano in SFX Bus. I due differenti bus si uniscono nel bus MusicAndSFX (più tardi verrà spiegato il motivo di questo
passaggio intermedio), che finalmente raggiunge il Master Audio Bus. Gli
effetti di selezione (contenuti nell’oggetto Selection random), ovvero i suoni
che sentiamo quando apriamo i link presenti nel menu di pausa (accessibile
nel gioco premendo il tasto Esc), hanno come destinazione il Master Audio
Bus.
Figura 28: La schematic view di parte del progetto
166
167
Il routing è il percorso seguito dai segnali audio.
Un bus è un canale audio.
21.4
21.4.2
Missaggio e mastering
103
Effetti
Dalla stessa figura 28 possiamo vedere che sul Music Bus è presente l’effetto
Wwise RoomVerb. Inserire un simile DSP in questo punto della catena di
routing attribuisce in tempo reale un effetto d’ambiente uniforme a tutte le
tracce che si susseguono. Se il riverbero fosse stato introdotto nella fase di
produzione delle musiche il risultato finale sarebbe stato meno omogeneo.
Un leggero delay (non visibile dal grafico) è stato utilizzato per aiutare
ad “incollare” i brevi segmenti musicali che si alternano nelle età 3 (You are
born) e 4 (You are a toddler )168 .
21.4.3
RTPC
Gli RTPC169 introdotti riguardano sia l’aspetto musicale sia quello relativo
a funzioni di gioco come il menu di pausa e la chiusura dell’applicazione. Per
quanto riguarda la prima categoria, nei dieci minuti che servono a completare
l’ultima età (Age 14: There is nothing) viene diminuito progressivamente il
parametro pitch del loop. Questo comporta che il segmento audio venga riprodotto a velocità sempre più lenta, abbassando di conseguenza la frequenza
del drone.
Della seconda categoria invece fa parte l’RTPC riguardante l’animazione che porta alla comparsa e alla scomparsa del menu di pausa (vedi figura
29). Quando il giocatore preme il tasto Esc, i crediti del gioco compaiono a
schermo con una dolce dissolvenza; il sonoro vuole simulare lo stesso comportamento introducendo gradualmente un filtro passa-basso. Nel codice del
video game è presente una variabile float 170 che passa linearmente da 0 a 1
nell’arco di un secondo, ovvero il tempo che impiega la schermata a comparire; in Wwise la funzione matematica visibile in figura 29 associa a questa
variabile un valore che sposta la frequenza di taglio del filtro applicato al bus
168
Per maggiori informazioni si rimanda alla sottosezione 21.2.1 a pagina 90:
Composizione.
169
Run-time Parameter Controls.
170
Il numero in virgola mobile (in inglese floating point) indica il metodo di rappresentazione approssimata dei numeri reali e di elaborazione dei dati usati dai processori per
compiere operazioni matematiche.
21.4
Missaggio e mastering
104
Figura 29: L’RTPC che agisce sul Low Pass Filter
MusicAndSFX 171 , andando ad attenuare le frequenze più acute di musica ed
effetti sonori172 .
Una funzione simile è stata introdotta per creare un rapido fade-out del
volume nel momento in cui il giocatore clicca sul tasto Quit. Il volume di tutti
i file audio in esecuzione si riduce fino a 0 un istante prima che l’applicazione
si chiuda.
21.4.4
Missaggio dinamico
Come abbiamo già ampiamente descritto nella relativa sezione teorica173 , un
accurato missaggio dell’audio in un videogioco è di fondamentale importanza
perché all’ascoltatore giungano tutte le informazioni sonore necessarie. Nell’esempio qui trattato, in particolare, la vasta gamma dinamica coperta dalla
171
È questo il motivo per cui è stato creato il bus MusicAndSFX : se il LPF fosse stato
associato al Master Audio Bus, infatti, anche i suoni di selezione innescati dai clic sui link
presenti nel menu di pausa sarebbero stati filtrati.
172
Si tratta di un’applicazione della tecnica descritta nella sottosezione 9.5 a pagina 44:
Variazioni di DSP.
173
Sezione 16 a pagina 78: Post-produzione.
21.4
Missaggio e mastering
105
musica nel corso del gioco (ben rappresentata dalla emotion map in figura
18 a pagina 90) corre il rischio di ostacolare, in certe situazioni, la percezione ad un volume adeguato degli effetti sonori. Il giocatore potrebbe sentirli
chiaramente nei momenti in cui la dinamica della musica è debole, mentre
quando questa raggiunge picchi di intensità come in You are a human gli
SFX potrebbero diventare impercettibili e anzi dare fastidio all’esperienza di
gioco. Viceversa, se dovessimo calibrare il loro volume in base alla dinamica
più forte della musica, nei momenti in cui questa suona in pianissimo gli
effetti sonori risulterebbero ad una intensità sgradevolmente alta.
Figura 30: Il missaggio dinamico degli SFX
La soluzione sta nell’utilizzo di un sistema di missaggio dinamico che tenga conto della fase di gioco per agire sul fader del volume del SFX Bus.
In figura 30 vediamo come il parametro bus volume di questo canale dipenda dalla variabile Age, che identifica il nostro avanzamento nel gioco. Nel
momento in cui questa variabile cambia, l’aggiustamento del volume non è
istantaneo, ma avviene nell’arco di tre secondi per evitare bruschi e innaturali sbalzi. I valori attribuiti al volume assomigliano necessariamente alla
curva emozionale della musica, in quanto devono compensare le differenze
dinamiche tra un’età e l’altra di quest’ultima.
22 L’implementazione
21.4.5
106
Mastering
In Wwise non viene effettuato un processo di mastering in tempo reale. L’unica precauzione presa è quella di introdurre un effetto di limiter sul Master
Audio Bus, per evitare distorsioni digitali del sonoro.
22
L’implementazione
Per utilizzare Wwise in un progetto di Unity - che, come precedentemente
detto, è l’ambiente di sviluppo utilizzato per ricreare Drowning in Problems
- c’è bisogno della licenza Pro di quest’ultimo. Una volta ottenuta, si deve
installare un apposito plugin e configurare una serie di impostazioni necessarie alla corretta comunicazione tra i due software, tra cui la definizione della
posizione della soundbank, ovvero di quel file che raccoglie in sè tutti i segmenti audio da utilizzare e le regole che l’utente ha stabilito nel middleware
per gestirli.
Compiuti i processi di inizializzazione, si può programmare il codice che
richiami gli eventi di Wwise dall’ambiente Unity. La seguente funzione, definita dall’autore e scritta in linguaggio C#174 , consente di far partire un
qualsiasi evento audio:
public void PlayEvent (string eventName) {
AkSoundEngine.PostEvent (eventName, gameObject);
}
Ogniqualvolta il giocatore clicchi su un bottone nel gioco, il corrispondente
evento audio viene richiamato attraverso un semplice comando. La riga di
codice che segue è associata al bottone Solve relativo alla condizione You
need to learn, e viene richiamata ogni volta che questo viene premuto:
PlayEvent (Learn);
174
Il C# è un linguaggio di programmazione orientato agli oggetti sviluppato da Microsoft
nel 2000.
23 Esportazione
107
Altri semplici comandi comunicano a Wwise il cambiamento dell’età nel
gioco, le eventuali interruzioni dei file in esecuzione e i RTPC di cui abbiamo
parlato nella sezione 21.4.3.
23
Esportazione
A progetto completato, l’ultima procedura è quella che riguarda la creazione
dei file eseguibili per la distribuzione. Le piattaforme di destinazione scelte
sono Microsoft Windows e Mac OSX, per le quali sono state selezionate
specifiche impostazioni riguardanti prestazioni e risoluzione. L’applicazione
per Windows ha estensione .exe, quella per OSX .app.
24
Considerazioni finali
La realizzazione del progetto ha richiesto una lunga gestazione e molto lavoro.
Le difficoltà tecniche e informatiche incontrate sono state numerose e hanno
rallentato in più occasioni lo sviluppo del software.
24.1
Considerazioni sullo sviluppo in Unity
L’autore non è un programmatore professionista, quindi la realizzazione del
progetto in Unity ha richiesto molto più tempo del dovuto. Il codice del gioco, inoltre, potrebbe essere sicuramente ottimizzato da un addetto ai lavori.
L’autore aveva già esperienza di programmazione in questo ambiente, ed era
consapevole dei suoi limiti: realizzare un porting di Drowning in Problems
sembrava un’idea realizzabile, anche se con qualche difficoltà, e cosı̀ è stato.
Il gioco inoltre si prestava molto bene a dimostrare le diverse tecniche di
composizione illustrate nella sezione 9 a pagina 41 (Dieci metodi di variazione nella musica dinamica), le transizioni e la gestione degli SFX, e in
generale tutti gli argomenti di cui si parla in questa trattazione.
24.2
24.2
Considerazioni sull’utilizzo di Wwise
108
Considerazioni sull’utilizzo di Wwise
Wwise si è dimostrato un programma completo, versatile e soprattutto molto
musicale: diverse funzioni del software sono state pensate specificamente per
soddisfare le esigenze del compositore. Questo è il motivo per cui la gestione delle musiche e delle transizioni in Wwise dovrebbe essere realizzata dal
compositore stesso, in quanto solo lui conosce esattamente la sua musica e
sa quello che dovrebbe accadere a seconda degli input del giocatore e delle
situazioni di gioco, anche se questo aspetto potrebbe costituire una barriera per i musicisti meno avvezzi all’utilizzo della tecnologia. Una volta che
questo ostacolo viene valicato - attraverso un approfondito studio e la sperimentazione del software - gli si possono aprire un’infinità di soluzioni che,
forse, non avrebbe neppure considerato. C’è da dire che l’interfaccia utente
di Wwise non è intuitiva come quella di altri software e che talvolta implementare certe funzioni sia complicato, frustrante e dispendioso in termini di
tempo, ma una volta che si prende confidenza con il programma gli sforzi
iniziali vengono ampiamente ripagati.
109
Parte VI
Conclusioni
La peculiarità della composizione per videogiochi sta, come abbiamo dimostrato, nella sua dinamicità, ovvero nella capacità di mutare in relazione alle
azioni del giocatore ed ai parametri di gioco. A differenza di ciò che accade quando il compositore lavora per dei media lineari, in questo ambito egli
deve relazionarsi in modo molto stretto con l’audio programmer e basare il
suo lavoro sulle funzionalità di integrazione che questo gli mette a disposizione. Le possibilità espressive sono innumerevoli ed in continua evoluzione,
e la scelta del loro utilizzo dipende strettamente dal genere del gioco. Esiste
un profondo aspetto di ricerca nell’ambito dei video game, ed è per questo
che alcuni giochi sviluppano delle tecnologie ad hoc che vengono utilizzate
per le necessità di quel prodotto specifico. Il compositore deve quindi essere
creativo non solo nella scrittura della musica, ma anche nel realizzare quale
sia il miglior modo per farla funzionare a dovere nel videogioco. Se questo
modo non esiste, potrebbe essere che non sia stato ancora inventato.
La bellezza della composizione interattiva sta nel matrimonio perfetto tra il compositore, che scrive la musica, e il computer e la
tecnologia che ci permettono di realizzare cose molto complesse
che non è possibile fare nel cinema o nella televisione.
Parafrasando Richard Jacques possiamo concludere che il computer, in questo
tipo di media, rappresenta un ulteriore strumento musicale a disposizione del
compositore, il quale deve imparare a conoscerlo e a sfruttarlo secondo le sue
esigenze espressive.
110
Parte VII
Glossario
• AAA: i giochi AAA (triple A in inglese) sono quelli con i budget più alti
per lo sviluppo e la promozione. Si tratta quindi, nella maggior parte
dei casi, di giochi di alta qualità e con alte prospettive di vendita.
• AI : Artificial Intelligence, intelligenza artificiale.
• ARS o As-Recorded Script: la versione della sceneggiatura che comprende le modifiche che vengono introdotte durante le sessioni di registrazione.
• asset list: lista di risorse (vedi sottosezione 14.6 a pagina 63).
• beat-synchronous: a tempo rispetto alla metrica della traccia musicale
(vedi sottosezione 11.3 a pagina 56).
• believability gaps: lacune di credibilità (vedi sezione 16 a pagina 78).
• bus: canale audio.
• CG: Computer Graphics, computer grafica.
• chunk : sezioni piuttosto lunghe di tracce musicali.
• controller : dispositivo plug-in per sistemi di intrattenimento, usato
per fornire l’input in un videogioco. È tipicamente connesso a una
console o a un computer da un cavo o da una connessione senza fili. La
funzione principale di un controller è di governare un movimento/azione
di un corpo/oggetto giocabile o comunque influenzato da eventi in un
videogioco.
• cue: intervento musicale della colonna sonora.
• decision points: vedi markers.
• ducking: riduzione del segnale di una traccia quando ci si trova in
presenza di un altro segnale (vedi sottosezione 11.4 a pagina 57; per il
suo utilizzo nel mix in tempo reale, vedi sottosezione 16.1 a pagina 79).
111
• dry: caratteristica di quei suoni non modificati attraverso l’aggiunta di
effetti. Il suo contrario è wet.
• feature: funzionalità.
• FMV : Full Motion Video, filmati che raffigurano azioni nel gioco attraverso sequenze prerenderizzate. Sono molto utilizzati nelle cut scenes.
• FPS o First Person Shooter : sparatutto in prima persona.
• gameplay: l’esperienza di gioco.
• GDR: vedi RPG.
• HP o Health Points: punti vita. Nella maggior parte dei giochi quando
si esauriscono il giocatore perde la partita.
• lag: ritardo. La parola lag coincide anche con l’abbreviazione dei termini LAtency Gap, che indicano una differenza (gap) causata da latenza
di informazioni (latency).
• layers: “strati” di tracce che si possono sovrapporre (vedi sottosezione
9.8 a pagina 46).
• logjam: sovrapposizione sgradevole di suoni con contenuto frequenziale
simile (vedi sezione 16 a pagina 78).
• loop: ripetizione di una traccia o di una porzione di essa (vedi sottosezione 11.1 a pagina 55).
• marker : una sorta di “segnalibro” applicato a un punto specifico del file
audio che consente l’utilizzo di matrici di transizioni (vedi sottosezione
9.10 a pagina 49) e, in generale, l’utilizzo di istruzioni beat-synchronous
(vedi sottosezione 11.3 a pagina 56).
• mickey mousing: tecnica cinematografica ottenuta sincronizzando le
azioni sullo schermo con gli effetti sonori e la musica di accompagnamento, che seguono punto per punto le immagini.
• MIDI o Musical Instrument Digital Interface: il protocollo standard
per l’interazione degli strumenti musicali elettronici (anche tramite un
computer).
112
• MMO o Massively Multiplayer Online: giochi capaci di supportare centinaia o migliaia di giocatori collegati contemporaneamente a internet.
• motion capture: la registrazione digitale del movimento del corpo umano o di altri movimenti.
• permutation weighting: attribuzione di peso alle permutazioni (vedi
sottosezione 11.5 a pagina 57).
• pixel art: forma d’arte digitale che prevede la realizzazione di un’immagine attraverso l’inserimento manuale di ogni singolo pixel.
• porting: il processo di trasposizione di un componente software, volto a consentirne l’uso in un ambiente di esecuzione diverso da quello
originale.
• puzzle game: un videogioco rompicapo in cui bisogna risolvere enigmi
sotto forma di puzzle logici, strategici o in cui, ad esempio, si deve
completare una sequenza (numeri, parole, forme geometriche), etc.
• rating: sistemi utilizzati per garantire che forme di intrattenimento
siano chiaramente etichettate per gruppi di età a seconda del loro
contenuto.
• routing: percorso seguito dai segnali audio.
• RPCs o RTPCs: Run-time Parameter Controls, ovvero parametri di
gioco in continua evoluzione come conti alla rovescia, HP del giocatore,
quantità di munizioni, etc.
• RPG o Role Playing Game: Gioco Di Ruolo (GDR).
• sample: campione.
• script: sceneggiatura.
• snapshot mixing: missaggio per scene (vedi sottosezione 16.2 a pagina
81).
• split: porzioni di una traccia musicale.
• stab: vedi stinger.
113
• stinger : brevissimi interventi musicali eseguiti in punti specifici del
gioco per richiamare l’attenzione su un improvviso evento significativo
(vedi sottosezione 7.3 a pagina 35).
• testing: il collaudo del software. È un procedimento utilizzato per
individuare le carenze di correttezza, completezza e affidabilità delle
componenti software in corso di sviluppo.
• trigger : innesco - determinato da azioni o parametri di gioco - che
comporta un cambiamento nel sonoro.
• trigger-point: punto di innesco (vedi anche trigger ).
• wet: caratteristica di quei suoni modificati attraverso l’aggiunta di
effetti. Il suo contrario è dry.
114
Parte VIII
Bibliografia e sitografia
Bibliografia
• Norman Chan, A Critical Analysis of Modern Day Video Game Audio,
tesi di laurea in Discipline Artistiche Musicali presso l’Università di
Nottingham, 2007
• Marco Pellitteri e Mauro Salvador, Conoscere i videogiochi - Introduzione alla storia e alle teorie del videoludico, Tunué, 2014
• G.W. Childs IV, Creating Music and Sound for Games, Thomson Course Technology, 2007
• Karen Collins, Game Sound - An Introduction to the History, Theory,
and Practice of Video Game Music and Sound Design, The MIT Press,
2008
• Karen Collins, Playing with Sound - A Theory of Interacting with Sound
and Music in Video Games, The MIT Press, 2013
• Aaron Marks, The Complete Guide to Game Audio. For Composers,
Musicians, Sound Designers, and Game Developers - Second Edition,
Elsevier - Focal Press, 2009
Sitografia generale
• Application Developers Alliance (appdevelopersalliance.org)
• G.A.N.G. - Game Audio Network Guild (www.audiogang.org)
• GDC - Game Developers Conference (www.gdconf.com)
• GameDev.net - Game Development Community (www.gamedev.net)
• Game Localization Network Ltd. Specialists in the Localization of Video Games (www.gamelocalization.net)
115
• Game Music Connect 2014 (www.gamemusicconnect2014.com)
• GameSoundCon - The Art, Technology and Business of Game Audio
(www.gamesoundcon.com)
• KVR Audio - The Internet’s number one news and information resource
for open standard audio plug-ins (www.kvraudio.com)
• LucasArts (www.lucasarts.com)
• Ludum Dare (ludumdare.com)
• PEGI - Pan European Game Information (www.pegi.info/it)
• Polygon (www.polygon.com)
• The Verge (www.theverge.com)
• Wikipedia - The Free Encyclopedia (en.wikipedia.org)
• Wikipedia - L’enciclopedia libera (it.wikipedia.org)
Articoli specifici
• Jake Simpson, 3D Sound in Games, dal sito www.gamedev.net
• Alexander E.M. Hess, 10 fastest-growing jobs in the USA, dal sito
www.usatoday.com
• John Broomhall, A revolution in audio. John Broomhall pauses to
reflect on how game audio has progressed over the years, 1 dicembre
2014, dal sito www.develop-online.net
• Jessica Conditt, A video game for the socially anxious, 20 febbraio 2015,
dal sito www.engadget.com
• Apple, App Store Review Guidelines, consultato il 16 dicembre 2014,
dal sito developer.apple.com
116
• AA.VV., Controversie nei videogiochi, consultato il 28 dicembre 2014,
dal sito it.wikipedia.org
• John Rodd, Game Music Mastering for Composers and Audio Leads,
dalla Game Developers Conference 2012, dal sito tech.ubm.com
• Charlie Hall, Hatred, UNICEF and how gaming’s perception makes it
a target for censorship, 15 dicembre 2014, dal sito www.polygon.com
• Ben Kuchera, Hatred given Adults Only rating in US and Canada, 16
gennaio 2015, dal sito www.polygon.com
• Marta Veltri, Il design come filosofia. Intervista a Paola Antonelli, 25
settembre 2013, dal sito www.artribune.com
• Adi Robertson, iOS games chafe under Apple’s directions: ‘If you
want to criticize a religion, write a book’, 16 gennaio 2013, dal sito
www.theverge.com
• James Hannigan, Is video game music art? Part 2: The Orchestra, 3
ottobre 2014, dal sito www.classicfm.com
• James Hannigan, James Hannigan on video game music: is it art?
Part 1, 23 settembre 2014, dal sito www.classicfm.com
• Tracey Lien, The Apple Obstacle for Serious Games, 21 giugno 2013,
dal sito www.polygon.com
• Tyler Nagata, Top 7 Gaming Auteurs, 30 luglio 2007, dal sito
www.gamesradar.com
• Brian Schmidt, USA Today Reports Composers Third-fastest Growing
Job in US: But they got the reason wrong, dal sito
www.gamesoundcon.com
• Paola Antonelli, Video Games: 14 in the Collection, for Starters, 29
novembre 2012, dal sito www.moma.org
117
• AA.VV. Video game controversies, consultato il 28 dicembre 2014, dal
sito en.wikipedia.org
• AA.VV., Video games as an art form, consultato il 29 novembre 2014,
dal sito en.wikipedia.org
• Paola Antonelli, Why I brought Pac-Man to MoMA, maggio 2013, dal
sito www.ted.com
Documentari
• Square, Beyond Final Fantasy, 2002
• James Swirsky e Lisanne Pajot, Indie Game: The Movie, 2012
• Red Bull Music Academy, Diggin’ In The Carts: A Documentary Series
on Video Game Music, 2014

Documenti analoghi

Gianluca_Sindoni - Laboratorio di Cultura Digitale

Gianluca_Sindoni - Laboratorio di Cultura Digitale Questa è la definizione che il vocabolario Treccani dà di gioco. Dipendendo dal contesto la parola può avere accezioni diverse in quanto si è evoluta nel corso del tempo sviluppando delle sfumature...

Dettagli