l`archivio digitale giuliano scabia

Commenti

Transcript

l`archivio digitale giuliano scabia
UNIVERSITA' DEGLI STUDI DI BOLOGNA
FACOLTA' DI LETTERE E FILOSOFIA
________________________________________________________________________
Corso di Laurea in DAMS
L'ARCHIVIO DIGITALE GIULIANO SCABIA
Tesi di laurea in
Relatore:
Prof. PierLuigi Capucci
Presentata da:
Claudio Lamperti
Correlatori:
Dott. Dario Canè
Dott. Fabio Regazzi
Sessione III
________________________________________________________________________
Anno Accademico 2004-2005
INDICE
Introduzione
La nascita del progetto…………………………………………..pag 1
Introduzione all’archiviazione dei documenti………………….. pag 2
I vari tipi di supporto…………….……………………………... pag 5
Fattori generali di conservazione………………………………. pag 6
Capitolo Primo
Materiali Magnetici………………………………………….…. pag 9
Dischi Magnetici…………………………………………….…. pag 14
La stabilità dei supporti magnetici………………………………pag 14
Supporti Ottici……………………………………………….…. pag 18
Media ottici riscrivibili…………………………………………. pag 20
La stabilità dei supporti ottici…………………………………... pag 20
Capitolo Secondo
Cos’è un codice binario………………………………………… pag 22
Comparazione tra analogico e digitale…………………………. pag 23
Compressione video e codifica MPEG…………………….……pag 29
Sistemi di compressione video
• Compensazione di moto…………………………………….. pag 32
• Trasformata discreta Coseno (DCT)………………………... pag 35
• Codifica del colore………………………………………….. pag 36
Specifiche per l’MPEG video……………………………….…..pag 38
Perché il digitale….…………………………………………….. pag 41
Capitolo Terzo
Premesse al lavoro di digitalizzazione…………………………..pag 46
I macchinari utilizzati…………………………………………... pag 49
Nutrire Dio………………………………………………………pag 51
• Lavoro svolto sui filmati di Nutrire Dio……………………. pag 52
Il Gorilla Quadrumano……………………..……………………pag 56
• Lavoro svolto sui filmati de Il Gorilla Quadrumano……….. pag 58
Marco Cavallo…………………………………...........................pag 60
• Lavoro fatto sui filmati di Marco Cavallo………………….. pag 62
Il Diavolo e il suo Arcangelo……………………………………pag 63
• Lavoro svolto sui filmati de Il Diavolo e il suo Arcangelo.… pag 64
La creazione dei DVD………………………………………….. pag 66
Conclusioni……………………………………………………. pag 72
Glossario
Bibliografia di Riferimento
Webgrafia
Appendice Fotografica
INTRODUZIONE
LA NASCITA DEL PROGETTO
La nascita del progetto “Archivio Digitale Giuliano Scabia” risale al
periodo intercorrente tra il luglio e il settembre del 2003 ad opera di
Dario Canè.
Motore principale della nascita di questo progetto il rischio di perdere
una buona parte dei materiali riguardanti l’attività teatrale di Giuliano
Scabia, famoso drammaturgo e scrittore, a partire dal lontano 1973
fino ai giorni nostri.
Trattandosi di materiali conservati su supporti eterogenei e deperibili
(una gran parte di essi sono nastri VHS), si era palesata la necessità di
trasferirli su supporti più duraturi, quali il DVD, così da assicurarne la
salvaguardia, poiché si trattava di documenti spesso inediti e
dall'indiscusso valore artistico. Scopo non secondario era anche
quello di rendere tutto questo materiale video omogeneo e di semplice
fruizione, così da consentirne un utilizzo a scopi didattici.
Dopo una prima schedatura del materiale, effettuata tra il 15 e il 18
luglio 2003, con la collaborazione del tecnico responsabile del
laboratorio, il sig. Frank Baliello, si è proceduto alla redazione di
differenti progetti di fattibilità, che prendessero in esame varie ipotesi
di lavoro, a seconda delle possibilità tecniche ed umane che il
Laboratorio Multimediale sarebbe stato in grado di mettere a
disposizione del progetto. Le ipotesi paventate andavano dalla
semplice salvaguardia del materiale mediante riversamento del
materiale su nastri Dvcam senza ulteriori interventi, alla vera e
propria edizione di dischi multimediali, previa digitalizzazione del
1
materiale, con conseguenti interventi di correzione audio e video e la
creazione di inserti, menù ed indici nei DVD. In quest'ultimo caso il
lavoro avrebbe richiesto la disponibilità e l'utilizzo di macchinari e
software piuttosto avanzati, di cui il laboratorio all'epoca ancora non
disponeva. Si è così deciso di acquistare un sistema Apple Macintosh
G5 doppio processore con scheda di acquisizione, in modo da avere i
mezzi per effettuare un lavoro completo, che oltre al salvataggio del
materiale dal deperimento mediante il riversamento su supporti
digitali unisse
interventi di correzione audio e
video, ed
eventualmente di taglio e montaggio dei filmati stessi, per concludersi
poi con la creazione dei DVD.
Il progetto ha comunque dovuto attendere più di un anno prima che
tutto fosse pronto ed operativo, ed il battesimo ufficiale è stato dato
per l'11 di aprile del 2005.
INTRODUZIONE ALL’ARCHIVIAZIONE DEI DOCUMENTI
Le più significative tracce di tutte le attività culturali ed intellettuali
dell'umanità sono contenute nei documenti. È questo un termine
molto generico, che all’interno di questo contesto va inteso come
semplice testimonianza di una qualsiasi attività umana. Questi
documenti possono avere forme diverse, dai formati “tangibili” come
i papiri, le pergamene e la carta, fino ai moderni formati elettronici, in
cui l'informazione viene tradotta in una serie di impulsi magnetici o
elettrici che possono essere letti solo da appositi macchinari. Come
tutti gli altri prodotti dell'attività umana, comunque, tutti i documenti
sono molto fragili e vulnerabili di fronte all’azione del tempo, anche
se a gradi diversi.
2
Il rischio che una parte consistente di memoria collettiva dell'umanità
vada perso è dunque reale, per questo è necessario aumentare gli
sforzi per assicurare la sopravvivenza dei documenti conservati negli
archivi di tutto il mondo. Bisogna infatti tener presente che la
conservazione dei documenti non è un'attività fine a se stessa, e che in
se stessa trova la realizzazione del proprio scopo ma, anzi, essa è un
pre-requisito fondamentale per consentire di accedere al patrimonio
comune dell'umanità, e a tutti i vari tipi di informazione, poiché
nessuna
dimensione
storica
è
possibile
senza
un’adeguata
conservazione delle collezioni e dei documenti che la compongono1.
I documenti negli archivi e nelle librerie di tutto il mondo sono fonti
indispensabili per molte discipline scolastiche, ma non solo, sono
anche indispensabili per chiunque voglia fare ricerche e raccogliere
informazioni, divertirsi e coltivare passioni di interesse generale.
L'informazione dovrebbe essere resa disponibile a tutti, in maniera
libera, rapida ed efficace. La conservazione dei supporti fisici
dell'informazione è la base da cui partire per poter garantire un
servizio di questo tipo in futuro.
Nel pensiero collettivo la conservazione dei documenti viene in
genere associata alla salvaguardia di libri ed altri materiali scritti,
omettendo i formati nati negli ultimi secoli, vale a dire, quelli nati
dopo l'avvento della fotografia e dell'informatica. Ciò probabilmente
accade perché le biblioteche hanno più di 4000 anni di storia alle
spalle, mentre gli archivi audio-visivi risalgono a pochi decenni fa. Le
forme più tecnologiche di documentazione hanno addirittura pochi
anni di vita. Ci sono dunque differenti tipi di documenti, da ciò
consegue che ci siano anche una serie di differenze.
Santoro M. Dall’analogico al digitale: la conservazione dei supporti non cartacei, tratto dalla rivista
“Biblioteche oggi”, marzo 2001
1
3
Vediamone alcune. La scrittura rappresenta il pensiero dell'uomo
attraverso l'utilizzo di simboli. Un certo margine di ridondanza è
quindi insito nel dialogo e nello scritto. Le lettere, ed ogni tanto anche
le parole, possono venire omesse senza che a ciò consegua
inevitabilmente una perdita di informazione. Per contrasto, i
documenti audiovisivi sono una rappresentazione analogica dello
stato fisico in cui un evento si presenta: ogni parte dei documenti di
questo tipo contiene informazione. Mentre un errore di stampa in un
libro non compromette generalmente la corretta comprensione del
testo, un equivalente errore nella stampa di una fotografia
comporterebbe un cambiamento dell'informazione, e su di un nastro
magnetico, potrebbe perfino rendere il nastro illeggibile. Visti dunque
sotto quest'ottica, i documenti audio-visivi richiedono un maggior
grado di protezione e sicurezza rispetto ai materiali scritti. Lo stesso
vale per i documenti digitali. Addirittura i documenti elettronici di
ultima generazione non richiedono nemmeno più un supporto fisico
tangibile per il fruitore, dato che si manifestano sotto forma di impulsi
di energia e solo per un tempo limitato (pensiamo ad esempio al caso
dei messaggi e-mail, trasmissibili tramite un comune cavo telefonico).
Anche per loro esistono comunque dei parametri di sicurezza in modo
da garantirne una corretta trasmissibilità, e qualora si dovesse rendere
disponibile
un
loro
accesso
in
tempi
postumi
anch'essi
richiederebbero il trasferimento su di un supporto fisico che possa
garantirne la conservazione. Un fattore invece che molti, se non tutti,
i documenti hanno in comune tra loro, è la loro dipendenza dal
materiale che ne costituisce il supporto, che sia organico oppure
artificiale. I materiali tradizionali (carte, pergamena, pelle...) sono
tutti di natura organica. I nuovi materiali, quali cassette, dischi e
pellicole appartengono tutti alla stessa famiglia, trattandosi di
4
materiali creati dall'uomo, quali il PVC e il poliestere. Il tempo
richiesto dal processo di decomposizione chimica dei vari supporti
varia ampiamente a seconda dei vari materiali: alcuni possono durare
millenni, altri faticano a durare anche solo pochi anni.
Tutti i materiali vanno comunque incontro a decadimento, questo è
inevitabile, ma il processo può essere sensibilmente rallentato se il
documento viene maneggiato con cura e viene conservato in maniera
adeguata. D'altro lato, un utilizzo incurante del materiale può risultare
nocivo, accelerando sensibilmente il deperimento.
I VARI TIPI DI SUPPORTO
Generalmente si usano dividere i vari tipi di documenti in cinque
gruppi:
•
Carta e altri materiali tradizionali (inclusi pergamene, pelle,
inchiostri e pigmenti. Questo costituisce il gruppo di documenti più
antico e più ampio.)
•
Fotografie e altri materiali grafici (include tutti i tipi di immagini
fotografiche su tutti i tipi di supporti, carta, vetro, celluloide e altri
materiali...)
•
Supporti meccanici (quali supporti per la registrazione di suoni
come i dischi e i cilindri fonografici...)
•
Materiali Magnetici (cassette, dischi rigidi e floppy disc)
•
Materiali Ottici (CD-ROM, CD-Audio, DVD...)
A questi vanno aggiunti i supporti di ultimissima generazione quali i
documenti elettronici e le informazioni virtuali (come la e-mail).
5
FATTORI GENERALI DI CONSERVAZIONE
Tutti i supporti per documenti, specialmente quelli moderni ad alta
densità, sono per loro natura, vulnerabili. Inoltre bisogna considerare
il fattore di rischio addizionale che possono comportare un
maneggiamento improprio, attrezzature malfunzionanti o incidenti in
generale. Per la conservazione a lungo termine di molti tipi di
documenti si stanno mettendo a punto miglioramenti nelle tecniche di
conservazione. Ad esempio, l'utilizzo di copie per ridurre la frequenza
di utilizzi del documento originale ridurrà lo stress di quest'ultimo e
ne prolungherà la conservazione. Una strategia finora largamente
usata consiste nella creazione delle cosiddette copie di accesso al
documento, cioè di copie create appositamente a scopo di
consultazione. È di fondamentale importanza, inoltre, avere almeno
due copie di ogni documento: una utilizzabile come copia master e
l'altra come vera e propria copia di accesso. Queste dovrebbero essere
conservate in due luoghi differenti, ed in differenti condizioni
climatiche, se possibile. Questa è una politica di grande utilità che
molti archivi hanno deciso di adottare. Anche la conservazione dei
documenti su microfilm viene spesso usata, sia come espediente per
la conservazione del materiale, sia come copia d'accesso ad alta
qualità, dato che questa tecnica può servirsi di supporti digitali,
mediante dischi ottici, oppure nastri magnetici. Un passo ulteriore è
costituito dai sistemi di stoccaggio di massa in grado di
autocontrollarsi e di autorigenerarsi. Si tratta di grandi contenitori
(silos) in cui vengono conservati i supporti, la cui gestione è
interamente affidata a robot, che a scadenze prefissate ne verificano
l’integrità sostituendoli periodicamente con nuove copie. Questa
potrebbe costituire la soluzione per la conservazione di tutti i
6
documenti elettronici, anche in luoghi dalle condizioni climatiche più
sfavorevoli. I costi di queste strutture sono ancora relativamente alti,
ma presto diventeranno più accessibili, e potranno essere applicati
anche a progetti dalla modesta portata. Un sistema di stoccaggio di
massa richiede infatti generalmente poco spazio, permettendo così di
risparmiare sui costi di climatizzazione e di controllo dell'umidità.
L’evoluzione tecnologica porta ad una obsolescenza precoce dei
sistemi di archiviazione: mentre per i formati audiovisivi tradizionali
la durata stimata del nastro era di fondamentale importanza, i formati
moderni si basano sulla compatibilità di attrezzature di replicazione
funzionanti ed appropriate. La situazione è ulteriormente complicata
dalla labilità nel tempo dei software dedicati e dei sistemi operativi. Il
fatto che i dati vadano continuamente trasferiti su supporti aggiornati
non è assolutamente un particolare di poca importanza, poiché
richiede una continua attenzione ai nuovi formati immessi in
commercio, onde evitare che le informazioni vengano messe su
supporti destinati ad uscire presto dal mercato e diventino così
inaccessibili per la mancanza di macchinari adatti alla lettura.
Un altro fattore centrale nella salvaguardia dei documenti consiste
nella corretta manutenzione e nel perfetto funzionamento dei
macchinari adibiti alla lettura dei dati ed alla loro replica. Vanno fatti
grandi sforzi per mantenere le attrezzature nelle migliori condizioni
possibili. Per assicurare inoltre una lunga vita ai materiali che
contengono le informazioni, è necessario controllare le condizioni
climatiche dei magazzini. I requisiti minimi sono una temperatura ed
un livello di umidità costanti. Qualunque variazione (al di fuori di un
certo margine “di sicurezza”) di questi due parametri accelererà di
molto il processo di decadimento. Per questo gli impianti di
condizionamento devono funzionare 24 ore al giorno. L'aria del
7
magazzino deve essere continuamente filtrata attraverso filtri al
carbonio e deve essere libera di circolare per sei volte all'interno di
tutta l'area, con ricambio di aria fresca pari al 10%. È assolutamente
necessario che la circolazione di aria venga mantenuta, se necessario
anche con ventagli, così da evitare assolutamente il formarsi di sacche
di aria stagnante che potrebbero favorire il formarsi di funghi e muffe.
Anche temperature troppo alte possono accelerare il processo di
decadimento, mentre le basse temperature hanno l'effetto di
rallentarlo. Allo stesso modo, livelli di umidità elevati favoriranno
l'idrolisi, incoraggiando la comparsa di muffe e funghi. Questi
organismi non solo possono “mangiare” carta e altri polimeri naturali,
ma rendono anche gli altri tipi di supporti (nastri magnetici, dischi
ottici...) illeggibili da parte delle macchine, o addirittura dannosi per
quest'ultime. Mentre è abbastanza risaputo che molti materiali si
conservano meglio alle basse temperature, meno diffusa è la
conoscenza che anche l'umidità vada controllata. Il problema è che
risulta abbastanza facile controllare la temperatura in un luogo, ma
regolarne l'umidità risulta essere estremamente più costoso e
complicato.
8
CAPITOLO PRIMO
MATERIALI MAGNETICI
I media magnetici sono stati per lungo tempo i formati a più largo
utilizzo e con maggiore diffusione. Sotto forma di nastri per registrare
suoni, immagini o dati digitali, sotto forma di hard disk e floppy disk
per immagazzinare dati nei computer, quando applicati sotto forma di
banda magnetica su tessere, i media magnetici permettono di accedere
al conto corrente, possono contenere le nostre generalità, consentire
l'accesso attraverso porte e molte altre cose.
I principi base per la registrazione su un media magnetico furono
esposti per la prima volta da Oberlin Smith nel 1880. L'idea non fu
però più ripresa da nessuno fino a quando Valdemar Poulsen
introdusse nel 1889 il suo sistema di registrazione con il registratore a
filo di acciaio. I primi magnetofoni vennero prodotti in Germania a
metà degli anni '30, dei registratori a nastri con velocità di scorrimento
di 100 centimetri al secondo. Il loro utilizzo per la registrazione di
suoni non arrivò comunque a grande diffusione fino agli anni '50. La
BBC, ad esempio, continuò ad utilizzare dischi per le registrazioni fino
al 1965.
La registrazione di immagini su nastri magnetici arrivò solo in seguito.
Come per le registrazioni audio, ci furono vari sistemi prima che il
nastro si diffondesse e diventasse di utilizzo comune. La prima
registrazione di immagini con un metodo non fotografico fu fatta da
John Logie-Baird nel 1924. Le immagini vennero registrate su un 78
giri che è ora conservato al National Sound Archive a Londra. Le
prime registrazioni pratiche di programmi televisivi furono fatte
99
utilizzando speciali telecamere puntate su schermi video. La prima
macchina per registrazioni video su nastro fu creata dalla BBC nel
1955: utilizzava un nastro da ½ pollice, con una velocità di
scorrimento di 3 metri al secondo. Questo sistema venne ben presto
soppiantato dall'introduzione di un nastro da 2 pollici da parte della
Ampex Corporation. Da allora nuovi formati si sono aggiunti a questi,
e con una rapidità sempre maggiore. È stato calcolato che, includendo i
differenti standard di emissione e di fornitura elettrica, le immagini
sono state registrate in oltre 100 differenti formati nei 40 anni seguenti
alla nascita della registrazione video su nastro. La conservazione di
dati su supporti magnetici sotto forma di nastri o cartucce è oggi molto
diffusa negli archivi di tutto il mondo sia per dati audio che video.
Questo perché i nastri sono dei supporti affidabili, a bassa componente
di rischio ed anche economici. Se liberi da difetti di produzione, i
nastri possono mantenersi in ottimo stato per molti anni. I primi nastri
audio hanno ormai più di 50 anni e risultano ancora essere
perfettamente riproducibili. I primi nastri magnetici utilizzavano il
triacetato di cellulosa come supporto di base, mentre quelli più
moderni utilizzano il poliestere. Su tale supporto di base è steso uno
strato di polvere magnetica, attaccato grazie ad uno strato intermedio
di collante. Il collante ha però in genere la tendenza a diventare fragile
a causa dell'umidità presente nell'atmosfera, che favorisce l’idrolisi.
Questa fragilità può causare seri problemi durante la riproduzione di
nastri audio vecchi. I nastri che presentano casi seri di idrolisi tendono
a liberare acido acetato in quantità sempre maggiori creando così
un'accelerazione nel processo di decadimento. Per queste ragioni è
necessario prendere in considerazione l’ipotesi di trasferire le
informazioni su nuovi media.
Un altro gruppo di nastri audio che ormai appartiene alla storia sono
10
10
quelli che utilizzano il policloruro di vinile come supporto magnetico.
Come i dischi in vinile, questi nastri non hanno ancora manifestato con
sistematicità alcun tipo di instabilità dopo un determinato lasso di
tempo, e non presentano specifici problemi di conservazione; la loro
durata in prospettiva risulta dunque ancora sconosciuta. Le normali
cassette invece, sia audio che video utilizzano il poliestere come
supporto base. Esso ha una grande resistenza nei confronti dello stress
meccanico e dell'umidità. Anche in questo caso non si sono ancora
manifestati sistematicamente problemi di stabilità dopo un certo
periodo e la longevità è dunque sconosciuta. Per il cosiddetto
“rivestimento” (cioè la parte magnetica del nastro su cui viene
registrata l’informazione) sono invece stati utilizzati molti tipi diversi
di supporti, ma solo le polveri di metallo, usate nei formati ad alta
densità, hanno dato fino ad oggi motivi di seria preoccupazione. Infatti
i primi nastri con polveri di metallo soffrivano enormemente il
problema della corrosione; nonostante oggi questo problema sembri
essere sotto controllo, non si hanno ancora informazioni certe sull’arco
di tempo in cui le particelle di metallo saranno in grado di mantenere le
loro informazioni non distorte e leggibili. Contrariamente a quanto
sostenuto inizialmente dai maggiori detrattori di questa tecnologia,
bisogna comunque sottolineare che le informazioni magnetiche non
scompaiono,
se
i
nastri
vengono
maneggiati
e
conservati
adeguatamente.
Il più grande problema relativo ai nastri magnetici, come ho già
accennato, riguarda il collante che mantiene le particelle magnetiche
legate al supporto della pellicola. Un numero considerevole dei nastri
prodotti tra gli anni Settanta e gli anni Ottanta soffre di idrolisi del
collante. Ciò è dovuto all'assorbimento dell'umidità presente nell’aria,
che viene così assorbita e causa la perdita delle proprietà proprie del
11
11
collante. I nastri di questo tipo, quando vengono riprodotti, lasciano
sulle testine del lettore vere e proprie macchie di particelle magnetiche.
In casi estremi, la parte magnetica arriva a staccarsi completamente dal
supporto. Esistono vari processi per rendere questi nastri di nuovo
leggibili, ma si tratta di processi ingombranti, lunghi, e non efficaci se
applicati su nastri che versano in condizioni critiche. In alcuni casi
basta mettere il nastro in un forno, a temperatura controllata, in modo
da restituire al collante le sue proprietà elastiche e rendere il nastro di
nuovo riproducibile. Dopo qualche ora dal raffreddamento però il
collante perde l’elasticità acquisita precedentemente con la cottura, e
ad ascolti successivi potrebbe riprendere a lasciare residui magnetici
sulle testine. Questi problemi derivanti da idrolisi si riscontrano con
maggior frequenza nelle aree geografiche più calde e a maggior tasso
di umidità, dove molti nastri non durano che pochi anni.
I nastri magnetici possono presentarsi sotto forma di:
• bobine aperte
• cassette
• cartucce
I nastri conservati in bobine aperte per essere riprodotti sulla macchina
devono essere prima montati da un operatore, con conseguente
possibilità di danno per il nastro. Le bobine aperte sono state per lungo
tempo la forma più diffusa per la registrazione audio in ambito
professionale.
I nastri in cassetta invece sono più protetti e le due estremità del nastro
assicurate su due bobine interne. Anche una cartuccia è completamente
chiusa, ma il nastro si presenta sottoforma di un circuito unico, senza
alcun avvolgimento. Cassette e cartucce sono facilmente caricabili sui
12
12
macchinari per la loro riproduzione, a differenza delle bobine aperte.
Le cartucce vedono il loro utilizzo maggiore nella conservazione di
dati informatici, molto più raro è il loro utilizzo per la registrazione di
brevi sequenze sonore.
Le cassette sono molto diffuse nel mondo del video e dei computer, ma
non nell'ambito audio professionale. Si possono prestare a molteplici
utilizzi: si può andare dalle comuni musicassette attraverso i vari tipi di
videocassette fino ai nastri audio digitali con testine rotanti (DAT), per
arrivare fino alle moderne cassette digitali Dvcam e miniDV. Le
musicassette sono state per lungo tempo il formato più diffuso
nell'ambiente musicale, sia in ambito commerciale che in ambito
privato, ma non in ambito professionale. Per la registrazione analogica
di video, sia professionalmente che non, sono stati utilizzati molti tipi
diversi di cassette. Il più comune è la normale VHS. Altri formati sono
il ¾ di pollice U-Matic – un formato semiprofessionale, e il ½ pollice
Betacam, utilizzato diffusamente in ambiente televisivo e radiofonico.
Tutti questi formati video, sia analogici che digitali, utilizzano una
tecnologia a testine rotanti. Una gran varietà di formati su cassetta
vengono anche utilizzati nel mondo informatico come back-up per le
informazioni contenute sui dischi interni.
13
13
DISCHI MAGNETICI
Ci sono due tipi di dischi magnetici: gli hard disk e i floppy disk.
Durante le operazioni di lettura e di scrittura il disco viene fatto
ruotare, in questo modo i dati vengono registrati lungo tracce circolari,
settore dopo settore, rendendo rapidissimo l’accesso ai dati anche in
modalità casuale. Su di un nastro invece l’accesso ai dati avviene in
modalità lineare, dunque bisogna attendere il riavvolgimento del nastro
stesso fino al punto desiderato. I floppy non sono molto adatti per
l'archiviazione a lungo termine. Possono essere facilmente deformabili
a causa dell'instabilità del materiale plastico, con conseguenze anche
per il drive di lettura. Anche per questa ragione i floppy dovrebbero
essere utilizzati solo per brevi periodi di tempo.
Gli hard disk si trovano solitamente installati in maniera fissa
all'interno dei computer e vengono utilizzati per l’immagazzinamento
dei dati. Esistono anche hard disk rimovibili, in grado di contenere
centinaia di Giga di dati. Gli hard disk sono molto affidabili, tuttavia
viene sempre consigliata la creazione di copie di back-up dei dati
immagazzinati in essi.
LA STABILITA’ DEI SUPPORTI MAGNETICI
La storia dei media magnetici è anche la storia del tentativo di ottenere
una sempre crescente densità di dati. Questo è diventato possibile
grazie alla progressiva riduzione delle dimensioni delle strutture
magnetiche elementari e dei drive di lettura, che sono in grado di
leggere informazioni sempre più piccole. Grazie a queste scoperte si è
potuto registrare una quantità sempre maggiore di informazioni su
14
14
supporti sempre più piccoli. Il pericolo, comunque è che le
informazioni diventino sempre più vulnerabili. La corretta lettura e
registrazione delle informazioni sui moderni formati magnetici dipende
in larga parte dalle condizioni fisiche del macchinario adibito alla
registrazione dei dati, dal perfetto funzionamento del macchinario di
riproduzione e da un supporto libero da fattori dai disturbo.
I principali nemici della stabilità dei supporti magnetici possono essere
riassunti in:
• umidità e temperatura
• deformazioni meccaniche
• polvere e sporco in genere
• campi magnetici interferenti
L'umidità è il fattore più pericoloso, poiché, come abbiamo già visto
può favorire il processo di idrolisi. Alti livelli di umidità possono
incoraggiare la crescita di funghi e muffe, che intaccando la superficie
magnetizzata dei nastri e dei floppy disk, può impedirne la corretta
lettura. Le dilatazioni termiche dovute alla temperatura possono creare
problemi, soprattutto per i nastri ad alta densità. La temperatura può
anche influire sulla velocità dei processi chimici: più è alta, più questi
sono rapidi; al contrario, un abbassamento li rallenta. Uno dei fattori
più sottovalutati per una corretta conservazione dei dati registrati su
media magnetici è l’integrità meccanica: anche deformazioni minime
possono causare seri problemi nei processi di playback. Molta
attenzione
deve
essere
dedicata,
comunque,
anche
al
buon
mantenimento dei macchinari di lettura che, se malfunzionanti,
possono
danneggiare,
o
addirittura
distruggere
supporti
particolarmente delicati, come ad esempio i nastri DAT. Con tutti i
15
15
formati su nastro è importante che la sua superficie sia uniforme e
liscia, così da evitare danneggiamenti ai bordi del nastro. Per questo sia
le cassette, che le cartucce, che i floppy disk, dovrebbero essere sempre
conservati in posizione verticale. Polvere e sporco possono impedire il
contatto diretto tra le testine di lettura ed il nastro, condizione
essenziale
per
una
corretta
restituzione
delle
informazioni,
specialmente con i formati ad alta densità. Più alta è la densità dei dati,
maggiore è l'attenzione che si deve prestare alla pulizia del nastro.
Anche il comune fumo di sigaretta è formato da particelle grandi a
sufficienza per nascondere
informazioni sui moderni formati
magnetici. Oltre agli inconvenienti meccanici causati da polvere,
impronte digitali e fumo, anche l'inquinamento chimico causato dallo
smog industriale può accelerare il deterioramento chimico. L'effettiva
prevenzione di polvere ed altri tipi di sporco ed inquinamento è,
dunque, un requisito indispensabile ad una corretta conservazione dei
media magnetici.
Infine, vi sono i campi magnetici interferenti che possono essere
generati da sorgenti esterne e che potrebbero spostare l’inclinazione
delle particelle magnetizzate sul nastro. Per loro natura, le registrazioni
audio analogiche, incluse le tracce audio sulle cassette video, sono le
più vulnerabili ai campi magnetici esterni. Le registrazioni video, e
quelle digitali sono meno sensibili.
Un ultimo fattore di cui tener conto è il cosiddetto “effetto copia”, che
consiste nell’involontario trasferimento magnetico di ciò che è
registrato in uno strato di nastro sulla spira adiacente. Il segnale che
“stampandosi” si aggiunge a quello già presente nel nastro, si
manifesta come un’eco della registrazione precedente, o come
un’anteprima di quella successiva, entrambi ad un livello molto basso.
L’effetto copia può essere dovuto a molti fattori: la temperatura elevata
16
16
può aumentarne gli effetti, che si intensificano pure con il passare del
tempo. Anche un nastro sottile sarà più soggetto ad effetto copia
rispetto ad uno di maggior spessore, mentre il numero dei
riavvolgimenti influisce poiché ad ogni riavvolgimento si riduce questo
effetto.
17
17
SUPPORTI OTTICI
I supporti ottici sono usati per l'immagazzinamento di suoni digitali,
immagini e dati. Esistono tre principali famiglie:
• la comune famiglia dei CD di massa, includente i CD audio (sia da
12 che da 8 cm), i CD-ROM, i CD-V e i Video Disc
• i dischi ottici e le cassette che possono essere registrati una sola
volta
• i dischi riscrivibili
I dischi di produzione di massa della famiglia dei CD contengono
informazioni digitali sotto forma di microscopici buchi su di una base
di policarbonato ricoperta da uno strato riflettente. Questo strato
riflettente è solitamente costituito da alluminio, ma talvolta vengono
anche utilizzati l'argento e l'oro. Su questa superficie viene poi posta
una barriera trasparente come protezione. Questa superficie funge
anche da targhetta protettiva: una volta che le informazioni vengono
impresse sul disco, esse non possono venir modificate o riscritte. Un
CD di 12 cm di diametro può contenere in media 650 Mb di dati
oppure un'ora di file audio. Per quanto riguarda il tempo di accesso alle
informazioni siamo nell'ordine dei millesimi di secondo.
Il primo disco di questa famiglia ad essere inventato fu il Laser Vision
analogico video da 30 cm. Esso consisteva in due dischi attaccati
insieme, così da formare un doppio strato, ognuno dei quali poteva
contenere un'ora di video. Presto si aggiunse un sotto-formato in grado
di contenere fino a 54000 immagini video per ogni lato. Il disco LV fu,
tra molti tentativi fatti, quello più riuscito nel tentativo di aprire a
questo genere di formati una strada commerciale, ma era destinato ad
18
18
essere soppiantato dal DVD, che fu lanciato nel 1997. Il DVD è
concepito per contenere film o video, oppure testi e dati multimediali,
come nel caso dei CD-ROM, di cui ha le stesse dimensioni (12 cm di
diametro), ma con capacità di immagazzinamento molto maggiori:
utilizzando infatti un laser con una lunghezza d'onda minore, è stato in
grado di portare la sua capacità di immagazzinamento di dati fino a 4.7
GB. Inoltre, è compatibile con una struttura a doppio strato, ognuno
letto da due laser con lunghezze d'onda differenti, fino ad una capacità
di 9 GB. Sono inoltre allo studio formati che prevedono una
registrazione a doppio strato su entrambi i lati del disco, portando così
la capacità di memorizzazione fino a quasi 18 GB.
I dischi scrivibili una sola volta possono essere di vari tipi. Il formato
più diffuso è il CD registrabile (CD-R), in commercio sin dal 1993.
Poiché ha le stesse dimensioni e capacità dei CD audio e dei comuni
CD-ROM, il CD-R può essere letto nei lettori standard per CD. Il
corpo del disco è ricoperto da uno strato di materiale organico
(phtalocianina) che chimicamente è un polimero pigmentato dal
comportamento simile all’emulsione fotografica. È questo lo strato che
contiene le informazioni, cosa che nei normali CD è invece affidata ai
fori microscopici. In fase di registrazione, gli impulsi ad alta intensità
del laser, modificano la composizione molecolare della phtalocianina,
variandone la capacità riflettente e simulando così la presenza dei fori.
Una volta scritti, i dati non possono più venir modificati. I
masterizzatori CD possono scrivere a diverse velocità e il CD-R ha il
vantaggio di essere un formato molto diffuso e standardizzato. I CD-R
sono i più diffusi esempi dei cosiddetti dischi WORM (Write Once,
Read Many – scrivi una volta, leggi molte).
19
19
MEDIA OTTICI RISCRIVIBILI
A differenza dei media ottici precedenti, i dati sui dischi ottici
riscrivibili possono essere cancellati e riscritti molte volte. I dischi
ottico-magnetici sono ancora quelli più diffusi in cui un raggio laser
nella fase di scrittura riscalda lo strato interno del disco ottico ed in
questo modo modifica la polarità. Un modo di registrazione più recente
è il Phase-change, dove il supporto è coperto da una pellicola semimetallica, che può essere sia nello stato amorfo che cristallino. Un
raggio laser in modalità di scrittura può cambiare i singoli punti sia da
amorfi in cristallini che viceversa, riproducendo così la presenza dei
fori dei CD. I dischi magneto-ottici hanno tempi di scrittura
relativamente alti, dovuti al processo di riscaldamento della superficie
prima di poter effettuare la modifica della polarizzazione dello strato
magnetico e tempi di accesso in lettura relativamente brevi, in
compenso risultano ad oggi fra i supporti che danno le maggiori
garanzie di durata ed affidabilità, perchè protetti da un guscio esterno e
esenti dalle interferenze magnetiche esterne.
LA STABILITÀ DEI SUPPORTI OTTICI
I principali fattori in grado di intaccare la stabilità dei supporti e la
restituzione delle informazioni possono essere riassunti in:
• umidità e temperatura
• deformazioni meccaniche
• polvere e sporco di ogni genere
20
20
Per alcuni tipi di supporto si aggiungono altri tipi di fattori:
• luce
• campi magnetici parassiti
L'umidità, come nel caso di tutti gli altri supporti, è il fattore più
pericoloso. Nel caso dei media ottici essa provoca l'idrolisi di alcuni
componenti, quale ad esempio lo strato protettivo del CD e accelera la
corrosione di tutti i componenti metallici, inclusi gli strati di metallo
riflettente. Come effetto secondario, livelli di umidità molto alti
incoraggiano la crescita di muffe e funghi che possono ostacolare la
lettura della informazioni ottiche.
La temperatura, come negli altri casi già affrontati, determina la
velocità delle azioni chimiche di deterioramento. Inoltre, essa potrebbe
provocare mutamenti delle dimensioni del disco, rendendo impossibile
la lettura dei dati. L'integrità meccanica è indispensabile. Anche graffi,
rigature e impronte digitali possono ostacolare la lettura. Piegature nel
disco possono causare crepe microscopiche in grado di deviare il
raggio laser. I CD vanno quindi maneggiati con molta cura, cercando
di fare bene attenzione alla conservazione dell'integrità fisica. È da
evitare infine l’esposizione alla luce del sole.
21
21
CAPITOLO SECONDO
COS’È UN CODICE BINARIO
Esistono molti codici di numerazione, quello a base 10, quello
esadecimale a base 16; quello più piccolo è il binario, che dispone di
due sole cifre: 0 e 1. Ogni simbolo viene comunemente identificato
in un sistema binario con la parola bit, abbreviazione dall’inglese
BInary digiT.
Il sistema binario, come quello decimale è “posizionale” cioè la
posizione delle cifre, partendo dalla meno significativa (a destra),
rappresenta la potenza della base di numerazione: 10 nel caso
decimale, 2 nel caso binario. Un numero binario formato da più cifre
viene comunemente definito una parola, ed il numero di bit
costituisce la lunghezza della parola stessa.
Il sistema binario richiede di conseguenza più cifre rispetto ad un
sistema decimale. A livello pratico, il sistema binario ben si adatta ad
un impiego in campo elettronico dove è molto più semplice avere
dispositivi simili ad interruttori, e dove le funzioni di “acceso” e
“spento” possono essere rappresentate facilmente dalle sole due cifre
da cui è composto il sistema binario stesso.
Il grande vantaggio di questo sistema di rappresentazione dei dati sta
nel fatto che le informazioni risultano immuni rispetto agli errori
interpretativi. In gergo si dice che le informazioni sono più robuste.
A spiegazione di ciò, la Figura 1 mostra come in un sistema binario
ideale un segnale elettrico sia rappresentato mediante due soli livelli
di tensione possibili: tensione alta per rappresentare lo stato 1 e
tensione bassa per rappresentare lo stato 0. La B mostra la
22
modificazione subita dalla forma d’onda ideale dopo che è passata
attraverso un sistema reale. Essa risulta considerevolmente alterata,
ma l’informazione binaria può essere ricostruita paragonando la
tensione con un livello di soglia impostato a metà fra i due livelli. In
questo modo ogni segnale di livello superiore alla soglia viene
interpretato come 1, mentre ogni segnale di livello inferiore come 0.
Figura 1 Sistema elettrico binario
COMPARAZIONE TRA ANALOGICO E DIGITALE
Un segnale si dice analogico (continuo nel tempo) quando la sua
rappresentazione nel dominio del tempo è una funzione che può
assumere istante per istante uno qualsiasi degli infiniti valori di
ampiezza compresi tra un valore minimo ed uno massimo prefissati.
In un segnale digitale, invece, la rappresentazione nel dominio del
tempo è una funzione che può assumere istante per istante solo
alcuni valori di ampiezza compresi tra un valore minimo e uno
massimo prefissati (non vi è continuità).
23
Per metterla in termini più semplici la differenza tra analogico e
digitale corrisponde alla differenza tra una rappresentazione
continua e una rappresentazione discreta di determinate grandezze2.
Per comprendere meglio la differenza basterà pensare agli orologi:
quelli analogici mostrano il passare del tempo attraverso il
movimento continuo delle lancette, quelli digitali attraverso il “salto”
da un numero all’altro sullo schermo.
FUNZIONE CONTINUA
FUNZIONE DISCRETA NEL TEMPO E
NELLE AMPIEZZE
QUANTO DI
AMPIEZZA
PERIODO DI
CAMPIONAMENTO
Figura 2 Rappresentazione di un segnale continuo e di un segnale discreto
Il processo di digitalizzazione comporta sempre la suddivisione in
unità discrete di un qualcosa che nella realtà è spesso continuo; ciò
avviene attraverso la conversione di informazioni analogiche in
informazioni numeriche, cioè digitali.
I passaggi che conducono dalla rappresentazione continua di una
forma d’onda ad una rappresentazione numerica sono due: il primo
riguarda la misurazione del segnale ad intervalli regolari, e viene
chiamato campionamento. Campionare (discretizzare nel tempo)
significa prelevare i valori di un segnale analogico a intervalli di
tempo finiti e generalmente uguali; l’intervallo tra due prelievi è il
2
Ciotti F, Roncaglia G. Il mondo digitale. Introduzione ai nuovi media, Roma-Bari, Laterza, 2000
24
periodo di campionamento, il suo inverso è la frequenza di
campionamento.
Ogni campione misurato viene poi rappresentato con una sequenza di
numeri, processo chiamato quantizzazione.
Con la quantizzazione si arrivano ad esprimere grandezze che
variano in modo continuo attraverso valori discreti, effettuando
un’operazione di approssimazione (per difetto o per eccesso) per
ricondurre il valore misurato a quello più vicino sulla scala discreta.
La Figura 3 mostra come una linea obliqua tocchi un infinito
numero di valori di altezza, mentre una rampa a gradini sia in grado
di esprimere solamente valori discreti, per quanto piccoli questi
possano essere.
Figura 3 Differenza tra misurazione analogica e misurazione digitale
Nel campo dell’audio e del video i valori da quantizzare non sono
altro che tensioni variabili nel tempo provenienti da una sorgente
analogica. Per effettuare la quantizzazione di un singolo campione, si
considera il segnale come costante all’interno dell’intervallo di
campionamento.
Le due variabili in gioco sono la frequenza di campionamento ed il
numero di bit utilizzati per ogni campionatura.
25
Nell’audio digitale si procede al campionamento di un segnale
analogico (misurando le tensioni istantanee di tale segnale, dunque
effettuando una misurazione periodica), e convertendo questo
segnale in “parole digitali” codificate, cioè in un segnale discreto.
Il numero dei campioni audio per ogni secondo si chiama “frequenza
di campionamento”, e si misura in Hz. Le schede audio professionali
possono campionare a valori differenti, gli standard più diffusi sono i
44,1 kHz, 48 kHz e 96 kHz. Maggiore la frequenza, maggiore il
numero dei campioni acquisiti, più ampia è la larghezza del segnale
campionato.
Un aspetto interessante riguarda la relazione che intercorre tra la
frequenza di campionamento di un sistema e la sua banda passante
complessiva enunciata nel teorema di Nyquist. Secondo tale teorema
è possibile ricostruire correttamente un segnale continuo, variabile
nel tempo, da una serie di valori digitali discreti quando questi sono
stati presi con una frequenza di campionamento pari o superiore al
doppio della massima frequenza contenuta nel segnale in input per
codificare digitalmente la banda di frequenza desiderata, la frequenza
di campionamento prescelta deve essere almeno due volte la
massima frequenza registrata.
Ne consegue che un segnale audio con banda passante di 20 kHz
richiederà una frequenza minima di campionamento di 40.000
campioni al secondo.
Per capire meglio come avviene la digitalizzazione del video bisogna
fare una breve digressione sul segnale video analogico. Il segnale
analogico video va identificato con una forma d’onda che ha una sua
particolare forma ed è divisa in 625 parti3, che sono facilmente
3
Da qui in avanti si parlerà di segnale televisivo riferendosi esclusivamente al PAL. Esiste comunque anche il
formato NTSC, fatto da 480 linee con una frequenza di 30 frame al secondo
26
identificabili e quindi si possono contare grazie ad una serie di
impulsi di sincronismo che ne segnano l'inizio e la fine. Ciascuno di
questi 625 pezzettini di onda (della durata di 64 microsecondi),
contiene delle informazioni ed in particolare 576 pezzetti contengono
l'informazione di una riga del nostro televisore, un paio contengono
dei segnali di test, altrettante le informazioni del televideo, e le altre
tutti quei sincronismi che permettono al televisore di sapere dove
disegnare quella riga. Lo schermo televisivo analogico viene dunque
misurato a linee, e non a punti come nel caso dei video digitali.
Quelle che ci interessano, delle 625 righe del segnale Pal solo le 576
che contengono video; queste linee costituiscono un quadro, ma
vengono divise in due semiquadri: il primo costituito dalle linee pari,
il secondo da quelle dispari. L’aggiornamento del video viene fatto
attraverso un pennellino elettronico, che scorre orizzontalmente
lungo le linee ad una frequenza di 288 linee ogni 20 millisecondi.
Durante il primo passaggio il pennellino effettua l’aggiornamento
(detto refresh) delle linee dispari, nel secondo di quelle pari, poi
ancora di quelle dispari, e così via. Si ottiene così l’invio di 50
semiquadri ogni secondo, per un totale di 25 frame al secondo; infatti
il cambiamento totale delle 576 righe lo si ha ogni 40 ms. Ogni 20
ms cambiano solo la metà delle 576 righe (le 288 pari o dispari) e le
altre vengono lasciate immutate; si parla pertanto di visualizzazione
a 50 semiquadri al secondo. Il risultato di ciò è che in ciascuna di
queste ipotetiche 25 fotografie al secondo del nostro televisore, le
righe pari e le righe dispari provengono da istanti distanziati di 20
ms. Se prendiamo ad esempio poco prima dell’istante 40 ms sullo
schermo avrò un semiquadro ripreso nell’istante 0 ed uno ripreso
nell’istante 20 ms. Le conseguenze sono abbastanza semplici da
intuire: tutti gli oggetti che tra gli istanti 0 e 20 ms si sono mossi,
27
lasciano sulle righe pari la loro immagine dell’istante 0 e su quelle
dispari la loro immagine dell’istante 20 ms: l’effetto è una
discontinuità dei contorni, tanto maggiore quanto maggiore il loro
movimento.
Ovviamente gli oggetti fermi rimangono nella stessa posizione e non
lasciano nessuna discontinuità.
Al momento di ricostruire il frame digitale un chip nella ADC
converte il segnale analogico della linea in un segnale digitale. Il
processo di digitalizzazione avviene come nell’audio, ed anche in
questo caso il teorema di Nyquist è da considerarsi valido; ma poiché
il video viaggia su frequenze molto più ampie rispetto a quelle su cui
viaggia l’audio, si richiederà una frequenza di campionamento molto
maggiore. Nel caso si stia campionando il segnale a 288 pixel, le
schede digitalizzatrici non fanno altro che ignorare uno dei due
semiquadri. Visivamente la differenza non sta tanto nella diminuita
risoluzione, quanto nella perdita di fluidità, poiché è ignorata
un’immagine su due. La ricostruzione del frame viene poi ottenuta di
nuovo effettuando delle interpolazioni, quali ad esempio il
deinterlacciamento. Nelle videocamere invece la lettura digitale
dell’immagine viene fatta attraverso un sensore, denominato CCD,
che “legge” l’immagine e ne analizza la componente cromatica e
luminosa per ogni pixel. La successiva riproduzione dei colori
avviene tramite il mescolamento additivo sullo schermo dei tre colori
primari: il rosso, il verde ed il blu. Il display deve dunque disporre di
tre segnali, ognuno corrispondente ad uno di questi tre colori.
L’apertura del video al mondo digitale apre una serie di possibilità
che erano prima impensabili con la tecnologia analogica.
Correzioni di errori, compressioni, interpolazioni, sono concetti
difficili o addirittura impossibili da applicare al mondo analogico:
28
una volta che il video è stato acquisito in formato digitale, esso è
diventato un insieme di dati, e come tale può essere manipolato.
COMPRESSIONE VIDEO E CODIFICA MPEG
La compressione video è una specifica applicazione della tecnica di
compressione dei dati, secondo cui un segnale che può essere
interpretato come una serie di numeri (sia esso un flusso di parole, di
numeri o di immagini) viene “schiacciato”, dunque compresso, in un
insieme numerico più piccolo. Questa seconda serie di numeri pesa
meno, quindi occupa meno spazio su disco ed impiega meno tempo
per essere trasferita via rete.
La serie di numeri, prima di essere letta deve essere di nuovo
decompressa in un segnale simile a quello originale.
La compressione video è considerata un algoritmo “con perdita”
(lossy,
in
inglese),
in quanto
una
parte
di informazione
dell’immagine originaria viene necessariamente scartata: le serie
numeriche che vengono ricostruite non combaciano perfettamente
con l’originale. Questa perdita di informazione è accettabile finché si
tratta di una non perfetta definizione dei dettagli nell’immagine
compressa: la misura dell’efficacia di un algoritmo sta quindi nel
livello di compressione a cui l’algoritmo può arrivare con la minima
perdita o distorsione.
Nella loro forma originaria, i video digitali soffrivano molto le
grandi quantità di dati a causa del bit-rate eccessivamente alto per i
mezzi di memorizzazione e per i canali di trasmissione attualmente
disponibili. Nelle telecomunicazioni digitali, il bit-rate è il numero di
29
bit trasmessi in un'unità di tempo – in genere il secondo. Viene
quindi misurato in Kbit/s o Kbps.
L'informazione video, nella forma digitale, porta però molti vantaggi:
affidabilità di trasmissione, alta qualità, notevole flessibilità di
applicazioni.
Un segnale televisivo PAL, digitalizzato a 8 bit, richiede un bit-rate
di quasi 200 Mbit/s, mentre un segnale in alta definizione richiede
circa 1 Gbit/s; i mezzi di memorizzazione attualmente disponibili
(CD-ROM, DAT) danno invece un bit-rate di circa 1.5 Mbit/sec. Per
ottenere un bit-rate a questi livelli si rende necessaria una
compressione dei dati video, così da ridurre significativamente il
peso dell’informazione cercando di mantenere moderata la perdita di
qualità dell’immagine.
Proprio a causa della grande importanza che rivestono le tecniche di
compressione, la loro standardizzazione è diventata un problema di
fondamentale importanza, poiché soltanto in questo modo è possibile
ridurre gli alti costi delle apparecchiature di compressione delle
immagini
e
risolvere
il
problema
della
connessione
tra
apparecchiature realizzate da costruttori diversi, favorendo così la
diffusione di questo tipo di dati.
Per
questi
motivi
l'ISO
(International
Organization
for
Standardization) si è assunta il compito di sviluppare uno standard
per la memorizzazione di video digitali, e dell'audio ad essi
associato, su dispositivi come CD-ROM, DAT, nastri, dischi ottici,
ecc. e per la trasmissione di questi video nei vari canali di
telecomunicazione (reti ISDN, LAN, MAN, ecc.) ed ha così creato
nel 1991 il Moving Pictures Experts Group (MPEG appunto, che fa
parte dell'ISO-IEC/JTC1/SC2/WG11).
30
Il problema principale nella realizzazione dell'algoritmo MPEG è la
volontà di garantire la possibilità di effettuare un accesso casuale,
cosa che si realizza meglio se si codificano le immagini in modo
indipendente, ma allo stesso tempo non è possibile raggiungere
un'elevata compressione delle immagini che compongono la
sequenza video codificandole ognuna in modo indipendente dalle
altre. Per conciliare queste due opposte richieste, l'algoritmo MPEG
realizza una codifica in cui vengono mantenute alcune immagini
codificate in modo indipendente dalle altre, quindi poco compresse
ma che garantiscono la possibilità di accesso casuale; le restanti
immagini vengono ricavate da queste attraverso una predizione del
moto, oppure mediante interpolazione tra più immagini.
L'attività dell'MPEG copre la compressione dei dati video, la
compressione dei dati audio (in quanto ad una sequenza video è
generalmente associato dell'audio) ed inoltre si occupa anche della
sincronizzazione audio-video.
Per la compressione dei dati è necessario ridurre le informazioni da
memorizzare, quelle che devono innanzitutto essere eliminate sono:
• I dati ripetuti in uno stesso frame: in un fotogramma pixel vicini
hanno caratteristiche di luminosità e colore simili. Il compressore
sintetizzerà quindi queste informazioni, eliminando la ridondanza
spaziale.
• I dati ripetuti in fotogrammi adiacenti: in frame successivi c’è
buona possibilità, se non si tratta di scene differenti o
particolarmente veloci, di trovare zone d’immagine con colori e
luminosità simili (o uguali), per cui il compressore video accorperà
questi dati, eliminando la ridondanza temporale.
• I dati di componenti del filmato non percepibili dall’occhio
umano: i valori di colore e luminosità dell’immagine (che viene
31
elaborata scomponendola in piccoli blocchi quadrati di pixel,
solitamente 16x16 o 8x8) vengono convertiti nei corrispondenti
valori di frequenza video attraverso una funzione matematica,
chiamata DCT. Poiché non sono percepibili generalmente le alte
frequenze delle scene animate (ad es. spostamento rapido di fumo,
fronde, piccoli oggetti, etc.), queste possono essere eliminate
attraverso la quantizzazione; una maggiore quantizzazione causerà
più perdita di informazioni e quindi peggiore qualità.
SISTEMI DI COMPRESSIONE VIDEO
Compensazione di moto
I codificatori video sono in genere classificati in base al fatto d'essere
o meno predittivi, oppure per il modo in cui eseguono la
compressione dei dati. Nel campo delle comunicazioni video digitali
il tipo attualmente più usato è il codificatore ibrido, basato sulla
tecnica DPCM (Differential Pulse Code Modulation). Il DPCM è uno
schema di codifica predittivo, in quanto il frame attuale viene
predetto basandosi su quello precedente. La maggior parte dei
fotogrammi di una sequenza è in genere molto simile, le differenze
fra un fotogramma ed il successivo solitamente sono dovute solo a
traslazioni di parti di esso. Ha quindi senso pensare di evitare di
trasmettere le parti che non sono cambiate e di trasmettere, per quelle
che si sono spostate, solo il verso e l'entità dello spostamento. In
genere la predizione coincide con una compensazione di moto
(Motion Compensation) del frame precedente: nella compensazione
32
di moto viene utilizzato il vettore di moto (Motion Vector) per
trovare lo spostamento tra un'immagine e la successiva. Il vettore di
moto è una grandezza bidimensionale che ci fornisce, per ogni punto
dell'immagine corrente, lo spostamento rispetto alla posizione di
riferimento; tali vettori sono generalmente realizzati sulla base di
blocchetti di pixel di dimensione fissa (generalmente 8x8 oppure
16x16). Presumendo dunque in questa tecnica che l'immagine attuale
possa essere trovata tramite una traslazione di una immagine
precedente;
informazioni
le
informazioni sul
necessarie
alla
moto
saranno
ricostruzione
parte
delle
dell'immagine
in
decodifica. In questo caso, l'errore di predizione viene detto
differenza di frame spostata (Displaced Frame Difference, DFD); la
DFD viene anch'essa codificata, insieme ai vettori di moto. La
sequenza da codificare è suddivisa in gruppi di immagini, detti GOP
(Group Of Pictures); un GOP è un insieme di immagini in ordine
contiguo di visualizzazione e contiene tre tipi di fotogrammi:
fotogrammi che vengono codificati singolarmente senza nessun
riferimento ad altri (Intraframes o I frames), fotogrammi che
vengono predetti sulla base di un frame di tipo I (Forward predicted
frames o P frames), e fotogrammi che vengono ottenuti interpolando
fra un frame I ed un frame P (Bidirectional frames o B frames). In
MPEG quindi la predizione di un fotogramma può essere fatta
considerando sia la storia passata (I frames) che quella futura (P
frames), il processo è schematizzato nella Figura 4: in sostanza
come primo passo viene generato un frame I, considerato come una
singola immagine fissa. Per il calcolo del motion vector e la
predizione del frame P si considerano i punti all'interno di blocchi
16x16 (macroblock) nel canale di luminanza Y e nei corrispondenti
blocchi 8x8 nei canali di crominanza U e V. Per ognuno di questi
33
blocchi si cerca quello che ad esso si avvicina di più nell'ultimo
frame I o P inviato, il verso e la direzione fra questi due blocchi
identificano il motion vector.
Figura 4 Interpolazione MPEG tra più frame
Se si riesce ad individuare il motion vector, per specificare il blocco
nel frame P che stiamo codificando basterà indicare, oltre
ovviamente al motion vector stesso, la differenza fra i punti dei due
blocchi in esame. Una volta codificato un frame I ed uno P si
possono codificare i frame B compresi fra essi. Allora si esaminano i
macroblock dei fotogrammi compresi fra il frame I e quello P
cercando per ogni blocco quello a lui più simile nel frame I (quindi
indietro nel tempo), quello più simile nel frame P (quindi avanti nel
tempo) oppure cercando di fare una media fra il blocco più simile nel
frame I e quello più simile nel frame P e sottraendo a questa il blocco
da codificare. Se con nessuno di questi tre procedimenti si ottiene un
risultato soddisfacente si può sempre codificare il blocco come se
facesse parte di un frame I ovvero senza riferimenti ai blocchi
precedenti o futuri.
Quindi otteniamo logicamente una sequenza di frame del tipo :
I B B P B B P B B P B B I B B P B B P B B P B B I ...
34
in cui ci devono essere al massimo 12 frame fra un frame di tipo I ed
il successivo, mentre la successione di frame P e B è libera.
Naturalmente, visto che per poter decodificare i frame B occorre
conoscere già il frame P successivo, la sequenza dei frame che
vengono inviati dopo la codifica è diversa da quella logica.
Quindi le operazioni che si compiranno leggendo un flusso MPEG
saranno sostanzialmente queste :
1)Lettura e decodifica del frame I(t=0)
2)Lettura e decodifica del frame P(t=3) visualizzazione frame I(t=0)
3)Lettura e decodifica del frame B(t=1) visualizzazione frame B(t=1)
4)Lettura e decodifica del frame B(t=2) visualizzazione frame B(t=2)
5)Lettura e decodifica del frame P(t=6) visualizzazione frame P(t=3)
6)Lettura e decodifica del frame B(t=4) visualizzazione frame B(t=4)
7)Lettura e decodifica del frame B(t=5) visualizzazione frame B(t=5)
8)Lettura e decodifica del frame P(t=9) visualizzazione frame P(t=6)
9) ...
Trasformata Discreta Coseno (DCT)
Dopo la compensazione di moto, per ridurre ancor più le dimensioni
del filmato digitale, viene effettuata la Trasformata Discreta Coseno.
La DCT è una trasformazione che si adatta particolarmente bene al
caso delle immagini, per l'efficienza della compressione ottenibile e
per la mancanza di componenti immaginarie nello spettro ottenuto.
L'immagine viene divisa in blocchi di dimensione fissa (solitamente
blocchi di 8x8 pixel) e la DCT viene effettuata sulla base di tali
blocchi. Il vantaggio dell'utilizzo della DCT consiste nel fatto che,
per un blocco di un'immagine tipica, l'energia è concentrata alle
35
frequenze
più basse;
dopo
la
DCT
viene
effettuata
una
quantizzazione e, essendo l'occhio umano meno sensibile alla
quantizzazione delle alte frequenze, quest'ultime possono essere
quantizzate con un passo più largo, permettendoci così di realizzare
una notevole compressione dei dati. In decodifica si utilizza la
trasformata inversa IDCT, per passare dai valori quantizzati delle
frequenze spaziali ai valori spaziali dei pixel.
Codifica del colore
Uno dei metodi più usati nella codifica cromatica è l'RGB, in cui
ogni colore è espresso additivamente mediante le sue componenti di
rosso (R), verde (G) e Blu (B). Ovvero:
c=R+G+B
per la resa finale del colore vengono sovrapposti i tre differenti livelli
di campionamento, aventi ognuno il medesimo spettro. Questa
codifica viene utilizzata nei casi in cui è richiesta una qualità elevata,
ma è un sistema che richiede una grande quantità di dati.
Il pixel non è più un singolo numero rappresentante un valore scalare
di luminosità, ma un vettore che descrive la luminosità, la tonalità e
la saturazione di quel punto dell’immagine. Il pixel contiene dunque
tre numeri rappresentanti le proporzioni di ognuno dei tre colori
primari in quel punto dell’immagine.
Uno degli svantaggi di questo metodo sta nel non tener conto che
l'occhio umano è più sensibile al verde, meno al rosso e ancor meno
al blu. Inoltre, la capacità dell'occhio di risolvere i dettagli è
maggiore al centro dello spettro visibile, e minore ai lati. Di
36
conseguenza, il sistema RGB riproduce accuratamente dei dettagli
che l'occhio umano non è poi in grado di percepire.
Per questa ragione conviene utilizzare un altro formato cromatico,
come l'YUV, in cui R, G e B vengono uniti in un unico segnale Y
(luminanza) che necessita di piena frequenza e due di crominanza (U
e V), che ne indicano la tinta e la saturazione. Poiché, come ho già
spiegato, gli oggetti verdi producono uno stimolo maggiore, a parità
di luminosità, di quelli rossi e ancor più rispetto a quelli blu, è
necessario che nel segnale Y le tre componenti R, G e B siano
combinate con i dovuti pesi, che vanno attribuiti in base alla risposta
visiva dell’occhio umano. Pertanto si ha:
Y = 0.299 R + 0.587 G + 0.114 B
Le componenti di crominanza possono essere codificate con una
risoluzione minore della luminanza senza un degrado apprezzabile
delle immagini. Si può risparmiare sull’ampiezza del segnale
utilizzando delle differenze di colori: l’occhio umano infatti dipende
dalla luminosità per distinguere i dettagli, ciò comporta una necessità
minore di informazione per i colori.
La matrice produce anche due differenti segnali-colore: R-Y e B-Y.
Questi segnali non hanno bisogno della stessa ampiezza di Y poiché
l’acutezza dell’occhio non si estende alla visione del colore.
In questo sistema, denominato YUV, ogni pixel contiene ancora tre
numeri, come nell’RGB, ma uno di questi è un numero
rappresentante la luminanza, mentre gli altri due segnali contengono
la differenza di colore, e richiedono dunque meno ampiezza; questo
si traduce nella possibilità di utilizzo di bande minori.
37
SPECIFICHE PER L’MPEG VIDEO
Dato che nella commissione ISO di MPEG sono rappresentati vari
segmenti
di
industrie
che
si
occupano
del
trattamento
dell'informazione, il sistema proposto deve includere diverse
applicazioni; per questo si dice che MPEG è uno standard generico.
Questo significa che lo standard non dipende dalle particolari
applicazioni, anche se non ignora le specifiche che ognuna di queste
richiede; uno standard generico possiede tutte le caratteristiche che lo
rendono universale, ma ciò non significa che queste caratteristiche
debbano essere utilizzate allo stesso tempo da ogni applicazione. Le
seguenti applicazioni sono alcune di quelle identificate come
necessarie per soddisfare le richieste delle applicazioni di MPEG.
• Accesso casuale. Si tratta di una funzione essenziale sia per la
memorizzazione su mezzi che permettono l'accesso casuale, come
i CD-ROM ed i dischi magnetici, che per la memorizzazione su
mezzi ad accesso sequenziale, come i nastri magnetici. L'accesso
casuale richiede che i dati video compressi siano accessibili al loro
interno e che ogni frame video sia decodificabile in un tempo
limitato; questo comporta l'esistenza di punti di accesso, cioè di
segmenti di informazione decodificabili in modo autonomo (ad
esempio frame video la cui decodifica non richieda le informazioni
contenute nei frame precedenti o successivi). L'accesso casuale in
circa 0,5 secondi dovrebbe essere possibile senza eccessiva
degradazione di qualità.
• Avanzamento
veloce
avanti/indietro.
38
Se
il
mezzo
di
memorizzazione lo permette, dovrebbe essere possibile la
scansione dei dati compressi e, utilizzando punti di accesso
appropriati, mostrare immagini selezionate, per ottenere un effetto
di riavvolgimento e di avanzamento veloce. Questa caratteristica è
una richiesta più restrittiva di quanto non sia l’accesso casuale, che
si adatta bene a mezzi di memorizzazione come i nastri magnetici.
• Riproduzione all’indietro. Le applicazioni interattive possono
richiedere che il segnale possa essere letto all'indietro. Mentre non
è necessario che tutte le applicazioni mantengano alta qualità o che
abbiano questa funzione, si considera che la riproduzione
all'indietro dovrebbe essere possibile anche senza eccessivo uso di
memoria.
• Sincronizzazione audio/video. Il segnale video dovrebbe poter
essere sincronizzato con una sorgente audio associata. Deve essere
previsto un meccanismo per ripristinare il sincronismo tra i due
segnali se questi provengono da sorgenti con diverse frequenze di
clock. In questo caso si usano dei frame-paletti (i cosiddetti
keyframe), utilizzati come punti di aggancio tra audio e video, che,
con periodicità sincronizzano le due tracce.
• Montaggio. Deve essere possibile costruire unità di montaggio di
breve durata, le quali sono codificate solo in riferimento a se
stesse, in modo da ottenere un livello accettabile di libertà per il
montaggio.
• Robustezza. La maggior parte dei mezzi di memorizzazione e dei
canali di trasmissione non sono esenti da errori e questo richiede
una appropriata codifica di canale in tutte le applicazioni. Allo
stesso modo è necessaria una codifica di sorgente abbastanza
39
robusta, in modo da evitare errori che non potranno essere più
corretti.
Fino ad oggi sono state proposte varie versioni per lo standard
MPEG, alcune delle quali sono ancora in via di sviluppo.
MPEG-1: progettato per la codifica di immagini in movimento e per
l'audio ad esse associato, in forma digitale, con un bitrate che arriva
fino a circa 1.5 Mbit/s. (International Standard IS-11172, completato
nell'ottobre del 1992).
MPEG-2: progettato per la codifica generica di immagini in
movimento e audio ad esse associato. Il concetto che sta alla base di
MPEG-2 è simile a quello di MPEG-1, ma include estensioni anche
per una più ampia varietà di applicazioni. L'applicazione primaria è
la trasmissione a qualità televisiva CCIR 601 con un bitrate tra 3 e 10
Mbit/sec, ma successivamente è stato trovato che la sintassi di
MPEG-2 può essere efficiente anche per applicazioni che richiedono
un bitrate maggiore (come HDTV). (International Standard IS13818, completato nel novembre del 1994).
MPEG-3: confluito in MPEG-2.
MPEG-4: progettato per la codifica audiovisiva a bassissimo bitrate.
Esistono in commercio alcuni apparecchi e programmi che operano
con sequenze video digitali, che utilizzano o prevedono la
compressione video tramite MPEG; lo sviluppo di nuove tecnologie
rende inoltre possibile includere queste funzioni in microprocessori,
permettendo così l'elaborazione direttamente da computer. Lo
40
standard MPEG definisce infatti il processo di codifica, non il
codificatore; per questo motivo esistono diversi modi possibili per
implementare il codificatore e lo standard non ne suggerisce nessuno
in particolare. Un codificatore MPEG produce un bitstream MPEG
che può essere decodificato da qualunque decodificatore con
caratteristiche analoghe. La libertà di implementazione di un
codificatore risiede nel modo in cui viene effettuata la stima del
moto, in come viene fatta la compensazione di moto ed è in questo
ambito che si svolge la competizione tra le maggiori aziende
produttrici di codificatori MPEG.
PERCHÉ IL DIGITALE
Sono vari i motivi che possono spingere a preferire il dominio
digitale rispetto a quello analogico. La scelta deve essere fatta in base
agli scopi che uno si propone.
Nel nostro caso l’utilità della digitalizzazione sta nella possibilità di
compiere operazioni che non erano prima possibili in analogico.
Una rappresentazione di tipo analogico risponde meglio alla natura
di gran parte dei fenomeni, ma il dominio digitale produce una
quantità di vantaggi che i mezzi analogici sono ben lontani dal
realizzare. Per quanto anche prima fosse possibile applicare filtri di
modifica del segnale (come i filtri notch), con il digitale le possibilità
di intervenire sul materiale e modificarlo, eliminando rumori e fastidi
sono cresciute di molto.
41
I rumori risultavano difficili da isolare, ed eventualmente da
eliminare, data l’impossibilità di analizzare lo spettro per identificare
su quali frequenze nidificasse il disturbo. Un discorso analogo per le
distorsioni. È una caratteristica dei sistemi analogici quella di non
permettere di lavorare liberamente e separatamente sulle varie
frequenze del segnale originale, con il digitale si possono fare cose
che fino a pochi anni fa parevano impossibili.
Anche l’accesso ai dati ha subìto importanti modifiche: il nastro è un
supporto lineare, ed è necessario attendere che la cassetta si avvolga
fino alla parte desiderata del nastro, al contrario, in un hard disk, il
tempo di accesso ai dati è decisamente più rapido. Questo viene
nominato accesso non lineare, ed il risvolto più interessante riguarda
sicuramente il montaggio video, in cui i sistemi non lineari hanno
ormai quasi completamente soppiantato i sistemi lineari.
Inoltre, quando sottoponiamo un segnale analogico ad una serie di
operazioni e trasferimenti, alla fine di tale processo esso presenterà la
somma di tutte le impedenze accumulate ad ogni passaggio
attraverso cui esso è passato. Di conseguenza il numero di passaggi e
di operazioni cui un segnale analogico può essere sottoposto deve
essere il più limitato possibile. Se molti passaggi sono obbligatori,
bisogna assicurarsi che essi risultino meno distruttivi possibile, ciò
comporta una cura particolare per i vari macchinari e per le
operazioni da compiere. Nel dominio digitale questo problema non
esiste, poiché trasferire il documento non significa altro che
“clonare” una sequenza numerica.
Se la copia risulta indistinguibile dall’originale, si può facilmente
concludere che non è avvenuta alcuna perdita di informazione. E le
registrazioni digitali possono essere copiate indefinitamente senza
perdita di qualità.
42
Se si è interessati solamente alla qualità delle immagini una buona
qualità di conversione è più che sufficiente; tutti gli inconvenienti
della registrazione e della trasmissione analogici potranno essere
facilmente eliminati. Rumori del nastro, impronte digitali, dropout e
simili appartengono ormai alla storia.
La realizzazione di filmati analogici non consente infatti di
archiviare un numero elevato di animazioni ed accedere in maniera
efficiente alla singola animazione o singolo fotogramma. Soprattutto,
malgrado le reti di trasmissione abbiano avuto un notevole sviluppo,
non è tuttora possibile trasmettere attraverso di esse animazioni e
filmati di buona qualità e questo rende difficile la collaborazione fra
gruppi di persone in differenti aree geografiche. Lo standard MPEG
consente una efficiente compressione di una sequenza di immagini
permettendone quindi la memorizzazione, in formato digitale, sugli
attuali supporti magnetici ed ottici e la trasmissione attraverso reti
digitali.
Un altro punto di forza della tecnologia digitale sono i costi piuttosto
contenuti: se è vero che l’operazione di replica non comporta cadute
di qualità, è anche vero che tale operazione non richiede macchinari
particolarmente costosi. Tanto meno occorrono lettori di nastri di
grosse dimensioni, come nel caso dei lettori analogici professionali. I
computer sono ora disponibili a costi accessibili grazie alla grande
produzione di massa, ed i dischi e le memorie utilizzate nei computer
possono essere utilizzate anche per prodotti video.
Con l’incremento della potenza dei processori è ora possibile
effettuare sotto il controllo dei software operazioni che prima
richiedevano hardware dedicati.
43
Di conseguenza i computer stanno arrivando sul mercato a
competere con i sistemi dedicati professionali, fornendo in molti casi
parità di prestazioni a costi minori.
Il fatto che l’informazione sia tradotta in una sequenza di numeri
discreti, apre alla possibilità di “impacchettarla” su supporti ad alta
densità senza intaccare minimamente la qualità dell’informazione. A
parità di qualità le registrazioni digitali richiedono molto meno
spazio di quelle analogiche, ed i costi sono anche minori.
I circuiti digitali hanno costi di produzione minori. E su uno stesso
chip possono essere inserite più funzionalità. I circuiti analogici sono
costituiti da un insieme di componenti di diverso tipo, dalle forme e
dimensioni differenti e che richiedono alti costi per l’assemblaggio e
la riparazione. I circuiti digitali usano componenti standardizzati,
facili da assemblare ed economici da aggiustare.
I macchinari digitali possono contenere al proprio interno programmi
di auto diagnosi.
Inoltre grazie al digitale si possono trasmettere dati video e audio a
distanze indefinite senza alcuna perdita di qualità. Tecnologie come
l’ADSL permettono a segnali video compressi di viaggiare attraverso
una normale linea telefonica fino al consumatore.
Ci sono anche degli inconvenienti, che vanno comunque considerati
nel passaggio dal dominio analogico al dominio digitale: nei
documenti digitali è più facile che l’informazione diventi fisicamente
e logicamente “inaccessibile” rispetto ai documenti analogici.
L’informazione digitale può essere sottoposta a forti rischi di
scomparsa a causa sia dell’obsolescenza di hardware e software, sia
al deterioramento fisico dei contenitori dell’informazione in formato
numerico; tra questi, i più comuni sono sicuramente i cd-rom. Basta
44
un piccolo graffio infatti per compromettere totalmente la lettura di
un disco, rendendo inaccessibili i dati contenuti al suo interno.
È dunque opinione comune che il patrimonio documentario in
formato elettronico possa andare disperso, in mancanza di precisi
piani di conservazione, e che si arrivi a una perdita di tutto ciò che è
stato prodotto in forma digitale, o che è stato convertito dal formato
analogico a quello numerico: molti studiosi sono scesi in campo per
analizzare questa situazione e trovare i compromessi più idonei ad un
problema che appare davvero cruciale per la nostra epoca.
45
CAPITOLO TERZO
PREMESSE AL LAVORO DI DIGITALIZZAZIONE
Le competenze necessarie ad affrontare un riversamento come quello
eseguito all’interno del progetto “Archivio Digitale Giuliano Scabia”, in
cui c’è anche un processo di digitalizzazione, vanno dall’aspetto storico,
relativo alle tecniche impiegate in passato e ai differenti tipi di supporto,
a questioni prettamente tecniche, quali la comprensione dei processi di
digitalizzazione e compressione.
Sono queste infatti le basi da cui partire per poter affrontare un lavoro in
cui non esistono parametri che, se seguiti, garantiscano risultati ottimali:
ogni caso determina delle condizioni e delle priorità specifiche, che
come tali devono essere affrontate e trattate.
Le problematiche maggiori si hanno nel trasferimento di dati dal
dominio analogico a quello digitale. Se ci si trova davanti ad un archivio
omogeneo si può procedere ad una scelta degli apparecchi adatti a quel
tipo di registrazione. Se però l’archivio è disomogeneo occorre una
strumentazione differenziata per quante sono le tipologie di supporto, e
a volte queste possono essere molto rare e difficilmente reperibili sul
mercato. Nei casi più delicati e complessi bisogna essere pronti ad
acquisire nozioni e competenze più specifiche che raramente si
prendono in considerazione.
Una volta scelti i macchinari, occorre stabilire le modalità di
acquisizione, che vanno definite in base alla qualità del materiale.
Tendenzialmente i filmati si presentano in discreto stato di
conservazione se si ha a che fare con registrazioni o documentari
professionali, in particolare se recenti; nel nostro caso però una gran
46
46
parte dei documenti risalgono agli anni Sessanta o Settanta, e sono stati
girati in analogico, oppure, come nel caso di Baccanti I la registrazione
è stata effettuata da mani amatoriali. Queste registrazioni hanno
comunque un’importanza documentaria notevole, trattandosi spesso
delle uniche testimonianze degli spettacoli del professor Scabia. In
questi casi il presupposto principale è quello di salvare il salvabile,
laddove il concetto di “salvabile” è da estendersi a tutto ciò che si è in
grado di acquisire nella maniera migliore possibile con la tecnologia di
cui si dispone in un determinato momento. Dovendo operare sul
materiale oggi, bisogna assicurarsi la migliore risoluzione, la migliore
qualità
e,
importantissimo,
la
migliore
replicabilità
possibile
dell’archivio una volta digitalizzato. È necessario, in sostanza, concepire
come definitivo il lavoro di riversamento che ci si appresta a condurre,
anche perché non sarebbe economicamente vantaggioso pensare di
riacquisire ogni tre o quattro anni un intero archivio e rioperare una
duplicazione. Una volta acquisito il materiale bisogna porsi il problema
di come rinnovarlo nel tempo, secondo i mutamenti imposti dal mercato
e dallo sviluppo.
Oggi le tecnologie di memorizzazione digitale stanno subendo notevoli
cambiamenti, i tempi con cui si passa da un sistema all’altro si riducono
sempre di più; questo compromette la sopravvivenza e la stabilità di
supporti e tecnologie che a distanza di pochi anni potrebbero diventare
obsolete. L’ambito analogico aveva subìto un’evoluzione tecnica tutto
sommato abbastanza lenta; le tecnologie digitali invece seguono
un’evoluzione molto più rapida.
Inoltre le innovazioni rappresentano un fattore ad alto rischio, poiché
spesso occorrono tempi abbastanza lunghi perché una tecnologia diventi
efficiente a sufficienza da imporsi sul mercato. Questo si verifica per
l’hardware, ma è molto più frequente e repentino per il software, dove il
47
47
mercato è fortemente condizionato da esigenze legate alle tecnologie più
in voga in quel momento; tra le conseguenze di questo meccanismo c’è
purtroppo la possibilità che sistemi inefficienti siano più diffusi e
conosciuti di altri sicuramente migliori.
Dovendo scegliere, il fattore di decisione può essere dato dal numero di
produttori che aderiscono allo standard considerato.
A questo si ricollega l’importanza di una buona acquisizione:
digitalizzare i materiali analogici alla migliore qualità possibile e senza
compressione permetterà di intervenire sul materiale stesso con
algoritmi di restauro o, nel caso dell’audio, di riduzione del rumore di
fondo, in un secondo momento, quando questi saranno più efficienti di
quanto non siano adesso. Ogni anno aumentano a dismisura le
potenzialità e la qualità di questi strumenti; applicazioni migliorative
che oggi sembrano scontate erano impensabili solo pochi anni fa.
Anche gli algoritmi di compressione sono in continua e rapida
evoluzione. Un algoritmo di compressione è una tecnologia che
manipola i dati per far sì che questi occupino meno spazio; soprattutto
con lo sviluppo e la diffusione delle tecnologie legate a Internet questa
operazione diventa sempre più necessaria e irrinunciabile. Termini come
Mpeg o di Mp3 sono ormai entrati nel linguaggio comune; essi fanno
riferimento a degli algoritmi dei quali si conoscono il funzionamento e
le proprietà tecniche, si sa che hanno una perdita di qualità rispetto
all’acquisizione ad alta risoluzione e che soprattutto sono dei processi
irreversibili.
Riversare
un
archivio
utilizzando
algoritmi
di
compressione vuol dire decidere deliberatamente di rinunciare ad una
certa quantità di informazioni, questo può rivelarsi utilizzabile nel caso
si volesse replicare un archivio per metterlo a disposizione degli utenti,
ma per avere una digitalizzazione professionale ed efficiente bisogna
evitare quanto più è possibile di comprimere il materiale, anche perché,
48
48
come detto, fra dieci anni potremo sicuramente disporre di algoritmi
migliori di quelli che conosciamo adesso. Il rovescio della medaglia sta
nel fatto che non comprimendo si presenterà il problema della quantità
di spazio che occupano ore e ore di acquisizioni ad alta qualità.
Possiamo concludere che in definitiva non si è mai al sicuro con i
supporti tecnologici, nel senso che nessun supporto garantisce l’assoluta
affidabilità. Si richiedono una serie di operazioni complesse e piene di
variabili in cui emerge però un fattore costante e di grande aiuto che è lo
studio meticoloso del materiale che si riversa. Conoscere il valore e la
destinazione del proprio lavoro è il punto di partenza per la scelta dei
metodi, delle attrezzature e per ottimizzare il tempo di lavoro.
I MACCHINARI UTILIZZATI
Per effettuare il riversamento e l’acquisizione di tutti i materiali del
progetto, ci siamo dovuti servire di più macchinari, necessari per
riprodurre la quantità di formati differenti su cui erano conservati i
materiali. L’acquisizione dei materiali analogici deve essere fatta in
tempo reale, poiché il materiale riprodotto deve essere digitalizzato in
tempo reale. Per fare ciò tutti i macchinari di riproduzione analogica
sono stati collegati con la Canopus ADVC-300, in grado di digitalizzare
il segnale analogico, rendendolo così acquisibile dal computer
trasmettendolo mediante connessione FireWire. La prima cosa da fare è
stata il controllo del cablaggio: i macchinari devono essere collegati
correttamente ed in maniera funzionale, poiché ogni malfunzionamento
si riflette poi sulla qualità del materiale acquisito. Bisogna assicurarsi
che i cavi siano in buono stato, e che, nel dominio analogico, consentano
49
49
una larghezza di banda del segnale che permetta la corretta trasmissione
dei dati. Nel dominio digitale questo problema non si è posto, poiché un
cavo FireWire consente un bit-rate di trasmissione di 400Mbps oppure
di 800Mbps, grandezze che sono entrambe ampiamente maggiori
dell’ampiezza del flusso di uscita di un lettore digitale. Per la lettura dei
nastri MiniDv e DVCam abbiamo usato una DSR 45/45P della Sony,
collegabile direttamente via FireWire con la ADVC-300. Quando è
possibile una connessione di questo tipo è sempre preferibile, poiché
all’alta qualità di trasmissione del segnale il cavo FireWire aggiunge la
possibilità del controllo remotato della macchina. Per la riproduzione
dei nastri VHS ed Hi8 ci siamo serviti di un registratore Sony EV-T2, in
grado di riprodurre entrambi i formati ed in grado però si supportare
solamente una connessione di tipo composito, dunque a bassa qualità.
La lettura dei nastri DAT è stata effettuata su un lettore PCM R300 della
Sony, con un collegamento mediante cavi S/PDIF. La ADVC-300 è
stata connessa al sistema Macintosh G5 con un collegamento FireWire.
Una volta digitalizzato il materiale è diventato acquisibile con Final Cut,
per cui si è proceduto alla cattura del materiale. I filmati sono stati
acquisiti con una risoluzione di 720 x 576 pixel ed un campionamento a
24 bit per pixel. L’audio è stato campionato a 48 MHz ed acquisito a
due canali.
50
50
NUTRIRE DIO
Il montaggio finale dei filmati presenti nel DVD rappresenta una sintesi
esaustiva del lavoro svolto per quattro anni da Scabia con i suoi studenti
sulla figura di Dioniso attraverso due testi: Le Baccanti di Euripide e Le
Rane di Aristofane. Il lavoro voleva essere un’interrogazione sulla
figura di Dioniso in quanto capo del teatro e della poesia attraverso le
descrizioni fatte da Euripide, che lo collocano in un contesto tragico e
del Dioniso comico che attraversa invece Le Rane di Aristofane.
Dioniso comico e Dioniso tragico si contrappongono, completandosi a
vicenda, arrivando a configurare la doppia natura di questo dio che è
insieme divino e umano.
Nel lavoro ricorre con frequenza la figura del cerchio, inteso come
rappresentazione del teatro, teatro di corpi, non teatro – edificio; in cui
gli attori sono anche gli spettatori, (addirittura non sono ammessi
spettatori che non siano gli stessi attori, i coristi, i cantori e i personaggi
che compaiono, da Caronte a Dioniso stesso).
Il cerchio costituisce un richiamo ad uno degli elementi che sono stati
costitutivi della forma della tragedia e della commedia: il ditirambo.
Una danza antica, formata da cinquanta danzatori disposti in cerchio, nel
cui centro vi è un corifeo.
È Aristotele stesso a sostenere che la tragedia viene dal ditirambo e lo
stesso Euripide al centro delle Baccanti invoca il bambino Dioniso
appena nato chiamandolo con il nome di Ditirambos. Un nome magico,
di cui non si sa bene il significato, (forse colui che è passato attraverso
due porte, la porta del ventre materno e del ventre paterno, poiché
Dioniso salvato dal padre Zeus viene posto da questo nel proprio ventre
e ripartorito quando è maturo).
51
51
La struttura del cerchio risulta quindi di cardinale importanza e ad un
certo punto nel suo centro sorge l’albero sacrificale, mortale per Penteo,
re di Tebe e cugino di Dioniso, che viene posto, travestito da baccante,
sopra l’albero, e consegnato alla divorazione da parte della baccanti
impazzite e della madre Agave. La stessa struttura diventa la palude, lo
stagno nelle Rane e Caronte, con la sua barca, fa attraversare l’acqua a
Dioniso, un’acqua circolare che conduce alla porta del mondo infero,
dell’Ade.
Il lavoro ha voluto evidenziare che chiave della tragedia è la danza
cantata. Un’altra componente fondamentale sono state la danze, e la
ricerca sulla musica: in queste rappresentazioni si canta continuamente.
E forse perché è proprio questa la chiave della tragedia: la danza cantata.
Il racconto evoca il dio, ciò che viene cantato appare al centro del
cerchio e lì dove il dio appare avviene anche l’ekstasis, la trance,
l’uscita di sé da parte dei danzatori. Quell’uscita di sé che il teatro è
comunque in grado di controllare, per cui non si tratta di un fenomeno di
perdita di coscienza ma di acquisizione di una maturazione, in cui ci si
reca all’interno del corpo di dio e si cerca un contatto con lui.
Quel dio che viene nutrito, come dice il titolo finale del lavoro, dal
canto, dalla danza e dai corpi che raccontano i suoi eventi, la sua storia,
la sua continua rinascita e rigerminazione e che percorre tutti gli strati:
da quello alto della cima dell’albero fino a quello basso dell’acqua, che
viene attraversata per accedere al mondo infero4.
Nutrire Dio. I filmati di partenza dei
quattro corsi di Nutrire Dio sono delle registrazioni effettuate tra il 1996
e il 1999 delle rappresentazioni finali dei corsi di Drammaturgia II che
Paragrafo tratto liberamente dall'Introduzione di Giuliano Scabia registrata all'interno di Nutrire Dio, DVD del
progetto Archivio Digitale Giuliano Scabia, Bologna, 2003
4
52
52
Scabia tenne in quegli anni con gli studenti. Si tratta di Ecco, io, figlio di
Dio sono giunto alla terra texana (Baccanti I); Dioniso: dove porti la
compagnia?Vuoi portarla nelle vallate boscose dell’Olimpo dove una
volta Orfeo suonando la chitina si tirava dietro gli alberi e le bestie
selvagge? (Baccanti II); L’albero di Dioniso. Natale/mortale. Anno
vecchio anno nuovo. Salita al monte (Baccanti III) ed infine di
Brekekekex, koax koax. Dioniso di pancia e culo (Rane). I primi tre
filmati erano conservati su nastri VHS e presentavano gravi difetti di
leggibilità dovuti sia al deterioramento fisico dei supporti magnetici sia
alle condizioni originali di ripresa, non certo ottimali.
Meglio per Brekekekex, koax koax, di cui esistevano cinque nastri Hi8
riguardanti tre giorni di lavoro sulla dimostrazione finale, ed un nastro
audio DAT riguardante la seconda di quelle tre giornate.
Le condizioni generali delle registrazioni non potevano comunque dirsi
soddisfacenti: in particolare il filmato di Baccanti I era in condizioni
davvero pessime, presentava numerosi drop video, che comportavano un
grosso fastidio per lo spettatore durante la visione pur non
compromettendo la comprensione del filmato, inoltre il quadro
presentava una striscia obliqua nella parte inferiore dello schermo in cui
si notava una forte assenza di colore. L’audio presentava invece una
interferenza di un segnale estraneo, probabilmente un segnale di una
emittente radio dovuto forse alla cattiva schermatura del microfono della
videocamera, che ha funzionato da antenna durante la ripresa. Tutti e tre
i filmati di Baccanti sono stati acquisiti dall’unica copia disponibile (su
formato VHS). Ampie porzioni dei filmati erano ricche di tempi morti, e
giudicate ripetitive e non utili alla comprensione da parte dello stesso
professor Scabia. A questo vanno aggiunte le parti che risultavano
comunque inservibili ed il fatto che la durata complessiva del materiale
acquisito superava le nove ore e venti minuti.
53
53
Per guadagnare tempo abbiamo deciso di migliorare i filmati già durante
il processo di digitalizzazione, per quanto era nelle nostre possibilità.
Utilizzando il Picture Controller della ADVC 300 abbiamo cercato di
ridare una maggiore profondità ai neri ed un contrasto e saturazione
maggiori ai colori, in modo da espandere la tonalità generale del colore.
Ad acquisizione avvenuta si è proceduto con l’ottimizzazione audio e
video delle sole parti considerate più essenziali ottenute attraverso un
complesso processo di taglio dei filmati mirato ad una restituzione
coerente e fruibile dell’evento originale.
Per quanto riguarda Baccanti I e Baccanti II le operazioni di montaggio
hanno riguardato semplicemente l’eliminazione di alcune parti della
registrazione, così da lasciare solo le parti considerate più importanti.
Diverso il discorso per Baccanti III, di cui si esisteva una seconda
registrazione dello stesso spettacolo, seppur priva di audio, da un
diverso punto macchina, per cui all’operazione di riduzione della durata
si è potuta aggiungere un’operazione di vero e proprio montaggio delle
inquadrature, che rende più piacevole la visione allo spettatore.
Per Rane è stato fatto un lavoro di tipo diverso: i cinque nastri Hi8
riguardavano le registrazioni di tre giornate di lavoro, in cui veniva
ripetuto pressappoco lo stesso spettacolo. Sempre sotto la supervisione
di Scabia si è deciso di fare un montaggio delle tre giornate. Il risultato
finale si presenta come una ricostruzione dell’intera dimostrazione sotto
forma di un unico spettacolo, in cui ogni scena è data dalle parti migliori
di quella stessa scena all’interno delle tre diverse giornate.
Le operazioni di correzione dell’audio sono state piuttosto complesse:
particolarmente in Baccanti III, ricco di dialoghi la cui comprensione
diventa fondamentale per lo spettatore, a differenza degli altri che sono
soprattutto spettacoli cantati. In quel caso è stato trasferito l’audio su di
un altro computer per cercare una riparazione invasiva con Wavelab.
54
54
Final cut infatti dispone di filtri audio, ma si tratta di filtri denominati
“non distruttivi”, che non sono cioè in grado di modificare l’onda del
segnale, cosa che invece Wavelab può fare. Le operazioni principali
hanno riguardato la riduzione del fruscio di fondo e di una frequenza
intorno ai 13 kHz derivante da una cattiva schermatura del microfono.
Per rendere più intelligibili i dialoghi sono state attenuate le basse
frequenze sul parlato, nel tentativo di eliminare il rimbombo della sala,
ma non sempre ciò ha funzionato. Quando, anche dopo questa
operazione, il parlato risultava ancora incomprensibile, si è deciso di
ricorrere ai sottotitoli.
Anche il video ha presentato parecchi problemi. Final Cut non permette
la riparazione manuale dei drop-out, per questo si è resa necessaria una
esportazione dei fotogrammi più rovinati per farne una riparazione
manuale con il programma di grafica The Gimp. A riparazione avvenuta
i frame sono stati reimportati in Final Cut e reintegrati nel filmato
originario.
La riparazione colore si è invece concentrata soprattutto sulla
restituzione di una maggiore saturazione dei colori, in particolare sui
toni medi, nel tentativo di accentuare la resa dei particolari e sulla
striscia
acromatica,
dovuta
ad
un
difetto
delle
videocamera.
Fortunatamente, per la composizione dell’inquadratura, la striscia in
questione riguardava quasi sempre e soltanto una porzione della
pavimentazione, trattandosi dunque di una parte dell’immagine dal
colore omogeneo la riparazione è risultata abbastanza agevole.
Ancora una volta Rane ha richiesto un tipo di lavoro piuttosto differente:
la diversa qualità del supporto video e la presenza di una parte di
registrazione audio professionale su nastro DAT ci hanno permesso di
focalizzare la nostra attenzione sul montaggio dei filmati.
L’audio ha necessitato di qualche piccolo ritocco laddove si è deciso di
55
55
tenere la registrazione della videocamera, sebbene si sia cercato di
privilegiare il più possibile l’audio acquisito dal nastro DAT, in cui il
suono era nettamente superiore per qualità, profondità e pulizia.
Il lavoro finale è stato poi completato da un’intervista appositamente
registrata all’interno del Laboratorio in cui il professore racconta la
genesi del lavoro, ne spiega le finalità e dà alcune importanti nozioni
tecniche ed artistiche per rendere più agevole la comprensione allo
spettatore.
IL GORILLA QUADRUMANO
La genesi di questo lavoro si situa all’interno della continua ricerca di
Scabia di rivalorizzazione e rivalutazione delle storie e delle leggende
popolari. Durante un suo corso universitario uno studente portò un testo
legato ad una tradizione popolare della bassa reggiano, in cui si narrava
la storia del Gorilla Quadrumano, di questo “bestion alto e feroce, che
nessuno ha mai domato, né con baston né con la voce…5 -” e che viene
catturato per essere esposto nello zoo del re Ferdinando di Spagna. Con
l’aiuto del principe Ferdinandino il Gorilla riesce a scappare e a
ritornare nel bosco, rivelandosi saggio e mite e non bestia terribile e
feroce come tutti credevano.
Questa commedia si lega indissolubilmente nel percorso teatrale
“scabiano” ad un altro progetto, che Scabia aveva in cantiere ancora
prima di arrivare a Bologna.
Quando faceva esperimenti di teatro, Scabia rimase per un mese in un
paesino nel basso parmense di nome Sissa e incontrò dei personaggi del
Tratto dal filmato Immagini del Gorilla Quadrumano, di Landuzzi, Scabia, presente sul primo DVD de Il Gorilla
Quadrumano
5
56
56
luogo che gli raccontarono le loro leggende locali. Da qui l’idea di far
nascere qualcosa, dei personaggi narratori, dei giganti. A questa idea si
aggiunse poi quella di accompagnare questi giganti lungo una risalita
del fiume Po. L’idea piacque anche in RAI, tanto da far nascere il
progetto per un film, dal titolo “I Giganti del Po” di cui fu anche
completata la sceneggiatura. Chiamato dall’università di Bologna,
Scabia iniziò però a lavorare con gli studenti ed il film non fu mai fatto.
Dopo un anno di lavoro a Bologna l’idea del Po si ripresentò, ma questa
volta con il gruppo teatrale del Gorilla Quadrumano. Si progettò una
discesa a tappe del fiume, che si sarebbe poi dovuta concludere a
Venezia. Scabia fu contattato anche dalla Biennale Teatro di Venezia,
nelle persone di Luca Ronconi e Carlo Ripa di Meana, poiché il progetto
si sposava bene con la nota manifestazione in quanto la città lagunare
sarebbe dovuta essere l’ultima tappa prima della grande conclusione
programmata nella città di Mira. Prese così forma il progetto grandioso
della discesa del fiume Po.
L’iniziativa era già stata inserita nel cartellone dei programmi della
Biennale, ma Scabia preferì infine fare marcia indietro: ad un certo
punto mi sono reso conto – spiega nell’introduzione al progetto presente
sul secondo DVD de Il Gorilla Quadrumano – […] che sarebbe stata
una fatica che forse non eravamo in grado di sostenere: dormire, farsi
da mangiare, fare gli spettacoli, i rapporti con la popolazione, era una
cosa che…mi sembrava immensa. Ho avuto paura, e poi eravamo molto
stanchi anche dopo la discesa su Nancy.
Scabia in accordo con la Biennale, modificò il progetto: alcune tappe si
sarebbero comunque fatte, ma senza barcone, e lui avrebbe preso parte
solamente all’ultima tappa, a Mira.
Così fu fatto. Le tappe presenti nel DVD sono state curate dagli studenti
in maniera autonoma, segno di un gruppo che stava cercando nuove
57
57
strade di lavoro e che era in grado di brillare di luce propria, senza la
guida di Giuliano Scabia.
Il Gorilla Quadrumano. I materiali di
partenza erano molti ed eterogenei, si andava da lavori già finiti e
conclusi, quali Il Gorilla Quadrumano di Amedeo Fago a filmati
montati ma privi, totalmente o parzialmente, di traccia audio, come
Viaggio del Gorilla Quadrumano sul fiume Po, a materiali non montati.
A differenza di quanto successo nel progetto di Nutrire Dio si è deciso
di lasciare i filmati integrali, tanto da rendere necessaria la creazione di
più DVD, a causa della grande quantità di filmati esistenti sul progetto.
I filmati considerati completi sono Immagini del Gorilla Quadrumano,
di Landuzzi e Scabia e il documentario Il Gorilla Quadrumano di
Amedeo Fago e Giovanni Pellegrino. Questo filmato era conservato solo
su nastro VHS. Gli altri filmati, girati originariamente in 8mm, riversati
poi su nastri analogici, erano stati già in parte digitalizzati con un
trasferimento su Digital Betacam. Si è dunque deciso di acquisire il tutto
su hard disk.
Il filmato Primo maggio del Gorilla al Pilastro si presentava senza
audio, per cui si è provveduto a registrare un commento sonoro del
professor Scabia. Stessa cosa fatta per le parti del prologo e dell’epilogo
in Il Gorilla Quadrumano a Nancy che, contrariamente alla parte
centrale, erano muti.
La correzione del colore si è concentrata soprattutto sul tentativo di
restituzione di una colorometria soddisfacente in filmati in cui i colori
erano completamente sfasati, in cui i bianchi risultavano virati al verde
ed i toni medi al viola, con dominante rossa sull’incarnato delle persone.
I filmati sono poi stati compressi in formato MPEG2 per essere inseriti
nel primo dei tre DVD del progetto.
58
58
Il secondo dei tre DVD contiene altre esperienze teatrali del gruppo del
Gorilla Quadrumano.
Si tratta di Attila alla Corte Boscona di Cavalieri e Landuzzi e Viaggio
del Gorilla Quadrumano sul fiume Po, sempre di Landuzzi. Il primo dei
due filmati riguarda un’esperienza teatrale fatta dal gruppo a Corte
Boscona, dove il gruppo fu invitato alla festa del paese per mettere in
scena un’antica leggenda locale.
Il filmato ci è pervenuto per gentile concessione di Maurizio Conca, ma
su supporto VideoCD, le immagini erano dunque già state pesantemente
compresse. Inconveniente di questo tipo di compressioni è la definizione
delle immagini in movimento dove si vedono chiaramente i quadri di
pixel derivati dalla compressione, difetto impossibile da correggere.
L’altro filmato presente sul DVD racconta le esperienze del gruppo nei
paesi di Piadena, Dosolo e nella città di Cremona. Anche in questo caso
il filmato si presentava muto, per il commento sonoro è stato dunque
chiamato il prof. Massimo Marino, che di quel gruppo faceva parte e
che partecipò attivamente a quelle esperienze. In questo caso le
immagini erano già in buone condizioni, è perciò stato sufficiente
aggiustare leggermente la profondità dei toni neri ed alzare il livello
generale dei toni medi per aumentare la saturazione del colore ed il
livello del contrasto, ottenendo un risultato finale più che soddisfacente.
Sempre sul secondo DVD compare anche una traccia extra in cui
vengono illustrati alcuni esempi di correzione del colore, dove vengono
mostrate alcune inquadrature prima e dopo l’intervento di riparazione
fatto. In questo modo ci si può fare un’idea del lavoro svolto e delle
condizioni in cui versavano i filmati prima della riparazione. L’aspetto
che più salta all’occhio è un evidente effetto di patina verde che
riguardava una gran parte delle immagini del progetto. Problema risolto
in maniera efficace agendo sulla colorometria di ogni singola
59
59
inquadratura, alzando i livelli degli altri due colori primari, cioè del
rosso e del blu. In questo modo è stato anche possibile migliorare la
profondità dei neri e ridurre la luminosità dei bianchi, che risultavano
spesso bruciati. Bisogna specificare che abbassando il livello dei bianchi
non si riesce a migliorare la resa del dettaglio, cosa che è da considerarsi
irrimediabilmente persa nell’istante stesso in cui il bianco inizia a
“sparare”, ma si ottiene una visibilità migliore e più piacevole
dell’immagine nel suo complesso.
Completa il secondo DVD l’intervista a Scabia realizzata all’interno del
progetto dell’Archivio Digitale, in cui il professore spiega la nascita del
gruppo del Gorilla Quadrumano e svela alcuni retroscena ed aneddoti
relativi alle tappe illustrate nei DVD. Gorilla a Stellata rientra nel
gruppo di filmati appartenenti al secondo DVD, ma avendo una durata
di 90 minuti circa è stato messo in appendice, su un DVD a parte. È
stato acquisito da un nastro VHS e si presentava molto rovinato: l’audio
è frammentato e disturbato, molte parti del filmato sono praticamente
mute, altre risultano comunque di difficile comprensione. Il video
presentava alcuni difetti tipici dei supporti magnetici, in particolare
c’erano moltissimi drop-out. Per cui, come in Nutrire Dio, i singoli
frame sono stati esportati uno ad uno, importati in The Gimp, corretti
manualmente ed infine reintegrati all’interno del filmato.
MARCO CAVALLO
La nascita dell’esperienza di Marco Cavallo avviene all’interno del
manicomio di Trieste, il cui direttore, Franco Basaglia, fece a Scabia la
proposta di prendere parte ad attività organizzate all’interno della
struttura. Scabia decise di accettare e partecipò con i pazienti e con gli
60
60
infermieri di quel manicomio a varie assemblee interne in cui vennero
proposti vari progetti.
Da quelle riunioni emergeva il desiderio di creare un qualcosa di grande,
ma nessuno aveva bene in mente cosa. Le idee prese in esame andavano
da una casa ad un dirigibile, ma nessuna di queste aveva la forza tale da
risultare convincente per tutti. La soluzione giunse in maniera alquanto
casuale ed inaspettata: un giorno – racconta Scabia – dopo 2 o 3 giorni
che eravamo lì, durante un laboratorio […] ho visto una signora che
aveva fatto un disegnino di un cavallo dietro le sbarre. Allora le
abbiamo chiesto chi e cosa rappresentasse quel disegno. E lei ha detto –
È Marco, Marco Cavallo: era il cavallo che portava la biancheria nei
trasporti dai reparti alla lavanderia, ed era nostro amico, ma era
diventato vecchio e volevano mandarlo al macello, allora noi abbiamo
fatto una petizione, tutti quanti dentro, medici, infermieri, matti e così è
stato salvato – […]. Allora io ho detto – facciamo un Marco Cavallo
grande! – […]. E dal quel momento si è trovato il centro, quel qualche
cosa in cui tutti si identificavano. E lì è cominciata la storia, la storia
che continua anche oggi, di questo viaggio.
La vera forza innovativa di questo spettacolo risiede nel fatto che
durante la rappresentazione i pazienti hanno avuto la possibilità di uscire
dal manicomio, incontrando la gente “normale”, ed abbattendo così il
concetto stesso di normalità, nel tentativo continuo di vincere il male
delle mente e di abbattere le barriere che separano le persone
considerate “malate” da quelle ritenute “sane”.
Il progetto di Marco Cavallo è diventato itinerante ed ha vissuto molte
avventure, è andato in Germania, in Francia, in giro per l’Italia, e ancora
continua a girare, è stato bruciato a Roma nell’85, è stato poi fatto
risorgere.
L’ultima tappa significativa risale al 2003, quando il gruppo di Marco
61
61
Cavallo è andato a Montelupo Fiorentino, in cui era stato tentato un
qualcosa di simile, costruendo un grande drago verde di cartapesta.
Grazie alla mediazione di Scabia è stato possibile far convergere le due
esperienze, e far incontrare i detenuti di quell’OPG con alcuni assistiti
provenienti
dall’esperienza
triestina,
facendo
metaforicamente
incontrare Marco Cavallo con il Drago di Montelupo.
Marco Cavallo. I materiali di partenza
riguardanti Marco Cavallo erano eterogenei: la registrazione di Se ho un
leone che mi mangia il cuor documentario girato originariamente in
16mm, era conservata su nastro VHS, e si presentava in condizioni
discrete, mentre il secondo filmato del progetto riguardava un
documentario (di immagini rarissime) amatoriale girato da Marco
Pozzar in 8mm nel 1973 e senza commento audio, conservate su VHS.
Quest’ultime immagini versavano in condizioni davvero pessime: la
colorometria era completamente rovinata, i colori avevano virato verso
tonalità pastello, tanto da far ricordare una pellicola colorata per
imbibizione dei periodi del cinema muto. In molti casi questo difetto
rendeva difficoltosa la comprensione delle immagini.
In mancanza di audio originale si è proceduto all’acquisizione della
registrazione sonora di un commento a queste immagini fatto da
Giuseppe Dell’acqua, (Responsabile del Dipartimento di Salute Mentale
della ASS n.1 Triestina) e Giuliano Scabia ad un convegno a Trieste nel
2003.
A sincronizzazione avvenuta ci siamo accorti che l’audio copriva solo
una parte del video, poiché al convegno il nastro era stato fatto avanzare
velocemente per commentare il finale. Le immagini centrali senza
commento sonoro sono poi state tagliate, ma data la loro importanza si è
deciso di accluderle in una traccia extra a cui è possibile accedere
62
62
facilmente dal menù di selezione delle scene.
Nel caso di Se ho un leone che mi mangia il cuor il lavoro sulla grafica
ha cercato di restituire dei toni più naturalistici ai colori, che a tratti
risultavano virati su tonalità pastello, come nel filmato di Pozzar, anche
se la qualità complessiva del filmato è assolutamente superiore.
Laddove era possibile si è comunque cercato di correggere i neri e
riportare i bianchi verso una corretta tonalità. L’audio presentava una
impedenza di fondo, che si è cercato di ridurre senza però perdere in
fedeltà rispetto al suono originale.
Un documento particolare all’interno di questo progetto è il DVD in
appendice dal titolo Dragomago! di M. Martinelli e P. Ciommi. Si tratta
di un documentario sulla giornata dell’incontro di Montelupo Fiorentino
tra il Drago e Marco Cavallo. Il documento era già in sé finito e
completo, si è così deciso di farne un’appendice al DVD del progetto.
IL DIAVOLO E IL SUO ARCANGELO
Il Diavolo e il suo Arcangelo è uno spettacolo itinerante la cui nascita
risale alla primavera del 1979, nella provincia di Benevento prima e
nella città di Perugia poi. Alla base la volontà di Scabia di mettersi alla
prova come autore e attore dei propri testi. Uno spettacolo che basava il
suo rapporto con il pubblico sulla figura dell’apparizione, sulla non
indicazione di tempo e di spazio. Nella città in cui si svolgeva lo
spettacolo erano presenti i cartelloni pubblicitari che ne annunciavano
l’avvento, con il giorno in cui sarebbe iniziato, ma senza indicazioni di
ora e luogo. L’itinerario era segreto, noto solo a Scabia ed al suo collega
Aldo Sisillo, che interpretava la figura dell’Angelo, ed inoltre potevano
esserci continue variazioni rispetto al progetto iniziale. L’arcangelo era
63
63
un suonatore di flauto e di violino, in genere seguiva il Diavolo–Scabia,
cercando di trattenerlo.
- La domanda che stava alla base dello spettacolo, e a cui si cercava di
trovare una risposta, era se nell’Europa di fine anni ‘70, verso il futuro,
ci fosse ancora qualcuno in grado di credere nel diavolo e negli
arcangeli. E la risposta andava cercata nel viaggio, attraverso città,
paesi, vallate…- spiega Scabia nell’introduzione al DVD.
L’azione si componeva di quarantacinque scene, brevi, lunghe, tirate,
duelli, giochi, racconti, operine, azioni, quali la vestizione, il togliersi la
maschera, sono tutte scene, tutte azioni che venivano svolte in un ordine
scelto da Scabia di volta in volta e solo alcune delle scene erano legate
tra di loro, dunque lo spettacolo o l’azione potevano durare
infinitamente perchè spostandosi continuamente una scena fatta in un
luogo poteva essere ripetuta dopo poche in un altro luogo.
Conclude Scabia: uno degli aspetti più interessanti e curiosi del lavoro
riguardava il formarsi pian piano di un racconto nel luogo che ospitava
l’azione, un racconto di attesa. C’erano i manifesti fuori, c’era la
notizia che il Diavolo e l’Angelo erano lì, e spargendosi la voce la gente
iniziava a correre alla ricerca dei due. Questo era il gioco, nascondersi,
scappare, scomparire, riapparire, l’aggredire, far scappare i bambini,
poi, formare piccoli pubblici, raccontare una storia, poi di corsa
fuggire, e così fu fatto in tantissimi luoghi, in Italia, ma non solo.
Il Diavolo e il suo Arcangelo. I filmati di
questo progetto, Il Diavolo e il suo Angelo a Venezia di Folco Quilici e
Passaggio del Diavolo e dell’Angelo per l’Alto Casentino con visita
all’eremo della Verna e salita al monte Penna di Bartolini e Magrini
sono giunti nelle nostre mani già digitalizzati. Il primo, originariamente
girato in pellicola, era in formato MPEG4, il secondo, girato in 8mm era
64
64
invece in formato MPEG2.
Essendo dunque già stati digitalizzati abbiamo semplicemente importato
i filmati in Final Cut, per correggerli poi all’interno del programma.
Il documentario di Quilici presentava delle buone immagini, ma la voce
del commentatore risultava in parte distorta a cui poi si aggiungeva un
rumore di fondo. Eliminato in parte il disturbo, ben poco si è potuto fare
per la distorsione, per cui il risultato finale non può certo
dirsi
soddisfacente.
Il documentario di Magrini e Bartolini necessitava invece di un aumento
della saturazione del colore per bilanciare le immagini leggermente
sbiadite. Anche l’audio presentava alcuni problemi, risultando
abbastanza sporco. Le riparazioni sono state effettuate cercando di non
perdere fedeltà rispetto al suono originale anche se in questi casi cercare
di eliminare o di abbassare di volume le frequenze su cui viaggiava il
disturbo comporta inevitabilmente una perdita di informazione utile.
Questo DVD rappresenta un’eccezione perché i filmati da noi prodotti
non si limitano all’introduzione del professore in cui vengono spiegati la
nascita del lavoro e la sue finalità, ma vi è anche un filmato dal titolo
Viaggio del Diavolo e del suo Angelo a Roma per i matti, in cui il
professore legge un articolo da lui scritto nel maggio del 1984 per il
quotidiano “Rinascita” in cui narra del viaggio che il Diavolo e l’Angelo
fecero durante il congresso internazionale di psichiatria nella capitale
per prendere posizione contro i manicomi – carcere.
Questa registrazione è stata effettuata all’interno del laboratorio, e in
fase di postproduzione si è provveduto ad inframezzare la lettura del
professore con le fotografie scattate da Maurizio Conca su quella
giornata.
65
65
LA CREAZIONE DEI DVD
Il software utilizzato per la creazione dei DVD si chiama DVD Studio
Pro. Da Final Cut abbiamo importato i filmati esportati precedentemente
da Final Cut in formato MPEG2, mentre i file audio sono stati esportati
in formato AIFF non compresso.
Prima di realizzare un lavoro di questo tipo, avere ben chiara in testa la
forma che si vuole dare al prodotto finale può essere di grande aiuto. La
pianificazione del lavoro, tramite un accurato diagramma ad albero,
permette di farsi un’idea di come funzionerà il prodotto finale e su quali
operazioni saranno necessarie per raggiungere quel risultato (vd Figura
5).
Le domande che chi si appresta alla creazione di un DVD si deve porre
riguardano la funzionalità finale del disco e la sua efficacia (Quanti
menù ci vogliono? Quanti bottoni occorrono in ognuno di questi menù?
Come dovrebbero essere collegati l'uno con l'altro e con i filmati?).
Infatti, nonostante si possano creare molti tipi di DVD, in cui contenuto
e struttura possono variare considerevolmente, il processo di creazione è
sempre molto simile.
Le quattro fasi principali sono:
•la
creazione dei materiali sorgente
•la
codifica dell'audio e del video in formati compatibili
•la
creazione del titolo del DVD
•costruire
il progetto e creare il disco
La prima parte riguarda la creazione dei filmati che poi nel DVD
andranno a finire; questo può significare girare i video, registrare le voci
o le tracce musicali, disegnare le grafiche che andranno incluse, ecc.
66
66
Figura 5
67
67
Quando si deve poi creare il DVD, avere dei materiali già
completamente montati e finiti, in cui siano già inclusi anche gli
eventuali effetti o transizioni, quali ad esempio le dissolvenze o le
tendine, semplifica di molto il lavoro.
Prima di essere inseriti nel disco i materiali audio e video devono essere
convertiti in uno dei formati definiti dalle specificazioni del DVD.
Questo significa generalmente MPEG2 per il video e Dolby AC-3 per
l'audio (anche se generalmente vengono accettati i formati audio
standard, quali ad esempio l'AIFF).
Anche il formato MPEG1 è di solito accettato, essendo però la sua
risoluzione circa un quarto di quella dell'MPEG2, la qualità delle
immagini sarà molto più bassa. L'MPEG1 può essere molto utile nel
caso in cui la definizione dell'immagine non sia di primaria importanza,
o per filmati molto lunghi, poiché la bassa qualità consente di far entrare
in un solo disco parecchie ore di filmato.
Una volta approntati i filmati da importare, la creazione del DVD
consiste in una serie di passaggi base, quali l'importazione dei materiali,
la creazione dei menù, l'aggiunta di bottoni ai menù, la creazione di
tracce o slideshow, il collegamento degli elementi del progetto ed infine
la masterizzazione.
Anche noi abbiamo seguito questa scaletta, esportando i filmati da Final
Cut Pro in formato MPEG2, con una compressione bit-rate variabile.
Il bit-rate determina direttamente le dimensioni dei file, e dunque la
quantità di materiale che potrà entrare nel DVD. I lettori DVD
supportano bit-rate fino a 10.08 Megabit per secondo, ma devono essere
inclusi i sottotitoli e l'audio. Il massimo bit-rate consentito per il video è
di 9.8 Mbps, anche se il valore che si usa generalmente si aggira in torno
agli 8Mbps. Usare un bit-rate troppo alto potrebbe portare a problemi di
lettura da parte di alcuni lettori DVD, che a sua volta potrebbe generare
68
68
dropframe in fase di lettura.
Si rende qui necessaria una digressione per spiegare meglio
l’importanza di una corretta compressione in fase di esportazione: le
modalità più diffuse per la codifica del video sono due:
• CBR (Constant Bit-Rate): viene scelto un bit-rate che viene
utilizzato per l'intero video, indipendentemente dal suo contenuto. Il
vantaggio di questo metodo è che si può prevedere con buona
sicurezza la dimensione del file compresso, e, aggiustando il bit-rate,
si può essere sicuri che il filmato verrà contenuto nel DVD. Lo
svantaggio è che il medesimo bit-rate verrà applicato a tutto il
filmato, indipendentemente dalla quantità di movimento del
contenuto. Il bit-rate dovrà essere abbastanza elevato per consentire
risultati accettabili per le scene con movimento, anche qualora queste
costituiscano una parte minima del filmato.
• VBR (Variable Bit-Rate), che a sua volta si divide in One Pass e
Two Pass. Nella modalità One Pass si possono scegliere un bit-rate
base ed un bit-rate massimo. Il compressore calcola la quantità di
movimento presente nel filmato al momento della compressione, e
adegua appropriatamente il livello del bit-rate – utilizzando un livello
più alto per le scene con movimento (fino al livello massimo
prescelto) mentre per le scene statiche utilizzerà il livello più basso,
selezionato come base. Il problema è che la qualità non sarà buona
come nel Two-Pass, poiché la compressione viene fatta in tempo
reale, e la dimensione finale del file non può essere predetta
accuratamente, con il rischio che alla fine il filmato compresso non
riesca ad entrare nel DVD. Nel Two Pass, come nel One-Pass è
possibile scegliere il bit-rate base e quello massimo, ma il
compressore, prima di codificare il filmato, esegue una prima lettura,
in cui analizza il materiale e ne esamina la quantità di movimento, e
69
69
calcola indicativamente le dimensioni del file finale. Unico difetto il
fatto che comprimendo in Two-Pass il tempo richiesto dalla
macchina è il doppio che non con il One-Pass.
Per ragioni di mancanza di tempo, abbiamo dovuto optare per una
compressione in VBR One-Pass.
Una volta importati i filmati, il passo successivo nella creazione del
DVD è stata la preparazione di ciò che lo spettatore vede come prima
cosa dopo aver inserito il disco nel lettore. Questa (denominata first
play) può essere un’immagine, un filmato, un’animazione, oppure
direttamente un menù.
Nei DVD del progetto il first play dei dischi corrisponde sempre al
menù principale di selezione (main menu), in cui l’utente ha a
disposizione varie opzioni tramite le quali accedere ai differenti
contenuti che il DVD propone. Anche in questo caso il lavoro deve
essere svolto in maniera accurata: bisogna infatti impostare i vari asset
ovvero stabilire lo sfondo (background), che potrà essere fisso oppure in
movimento, ritagliare all’interno dello sfondo delle zone (drop zone), in
cui si potranno inserire immagini, filmati o caselle di testo, stabilire le
varie titolazioni o scritte ed infine aggiungere i bottoni, decidendone
forma, colore, eventuali animazioni e target6.
Nei menù iniziali del disco l’utente ha a sua disposizione varie
possibilità: può selezionare la visione per intero dei filmati, uno di
seguito all’altro, oppure accedere direttamente ad un filmato specifico;
in questo secondo caso egli accede ad un sottomenù, in cui vari pulsanti,
ognuno corrispondente all’inizio di un capitolo, gli consentono di
”saltare” direttamente all’inizio di ognuno dei filmati presenti nel disco.
6
Come target di un pulsante si intende qui il contenuto a cui si accede premendolo, sia esso un filmato, un menù o
qualunque altra cosa.
70
70
Sempre dal menù principale c’è una terza opzione, selezionando la quale
l’utente ha la possibilità di accedere ad una scheda tecnica che descrive
brevemente le condizioni dei materiali di partenza ed il tipo di lavoro
svolto.
71
71
CONCLUSIONI
In ultima analisi il lavoro del progetto “Archivio Digitale Giuliano Scabia”
ha trovato una sua forma ordinata ed omogenea su questi DVD.
Il lavoro svolto dal punto di vista dell’archiviazione non è comunque stato
irreprensibile: i materiali digitalizzati in acquisizione si sarebbero dovuti
conservare su supporti esterni, ma per mancanza di tempo non abbiamo
potuto eseguire questa operazione, e per ragioni di spazio abbiamo dovuto
cancellare i file di acquisizione dal computer dopo la masterizzazione dei
DVD, correndo così il rischio che con il deperimento dei nastri questi
filmati vadano perduti per sempre. Trattandosi di un progetto a bassissimo
costo, anche l’acquisto di semplici nastri MiniDV su cui riversare i
materiali diventa un problema. Purtroppo le tracce audio e video montate e
corrette, che, dopo la compressione sono confluite nei DVD, sono stati
cancellate nella loro forma non compressa, escludendo così la possibilità
apportare nuove correzioni migliorative in futuro senza dover fare una
nuova acquisizione. Dei filmati sono dunque rimasti soltanto gli MPEG2
presenti nei DVD, che sono stati conservati nel computer.
E, come si è visto, la compressione è un processo irreversibile.
Ammessi i limiti del lavoro bisogna dire che il progetto, oltre alla finalità
conservatrice si proponeva comunque anche la creazione di supporti di
facile fruizione per divulgare l’opera del professor Scabia, ed è qui che il
lavoro fatto all’interno dell’”Archivio Digitale Giuliano Scabia” può
essere rivalutato. La creazione di questi DVD non solo rende facilmente
fruibili filmati che prima erano conservati su supporti meno accessibili ai
più, ma tenta di fornire anche degli elementi per facilitare la comprensione
di quei filmati, grazie alle registrazioni introduttive del professore ed alle
72
schede tecniche nel tentativo di mantenere vivo un lavoro di grande
importanza per il DAMS.
73
GLOSSARIO
Aliasing: Fenomeno di distorsione che si può manifestare durante
campionamento di un segnale. Esso si verifica quando frequenze superiori
alla metà del tasso di campionamento vengono introdotte nel dispositivo.
Queste frequenze, come noto dal teorema di Nyquist, non possono essere
correttamente interpretate, e infatti, all'atto della ricostruzione del segnale
originale, esse generano frequenze errate, che danno l'effetto di distorsione
armonica detta appunto aliasing. Per scongiurare questo tipo di distorsione
armonica, si dispone l'apparecchiatura di un filtro detto anti-aliasing.
Ampiezza: Distanza tra l'estremo superiore e l'estremo inferiore di una
forma d’onda rispetto all'asse di riferimento. Maggiore è questa distanza,
maggiore
la
variazione
di
pressione
sonora
del
segnale,
o,
alternativamente, lo spostamento di questo all'interno di un mezzo di
trasmissione (circuito, cavo,...). Il risultato, a livello acustico, di una
maggiore ampiezza, è una percezione di maggiore volume del suono, a
seconda delle condizioni di ascolto.
Backup: In informatica indica un’operazione tesa a duplicare su differenti
supporti di una copia di sicurezza. In caso di danneggiamento del supporto
primario, il backup consente di recuperare le informazioni perse.
Betacam: Formato video analogico introdotto dalla Sony. Utilizza cassette
con nastro da ½ pollice ed è molto utilizzato in ambiente professionale per
la sua alta qualità.
BIT: Unità di misura minima di informazione. Assume un valore scelto tra
una coppia (generalmente indicata con 0 e 1). Una successione di bit si
dice parola binaria.
Campionamento: Procedimento mediante il quale frammenti di segnale
audio (campioni) vengono registrati mediante una loro conversione in
parole binarie (operazione effettuata da un dispositivo detto convertitore
analogico-digitale), in modo da poter essere successivamente elaborati,
memorizzati e riprodotti.
CD Audio: Supporto digitale per l'immagazzinamento dei dati audio, nato
negli anni 80 da una collaborazione tra Sony e Philips. E' costituito da un
disco in policarbonato di 12cm di diametro, con al centro un foro di 1,5cm
di diametro, con i dati scritti da 2,5cm dal centro fino a 11,6cm. Il disco è
un supporto ottico, ossia basato sulla riflessione della luce sulla sua
superficie. La superficie del disco è suddivisa in "pit" e "land" (alla lettera
"pozzi" e "pianure"), ossia avvallamenti e superfici lisce tra gli
avvallamenti. I pit e i land, che rappresentano gli 0 e 1 delle parole binarie
digitali, sono disposti a spirale dal centro del cd verso l'esterno. Nella
lettura dei dati, un raggio laser percorre la traccia di pit e land, e la luce
che viene riflessa attraversa un prisma che la invia ad un sensore.
CD-ROM: Supporto digitale per l'immagazzinamento di dati digitali, nato
come generalizzazione del formato CD AUDIO. Rispetto a quest'ultimo, la
struttura dei dati è modificata, con una migliore correzione degli errori.
Convertitore Analogico/Digitale (A/D): Dispositivo che converte il
segnale dalla forma analogica a quella digitale.
Convertitore Digitale/Analogico (D/A): Dispositivo che converte il
segnale da digitale ad analogico.
DAT (
): Nastro audio digitale. Registratore audio a
nastro magnetico (4 o 8 mm di spessore) a testina rotante, con
campionamento digitale. Nato come formato professionale ad alta qualità,
nel 1998 Sony ed HP lo hanno diffuso sul mercato come formato
consumer.
DVCAM: Formato professionale digitale da 6 mm. Utilizza compressione
DV, permettendo una buona qualità delle immagini. È dunque spesso
utilizzato nel montaggio professionale e nell’acquisizione a basso costo.
DVD (Digital Versatile Disc): Disco Digitale Versatile. Introdotto nel
1996, il DVD è pensato per la riproduzione di filmati e audio ad alta
qualità. Si differenzia dai formati CD per lo spessore del formato, per la
densità delle tracce (molto più alta), per la frequenza di campionamento
(96kHz), per la codifica a 24 bit.
Effetto Copia: Trasferimento di un segnale registrato da uno strato di
nastro magnetico ad uno adiacente, causato da induzione magnetica; dà
origine a falsi segnali in riascolto (un pre-eco o un post-eco).
Frequenza: La velocità con la quale una massa vibrante, un segnale
elettrico o un generatore di suono compiono un ciclo completo da valori
positivi a negativi o viceversa. Si misura in cicli al secondo, ossia hertz.
Frequenza di Campionamento: Nel campionamento digitale, il numero
di volte al secondo che viene eseguito l'operazione del campionamento,
ossia quante volte in un secondo viene prelevato il valore del segnale. Si
misura in Hertz (Hz), il cui multiplo è il kHz (kilo Hertz, pari a 1000
Hertz). Una frequenza di campionamento di 32kHZ indica, ad esempio,
che il segnale è stato campionato 32000 volte in un secondo. In inglese
non si parla di frequenza, per evitare confusione con la frequenza di
un'onda sonora, ma di sample rate.
Hertz: Unità di misura della frequenza (cicli al secondo).
Idrolisi (dal greco
, acqua, e
sciogliere): Rientrano sotto
questo termine diverse reazioni chimiche in cui una molecola viene scissa
in due o più parti per inserimento di una molecola di acqua.
MiniDV: Formato digitale destinato alla fruizione di massa. Utilizza
cassette con rate da 25 mbs ed è oggi molto diffuso in ambito amatoriale.
MP3 (
): Standard per compressione e decompressione
audio.
MPEG (
): Standard per
compressione e decompressione di video e audio, codificato in più versioni
dal 1991.
Multimediale: Campo che comprende le applicazioni di grafica, testo,
midi e musica in formato digitale, per PC. La produzione e la distribuzione
di supporti per l’educazione, di intrattenimento o di immagazzinamento
dati per PC hanno creato un mercato già affermato, con potenzialità di
crescita enormi.
Periodo di Campionamento: Intervallo di tempo che intercorre tra il
prelevamento di un campione ed il prelevamento successivo.
Quantizzazione: Nel processo di campionamento è l'operazione con la
quale si trasformano i livelli istantanei di tensione di un segnale analogico
continuo in un gruppo discreto di numeri binari (parole binarie). A seconda
della lunghezza della parola binaria ottenuta (ad esempio 16 bit, 20 bit, 24
bit,...) si parla di quantizzazione a 16 bit, 20 bit, 24 bit etc.
Segnale Analogico: Segnale la cui variazione avviene in modo continuo
nel tempo e non per mutamenti discreti.
Segnale Digitale: Segnale la cui variazione avviene in modo discreto, con
variazioni distanziate da intervalli di tempo.
VHS (Video Home System): Sistema di videoregistrazione per uso
domestico, messo a punto nel 1975 dall’azienda JVC.
BIBLIOGRAFIA DI RIFERIMENTO
Ang T. Manuale di video digitale, Mondadori Electa, Milano, 2005
Boston G. Safeguarding the Documentary Heritage – A Guide to Standards,
Recommended Practices and References Literature Related to the Preservation
of All Kinds General Information Programme, U.N.E.S.C.O. aprile 1998
Coulter D. Digital Audio Processing, R&D Books, Lawrence (Kansas), 2000
D'Ambrosio F. - De Marco A. Audio Digitale: tutti i formati, i supporti, le
tecniche, FAG, Milano, 2005
Deutsch W.A. Concepts of Digitisation, Storage and Retrival of Music and
Musical Information, Convegno Internazionale di Studio Musica e mouse. Le
nuove tecnologie applicate ad archivi e biblioteche musicali. Dipartimento di
Musica e Spettacolo, Università di Bologna, venerdì 7 e sabato 8 aprile 2000
Devoti L. La digitalizzazione per la salvaguardia degli archivi e delle collezioni
fotografiche, ANAI, Roma, 2005
Fagnani C. Digitalizzazione dei documenti sonori storici: la nastroteca
“Agosti” di Reggio nell’Emila, tesi di laurea in Storia degli strumenti musicali,
Università di Bologna, a.a. 2002-2003
Mitchell J.L. (a cura di) MPEG video compression standard, Chapman & Hall,
New York, 1997
Ozer J. Video compression for multimedia, AP professional, Boston, 1995
Petri M. Video Digitale, Apogeo, Milano, 2002
Santoro M. Dall’analogico al digitale: la conservazione dei supporti non
cartacei, articolo apparso sulla rivista “Biblioteche oggi” nel marzo 2001
Scolari A. – Pepe M. Appunti per la definizione di un set di metadata
gestionali-amministrativi e strutturali per le risorse digitali –Versione 0,
preparati per il “Gruppo di studio sugli standard e le applicazioni di metadati nei
beni culturali” promosso dall’ICCU, 2002
Schüller D. Preserving the Fact for the Future: Principles and Practices for the
Transfer of Analog Audio Documents into the Digital Domain, trattato
presentato al 106esimo congresso della AES (Audio Engineering Society), 8-11
maggio 1999, Monaco, Germania
Visciotti F. Tecniche di compressione audio: evoluzione dello standard MPEG,
dispensa del corso di Sistemi Informativi II, Università degli studi di Bologna,
a.a. 2000/2001
Watkinson J. The art of digital video, Focal Press, Oxford, 2000
WEBGRAFIA
broadcastengineering.com
it.wikipedia.org
mariottim.interfree.it
pixeltools.com
tan.informatik.tu-chemnitz.de
www.afterdawn.com
www.appuntisuldigitalvideo.it
www.autosophy.com
www.bbc.co.uk
www.bretl.com
www.cs.cf.ac.uk
www.cybercollege.com
www.db.deis.unibo.it
www.di.unipi.it
www.dizionarioinformatico.com
www.doc.ic.ac.uk
www.earlevel.com
www.imaging-components.com
www.mlesat.com
www.newmediarepublic.com
www.printerport.com
www.softarch.it
www.teamcombooks.com
www.tvhandbook.com
www.videsignline.com
www.wave-report.com
APPENDICE FOTOGRAFICA
Figura I - Lettore DVCam e MiniDV Sony DSR 45
Figura II - Lettore Hi8 e VHS Sony EV-T2
Figura III - Canopus ADVC-300
Figura IV - L’invocazione del Dio al centro del cerchio in
Figura V - Il Cerchio del Soffio in
Figura VI - Penteo sull’albero in
Figura VII - I cori delle rane in
Figura VIII - Caronte invita Dioniso a salire sulla sua barca in
Figura IX - Il gruppo del Gorilla Quadrumano durante un’azione teatrale
Figura X - Il Gorilla Quadrumano al festival di Nancy
Figura XI - Il personaggio di Attila in
Figura XII - Marco Cavallo e il Drago di Montelupo in
Figura XIII - Diavolo e Angelo in
Figura XIV - Diavolo e Angelo per le strade di Venezia

Documenti analoghi

Editing video digitale

Editing video digitale in segnale elettrico; il video digitale trasforma le immagini in formato dati. In entrambi i casi si registra attraverso una telecamera su un nastro magnetico ma, mentre nel primo caso, quando si a...

Dettagli