Digitalizzazione, elaborazione ed analisi delle immagini

Transcript

Digitalizzazione, elaborazione ed analisi delle immagini
Copia digitale ed archiviazione di documenti
Giovanni E. Gigante
Corso di studi in Tecnologie per la Conservazione ed il
Restauro dei Beni Culturali, Facoltà di Scienze MFN,
Università degli Studi di Roma “La Sapienza”
1. INTRODUZIONE
Chi ha a cuore la tutela dei documenti e delle opere d’interesse storico-artistico o chi vuole, con
diverse finalità, farli circolare e conoscere meglio è impegnato nella produzione di copie di
documenti e libri. In questa pratica sono state impiegate tutte le tecnologie disponibili nelle diverse
epoche; ad esempio nell’alto medioevo schiere di monaci usavano produrre copie a mano,
successivamente risultate preziose, di testi antichi. Nell’era del digitale (com’è spesso chiamata
l’attuale periodo storico) si deve affrontare il problema di come le affascinanti tecnologie messe a
nostra disposizione dallo sviluppo della tecnologia informatica possano essere utilmente e
correttamente impiegate nel produrre copie.
Questo periodo di tempo ha origine nei primi anni sessanta con lo sviluppo di tecniche che
consentono di inviare copie digitali di segnali e, in seguito, d’immagini al calcolatore. Nasce così un
vasto settore di ricerca e di sviluppo di sistemi che rapidamente sostituiscono i precedenti, divenuti
obsoleti, in quanto le prestazioni dei sistemi d’elaborazione digitale dell’informazione offrono
potenzialità tali da averli resi quasi ridicoli. Una prima osservazione che può essere fatta è che il
passaggio al digitale nei vari settori avviene spesso in maniera troppo frettolosa e disordinata con
una rapida eliminazione dei sistemi analogici. Ciò deve fare pensare sulle conseguenze che questo
processo potrebbe avere in settori la cui dinamica è lenta com’è appunto quello degli archivi e delle
biblioteche.
Una copia digitale di un documento è nei fatti un insieme di numeri organizzati in liste (successioni,
vettori) o tabelle (matrici, array) che rappresenta l’oggetto copiato. Ovviamente la lettura di tali
numeri avviene utilizzando programmi d’elaborazione dell’informazione senza i quali essi non
hanno alcun senso; questo è un primo problema che va affrontato. La conservazione delle copie
implica che siano contemporaneamente disponibili: a) i “file” che contengono i numeri, b) le
informazioni relative al formato dei dati (inserite nel “file” stesso), c) i programmi con cui leggerli.
Conoscere l’organizzazione dei dati all’interno dei “file” è indispensabile, pena la perdita
dell’informazione; sfortunatamente non è sempre possibile organizzare un “file” in maniera
semplice e leggibile in quanto occorre soddisfare anche altre esigenze come quella di non far
crescere eccessivamente le sue dimensioni.
Cerchiamo di capire il significato della digitalizzazione partendo da un esempio concreto come la
produzione di una copia di un breve brano musicale. Un suono nella sua forma più pura è costituito
da un segnale, come quello visibile in figura 1. Quando un pianista preme il tasto del "do" un
martelletto batte con forza una corda che vibra spostando l'aria circostante con fluttuazioni
periodiche che si propagano fino a raggiungere le nostre orecchie. Per poter riprodurre un brano di
musica fin dal medioevo (ed in maniera più sistematica dal cinquecento) sono state sviluppate
tecniche di scrittura della musica fondate sull’uso del pentagramma, delle scale diatoniche e di altre
notazioni che permettono ad un buon musicista di riprodurre un brano musicale (figura 2). Queste
tecniche sono divenute particolarmente raffinate con il tempo, grazie anche allo sviluppo della
musica polifonica e del progressivo adattare la musica ai diversi strumenti e da ultimo all’orchestra.
La notazione musicale lascia sempre un qualcosa all’interpretazione del musicista per cui non si
potrà mai affermare che un brano eseguito da un musicista sia del tutto identico a quello eseguito da
altri interpreti in precedenza.
Ampiezza
del segnale
Segnale
sonoro
Tempo
Passo di
campionamento
Figura 1 – Esempio di segnale sonoro da cui viene estratto un
campione per la digitalizzazione.
Per risolvere questo problema, per documentare quindi esecuzioni di interpreti famosi, a partire
dalla fine dell’ottocento sono stati sviluppati sistemi che permettono la registrazione di brani di
musica su diversi supporti, dopo aver acquisito un segnale con un microfono. In questa maniera il
suono è registrato nella sua interezza, cioè non scritto utilizzando un’opportuna notazione. Da
questa considerazione nasce l’ipotesi che un suono registrato può essere una copia più o meno
fedele dell’originale per cui si sono sviluppati metodi per rendere la registrazione del suono in tutto
fedele (alta fedeltà). In questa corsa verso la produzione di una copia esatta ci sono diversi ostacoli
il principale è che all’atto dell’acquisizione il segnale non può corrispondere del tutto all’originale
per diversi problemi sia interni al sistema di acquisizione del suono che ambientali (si pensi al fatto
che le registrazioni musicali debbono avvenire in particolari ambienti detti di registrazione). Sono
nate anche altre problematiche interessanti derivanti dal fatto che la copia (non del tutto fedele
all’originale) poteva divenire a sua volta un originale la cui autenticità doveva essere verificata (un
autentico vinile del primo disco dei Beatles ha un valore commerciale notevole). Esse avevano
fondamento nel fatto che produrre una copia fedele della copia non era impresa più semplice di
quella affrontata per produrre la prima registrazione dall’originale. Con i sistemi di registrazione
della musica sviluppati tra la fine dell’ottocento ed i primi anni sessanta era in ogni caso possibile
produrre numerose copie (quasi identiche) del segnale registrato durante l’esecuzione del brano
musicale originale; la fase della riproduzione di massa della musica era già in atto (allo scopo di
approfondire le problematiche relative all’arte ed alla sua riproduzione meccanica ci si può riferire a
classico lavoro di Walter Benjamin “The Work of Art in the Age of Mechanical Reproduction”,
1936).
Figura 2 - Estratto di parte per pianoforte del Notturno op. 27 n. 2 in Reb
maggiore di Frédeéric Chopin
Veniamo alla produzione di una copia digitale facendo sempre riferimento alla figura 1. Il processo
di digitalizzazione si basa sull’acquisizione dell’ampiezza del segnale a istanti separati e sulla sua
approssimazione numerica. Ciò che è registrato è così una successione di numeri interi; la
riproduzione di un brano registrato in formato digitale consiste quindi nel riconvertire tali numeri in
intensità d’onda sonora, mentre la copia consisterà nella replica di tale successione. Vi è però una
peculiarità del processo di registrazione mediante numeri: la trasformazione numerica è una
codifica del segnale sonoro, che infatti può essere scritto utilizzando tale codice. Vi sono infatti
diversi esempi di musica scritta direttamente in formato numerico utilizzando diversi trucchi. Il
fatto che la registrazione in formato digitale implica una codifica apre moltissime problematiche sia
positive che negative. Quelle positive possono essere analizzate studiando i vantaggi che si sono
ottenuti con la notazione musicale e gli altri metodi per la scrittura musicale. Il principale è
sicuramente quello di facilitare la diffusione (la comunicazione e la trasmissione) e di semplificare
la trascrizione e la produzione di copie. Anche la possibilità di analizzare e modificare più
semplicemente i dati che rappresentano il testo musicale è un grande vantaggio, non solo perché è
possibile fare operazioni matematiche ma anche perché su dati codificati è possibile effettuare
analisi ed operazioni logiche. Gli svantaggi sono in qualche misura insiti nei vantaggi. Il testo
prodotto con la codifica digitale è si cristallizzato (e quindi non rischia di deteriorarsi con il tempo,
cosa che è propria di una registrazione in analogico), ma è facilmente accessibile e quindi
modificabile. Perciò, come sfortunatamente è già accaduto con la lingua, è l’uso stesso che la
modifica soprattutto grazie all’intervento dell’uomo che effettua operazioni migliorative che sono
attribuite al testo originale. Questo è un rischio molto forte anche perché nell’immagazzinamento
dei dati viene in genere fatta un’operazione di questo tipo - la compressione - che si rende
necessaria per facilitare una migliore memorizzazione e trasmissione dei dati. Altro rischio è quello
di compiere operazioni di restauro sui dati (anche seguendo procedimenti corretti) pensando che sia
giustificabile la sostituzione dell’originale con la copia. In altre parole anche l’eccessiva fiducia
nella fedeltà della copia digitale può costituire un pericolo in quanto in momenti di confusione uno
può considerarla migliore, essendo però solo un’interpretazione dell’originale.
E’ utile considerare anche la diversa natura della copia digitale, che consiste in un “file”. Nel caso
di una riproduzione analogica, come abbiamo già accennato, essa può nel tempo acquistare valore
in quanto ha una sua unicità ed autenticità. Ciò è in qualche misura vero anche per quella digitale,
pure se l’estrema semplicità di riscriverla e trasferirla farà sì che il suo valore dovrebbe crescere
meno.
Anche la semplicità con cui è possibile effettuare trascrizioni può rappresentare un pericolo.
Occorre infatti notare che rispetto ai più evoluti linguaggi utilizzati per scrivere musica la codifica
digitale è molto primitiva per cui nel tempo sembrerà molto utile trascrivere i “file” in modo da
renderli utilizzabili in maniera ottimale in diversi contesti, con il rischio di modificare
l’informazione in loro contenuta. In questo senso far diventare la codifica digitale attuale un
linguaggio più evoluto, che quindi subirà minori modificazioni nel tempo, sembra un rimedio utile
ad evitare trascrizioni arbitrarie.
E’ necessario però contraddire quelle affermazioni che dicono che la registrazione digitale sia priva
di rumore, ciò non è vero: il rumore presente al momento della registrazione del segnale originale è
inglobato nel formato numerico. A queste imprecisioni si aggiungono quelle generate nel processo
stesso di conversione. Questo ci permette di fare un ultima considerazione sulla codifica digitale:
quando si usa una notazione musicale e si scrive (o trascrive) uno spartito si fa riferimento a simboli
che permettono al musicista di produrre un determinato suono utilizzando un particolare strumento.
Nella partitura non sarà presente del rumore non voluto in quanto l’operazione effettuata con la
scrittura ne’ prescinderà. Digitalizzando invece un segnale musicale saranno trasferiti nei dati
registrati sia le note che il rumore: questo fa una bella differenza, soprattutto se si progetta di far
evolvere la codifica digitale in una vera e propria notazione. La presenza del rumore nella copia
digitale ha anche dei risvolti molto significativi riguardo all’autenticità ed alla identificabilità. La
presenza del rumore è infatti il migliore ausilio che abbiamo per risalire all’autenticità del
documento di cui abbiamo fatto la copia o per identificarlo e per poter verificare che la copia fatta è
autentica. Ovviamente, come già detto, non tutto il rumore proviene dall’originale e questo è
sicuramente un problema.
Quanto detto sembrerebbe qualcosa che ha poco a che fare con il tema che ci siamo proposti se non
fosse che le tecniche di produzione di documenti digitali da documenti reali è sempre la stessa che
parte da un’approssimazione con funzioni sinusoidali (trasformata di Fourier) vedi figura 3, che nel
caso del suono ha un suo più evidente significato. E’ infatti ben noto come l’analisi armonica sia
nata alla fine del settecento per risolvere problemi attinenti all’analisi del suono, per poi espandersi
in tutti i settori scientifici e delle tecnologie.
1
0.8
0.6
Ampiezza
0.4
0.2
0
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
Tempo
2
1
1.2
1.4
1.6
1.8
Tempo
2
periodo
-0.2
-0.4
-0.6
-0.8
-1
2.5
2
1.5
Ampiezza
1
0.5
0
0
-0.5
0.2
0.4
0.6
0.8
-1
-1.5
-2
-2.5
Figura 3 – In altro esempio di funzione armonica, in basso esempio di una
funzione (tratto spesso) ottenuta sovrapponendo la funzione
con tre sue armoniche.
Il passaggio al digitale del materiale d’archivio e delle biblioteche, compreso quindi quello
fotografico, cinematografico e le registrazioni audio-video, sta divenendo un’esigenza non più
differibile che, per essere attuata, richiede che siano individuate ed adottate opportune strategie. Nel
caso di libri e documenti si è adottata la tecnica della fotoriproduzione, che però sta
necessariamente anch’essa evolvendo verso il digitale in quanto l’impiego di pellicole fotografiche
sembra non avere più futuro. Per gli altri materiali sono già in atto campagne di trascrizione in un
formato digitale condotte sovente senza precise idee sulle implicazioni che vi potrebbero essere per
il futuro del documento. Le tecnologie ed i modelli teorici che consentono di fare tali operazioni
sono ben consolidati, anche se non sono sempre utilizzati correttamente; una loro analisi permette
quindi di studiare quali siano i principali rischi che si corrono e quali precauzioni debbano essere
adottate.
Un aspetto suggestivo di ciò che sta avvenendo è nel fatto che le moderne tecnologie hanno di fatto
sconvolto l’organizzazione di archivi e biblioteche con la produzione di documenti su diversi
supporti (cartaceo, magnetico, materiale sensibile, ecc.) che è spesso difficile integrare tra loro, l’era
del digitale fa intravedere una riorganizzazione di tutto il materiale in un formato che fortemente
facilità la sua integrazione in un unico documento. Ovviamente questo non deve essere visto come
soluzione a tutti i problemi di tutela, anzi deve essere semmai percepito solo come uno strumento
per la fruizione ed in qualche misura la valorizzazione del materiale.
2. IMMAGINI ANALOGICHE E DIGITALI
Un’immagine è un oggetto prodotto con una tecnica, ad esempio fotografica, compiendo opportune
scelte giudicate utili a produrre un buon risultato; ad esempio la fotografia è di buona qualità se
l’illuminazione della scena e la messa a punto della macchina fotografica sono corretti. L’oggetto
immagine ha una sua consistenza materiale e delle caratteristiche fisiche che lo rendono in genere
utilizzabile in un certo contesto.
Un’immagine digitale è anch’essa un oggetto, però costituito da numeri che sono organizzati in un
“file”, che è memorizzato su un supporto (disco rigido, CD, DVD, ecc.); essa può essere
visualizzata utilizzando un apposito sistema (ad esempio un video) o anche stampata.
Vi sono attualmente numerose immagini che nascono digitali, per le quali non ha senso di parlare di
digitalizzazione, anche se le loro caratteristiche sono legate al modo come il sistema di acquisizione
ha effettuato il campionato spaziale. Tra queste sono le immagini di un documento prodotte con un
processo di digitalizzazione.
Un’immagine digitale è quindi costituita da un insieme di numeri che rappresentano ciascuno un
elemento dell’immagine (picture element: pixel) che corrisponde ad un punto (o meglio una piccola
area) dell’oggetto rappresentato. La differenza con un’immagine in formato tradizionale sta tutta nel
fatto che essa è composta di un numero finito di elementi, mentre un pagina di un documento o una
fotografia sono, almeno ipoteticamente, composti da un numero infinito di punti. Posta in questa
maniera la completa trasposizione di un’immagine in un formato digitale sembrerebbe
un’operazione che comporta delle perdite d’informazione. Questo è sicuramente vero, pure se è
possibile dimostrare che compiendo l’operazione di digitalizzazione in maniera corretta tale
limitazione è quasi del tutto superabile.
La differente costituzione materiale di un’immagine tradizionale e di una digitale ha sicuramente
effetti considerevoli sulla sua conservazione. I rischi infatti di vedere deteriorare un’immagine
digitale sono molto minori in quanto legati solamente alla possibilità che il supporto di
memorizzazione non funzioni correttamente o che non si riesca più a leggerlo correttamente 1 .
Occorre inoltre considerare che una copia assolutamente fedele di un’immagine digitale può essere
ottenuta facilmente, cosa che non è così facile per le immagini tradizionali, questo fatto riduce
sicuramente i rischi di perdere l’immagine.
A prescindere dalla natura del supporto utilizzato un’immagine è caratterizzata da alcune proprietà
fisiche che la rendono leggibile: contrasto, risoluzione e rumore (vedi figura 4).
Tali caratteristiche fisiche sono solo in parte determinate dalla qualità del sensore e dal sistema
ottico impiegati, esse sono infatti dovute anche alle condizioni in cui l’immagine è stata prodotta.
Ad esempio un’ottima pellicola ed una buona macchina fotografica non producono sempre
immagini fotografiche con elevati contrasto e risoluzione. Questo complica notevolmente la
programmazione del processo di digitalizzazione che dovrebbe essere legato alla reale qualità del
documento o dell’immagine e non a quelle ipotetiche. Possiamo comunque assumere che le
condizioni di ripresa sono ottimali e programmare la scansione dell’immagine tenendo conto di tali
1
E’ sfortunatamente molto concreta la possibilità che, con l’evoluzione delle tecnologie, i supporti non siano più
leggibili sia per la mancanza di dispositivi di lettura che del software necessario a comandarli.
limiti teorici in termini di massima risoluzione e contrasto raggiungibili. Così facendo sarebbero
definite le dimensioni del “file” contenente l’immagine digitale per programmare meglio la sua
archiviazione, rappresentazione ed elaborazione.
Nei paragrafi successivi si passerà brevemente il rassegna le tecniche di passaggio al digitale e
saranno discusse alcune loro implicazioni.
Risoluzione
Immagine
Contrasto
Rumore
Figura 4 – Principali caratteristiche fisiche di un’immagine.
3. LA FORMAZIONE DELL’IMMAGINE
3.1 Il processo di formazione
Quando si parla di copia di un documento si intende copia visibile di esso che sia per quanto
possibile fedele a quello che si può osserva oggettivamente. In altri termini una copia di un
documento su carta dovrebbe essere leggibile da un attento osservatore notando tutti i particolari
che gli sarebbe stato possibile osservare nell’originale. Ad esempio una fotografia fedele di un
documento è in genere considerata una copia valida a garantire che tutta l’informazione presente in
esso possa essere letta senza dover accedere al documento stesso (fotoriproduzione).
L’immagine visibile è prodotta da un processo casuale di cattura di quanti di luce (fotoni) che
arrivano sulla pellicola fotosensibile provenendo dalla scena che si desidera registrare. Tale
processo fisico può essere visto come la riflessione da parte degli oggetti presenti nella scena della
luce che la illumina vedi figura 5.
Luce
Macchina
fotografica
sorgente
Immagine
Soggetto
oggetto
rivelatore
Figura 5 – Schema del processo di formazione di un’immagine fotografica
Per poter registrare l’immagine occorre utilizzare uno strumento ottico che in qualche modo metta
le briglie a questo imprevedibile processo fisico con cui i fotoni sono riflessi. In estrema sintesi tale
strumento può essere visto come una camera oscura (pin-hole in inglese), l’idea che è alla base è
quella di dare una direzionalità alla luce proveniente da un punto della scena (dell’oggetto)
costringendo a passare attraverso un sottilissimo foro tutti i fotoni che incidono sul film sensibile
(vedi figura 6). Controllando opportunamente il tempo d’esposizione è possibile ottenere
un’immagine che metta in evidenza il diverso numero di fotoni provenienti dai diversi punti della
scena ed anche i cambiamenti del loro spettro (che produce la sensazione del colore).
Questa breve premessa sulla natura del processo di cattura della fotografia ha l’unico scopo di
sottolineare due cose molto importanti: a) nell’immagine sono ben evidenti le tracce delle modalità
con cui è stata registrata, b) l’immagine fotografica è unica ed irriproducibile in quanto prodotta da
un processo casuale.
x’1,y’1
x2,y2
y
(x-x’,y-y’)
y’
gx’,y’)
f(x,y)
x1,y1 x
Piano oggetto
ζ
ξ
Pin-hole
x’2,y’2
x’
Piano rivelatore
Figura 6 – Schema di funzionamento di un pin-hole.
Non vorrei qui dare la sensazione che siamo in presenza di un qualcosa che non siamo in grado di
controllare assolutamente, in effetti, mantenendo gli oggetti nella scena ben fissi e l’illuminazione
costante ed utilizzando le medesime condizioni di ripresa, è possibile ottenere foto del tutto simili.
Quello che le differenzierà sarà il fatto che il segnale registrato punto per punto sulla pellicola non
sarà eguale, vi saranno delle variazioni che potrebbero essere anche molto grandi ( e quindi visibili)
se l’immagine (o il particolare di essa) sono caratterizzate da un basso rapporto segnale/rumore. In
qualche misuro si sta sottolineando l’impossibilità di ottenere una copia assolutamente fedele di un
documento in cui non vi siano tracce del processo fisico di cattura dell’immagine impiegato.
3.2 Supporti dei documenti
I documenti da digitalizzare sono su supporti molto differenti tra loro come ad esempio la carta, la
carta per fotografie, le pellicole fotografiche. Per poter effettuare una digitalizzazione occorre fare
più o meno volontariamente alcune assunzioni: a) il documento è piano, b) è considerata la sola
superficie attraverso le sue caratteristiche di luminosità e di colore. La presenza di eventuali
rugosità o pieghe non deve compromettere il processo digitalizzazione che presuppone che
l’oggetto campionato sia piano. L’eventuale presenza di esse sarà rilevata dal processo di
digitalizzazione ma in maniera non del tutto fedele. Questo fatto comporta che il processo di
digitalizzazione sia tanto migliore quanto più il documento non presenta imperfezioni.
I documenti sono di due tipi: quelli che sono letti per riflessione della luce sulla superficie e quelli
letti per trasparenza. I primi sono di gran lunga i più numerosi, ai secondi appartengono il materiale
fotografico su pellicola.
Una superficie piana di un documento può essere caratterizzata dalle sue proprietà di riflettere la
luce in maniera selettiva. In particolare essa presenta proprietà di luminanza e di colore che però
dipendono dalla sorgente luminosa presente nell’ambiente. Per effettuare la digitalizzazione occorre
eliminare, per quanto possibile tali ambiguità e far riferimento alle proprietà ottiche della superficie
da scansionare in presenza di un’illuminazione standard.
Per far comprendere meglio come si caratterizza una superficie in termini di contrasto è più
semplice far riferimento ad una fotografia in bianco e nero. La pellicola sviluppata presenta delle
zone con tonalità che vanno dal nero al bianco formando una scala di grigi che può essere misurata
in termini di densità ottica (OD)
I 
OD Log10  0 
 I 
(1)
utilizzando uno strumento, il densitometro, che misura la luce trasmessa (rapporto tra quella
incidente I0 e quella che passa) attraverso la pellicola.
In figura 7 è mostrata una scala di grigi su una pellicola fotografica opportunamente esposta ed in
figura 8 un microdensitometro con il relativo schema di funzionamento.
Figura 7 – Esempio di scala di grigi.
Figura 8 – Microdensitometro e suo schema di funzionamento (a destra).
La possibilità di produrre tonalità nere molto scure e bianche molto chiare è una particolarità
importante della pellicola detto intervallo dinamico, o più semplicemente dinamica. I valori di OD
osservabili ricadono nell’intervallo 0 ÷ 4 che è molto ampio se si considera che in una zona molto
scura del film passano solo un fotone ogni 10.000 fotoni incidenti. In una zona perfettamente
trasparente (OD=0) passano invece tutti i fotoni, cosa che è a sua volta inimmaginabile. A questa
dinamica è legata la capacità del film di registrare variazioni nel flusso di luce incidente in un
determinato intervallo di valori (detta anche la latitudine del film fotografico).
La curva che mostra l’andamento della densità ottica del film in funzione dell’esposizione (flusso
luminoso incidente) è detta curva sensitometrica (fig. 9). La principale caratteristica di tale curva è
quella di non essere lineare, questo comporta una serie di difficoltà pratiche che si riflettono anche
sulla qualità dell’immagine prodotta e sulla sua digitalizzazione. In pratica una variazione di
esposizione fuori dalla zona centrale in cui la curva è lineare produce una corrispondente minore
variazione del tono di grigio con perdite di contrasto nell’immagine. Una caratteristica che in
qualche misura può essere dedotta dalla curva sensitometrica è la sensibilità del film fotografico che
si misura in ASA, in pratica in un film molto sensibile tale curva è spostata verso sinistra. La
sensibilità è molto importante nella cattura dell’immagine un poco meno nella digitalizzazione in
quanto un eventuale perdita di contrasto dovuta a sovra- o sottoesposizione potrà essere rimediata
dopo l’operazione elaborando l’immagine ottenuta.
In linea di principio un buono scanner ha una dinamica di risposta sufficiente per la fedele
riproduzione di una normale fotografia, qualche problema vi è semmai con materiale fotografico
trasparente come negativi e diapositive che presentano intervalli dinamici più ampi.
3.5
3.0
Densità Ottica
2.5
2.0
Dinamica
1.5
1.0
0.5
Latitudine
0.0
0
0.5
1
1.5
2
2.5
3
3.5
Logaritmo dell'esposizione
Figura 9 – Esempio di curva sensitometrica.
Quanto detto per una pellicola fotografica può essere esteso anche ad una superficie piana riflettente
la cui OD può essere misurata punto per punto. Anche in questo caso vi saranno delle limitazioni
nella dinamica che un documento può presentare; è ad esempio ben noto che le immagini stampate
su carta non presentano la stessa dinamica di quelle stampate su materiale fotografico. Anche la
tecnica di scrittura e di stampa possono fortemente limitare la dinamica del documento, un testo
scritto non avrà mai un’ampia dinamica per cui sarà più facilmente digitalizzabile di una fotografia.
Il colore è una proprietà fisica molto importante per caratterizzare un documento, sfortunatamente
non è sempre semplice misurarlo accuratamente in un processo di digitalizzazione. Il colore di una
superficie piana può essere prodotto utilizzando una logica sottrattiva o additiva vedi figura 10.
Figura 10 – Schema della formazione dei colori mediante sintesi additiva
e sottrattivi partendo rispettivamente dai tre colori
fondamentale e dai loro complementari.
Nella stampa si usa in genere il metodo sottrattivo, per cui si preferisce impiegare il sistema di
coordinate cromatiche (CMYZ) che fa riferimento ai cosiddetti colori complementari di quelli
fondamentali: rosso, verde e blu che danno luogo al sistema di coordinate cromatiche RGB che è il
più comunemente impiegato. Anche nel caso del colore si può parlare di un intervallo di colori che
può essere tipico di un documento. In particolare per produrre un’immagine a colori si utilizzano
pigmenti il cui numero va da un minimo di tre (sempre che si voglia cercare di riprodurre tutte le
gamme cromatiche) in su. Ovviamente tanto più numerosi sono i pigmenti usati tanto più estesa è la
gamma dei colori che è possibile ottenere. Anche in questo caso facciamo l’esempio concreto di una
pellicola fotografica a colori con cui è possibile registrare un immagine a colori utilizzando tre strati
di colore come mostrato in figura 11.
Figura 11 – Struttura di una pellicola fotografica a colori.
I colori contenuti in un’immagine fotografica sono in massima parte determinati dai tre pigmenti
contenuti nei rispettivi strati, essi sono quelli compresi in una zona (gamut) del diagramma dei
colore (vedi figura 12), che ha come vertici le posizioni di tali pigmenti. La fedeltà del colore è
quindi fortemente dipendente da essi e dal loro stato di conservazione, in ogni caso il colore può
essere misurato utilizzando uno strumento detto colorimetro (vedi figura 13).
Figura 12 – Esempio di colori presenti nel gamut di un’immagine ottenuta per sintesi sottrattivi.
Figura 13 – Esempio di colorimetro che funziona con una sua sorgente
luminosa interna appoggiando lo strumento in corrispondenza
dell’area di colore che si intende misurare
4. DIGITALIZZAZIONE.
Il processo di digitalizzazione è una trasformazione di un’immagine continua (analogica) in una
matrice di numeri interi. Tale processo si effettua in due successive fasi il campionamento e la
quantizzazione.
f(x,y)
campionamento
quantizzazione
fi,j
Al termine del processo si ottiene una matrice di numeri interi che rappresenta l’immagine
originale. Tale matrice sarà composta di n x m numeri interi in un intervallo di valori che sarà la
profondità o dinamica dell’immagine
Per campionamento spaziale si intende l’operazione con cui un’immagine continua f ( x, y ) è
trasformata in un insieme discreto di valori assunti dalla funzione in un reticolato di passo x , y
infinitamente esteso
La seconda operazione consiste nel rappresentare i livelli di intensità del segnale in forma digitale
con numeri interi in un intervallo definito dal numero di bit assegnato al registro. Il numero dei
livelli di quantizzazione (N), il loro valore e il valore del livello di ricostruzione, al fine di
minimizzare l’errore che si introduce ( nel senso dei minimi quadrati), è assegnato preliminarmente.
Il valore di N va valutato sulla base del contrasto nell’immagine, ovvero del rapporto segnalerumore (SNR).
4.1 Campionamento spaziale.
Nell’immaginario matematico l’operazione di campionamento può essere descritta dal prodotto di
una funzione fatta di tante delta con la funzione che rappresenta l’immagine da campionare.
Se definiamo con
COMB(x,y) 


  δ(x  jx,y  ky)
j  k  
(2)
la funzione di campionamento (fig. 14), allora l’immagine campionata può essere rappresentata da
f c (x, y)  f(x, y) COMB( x, y) .
(3)
La funzione fc consiste in una serie di numeri costituita dai valori assunti dalla funzione f(x,y) in
corrispondenza alle punte delle frecce della funzione COMB (fig. 15).
Figura 14 - Funzione impiegata nel campionamento spaziale di un
immagine.
Il campionamento sarà riuscito se dai numeri della funzione fc sarà possibile ricavare (ad esempio
interpolando) tutti gli infiniti valori della funzione f(x,y). In prima istanza verrebbe voglia di
rispondere negativamente, ma svolgendo alcune considerazione nello spazio delle frequenze
spaziali è possibile arrivare alla conclusione opposta. Facciamo quindi la trasformata di Fourier
delle due funzioni introdotte in precedenza:
(4)
Fc ( x ,  y )  F( x ,  y )  COMB( x ,  y )
dove x e y sono le pulsazioni spaziali.E’ utile tener conto che la trasformata di Fourier della
COMB è ancora una funzione COMB costituita da delta spaziate a frequenze spaziali date
dall’inverso del passo di campionamento (  x  1
e  y  1 )
x
y
sviluppando la (4) si ottiene
1 1  
Fc ( x ,  y ) 
(5)
  F ( x  l x ,  y  m  y )
x y l  m  
f(x,y)
Campioni
dell’immagine
x
x
Figura 15 - Esemplificazione dell’operazione di campionamento spaziale
di un’immagine.
Lo spettro di Fourier della funzione campionata consiste allora in una ripetizione periodica dello
spettro dell’immagine originale (fig. 16) nel piano delle frequenze spaziali, ad intervalli dati da x,
y vedi figura 17. Se lo spettro dell’immagine ha una larghezza di banda finita, caratterizzata dalle
frequenze di taglio xc eyc, si può allora moltiplicare la (5) per una funzione di ricostruzione che
filtri le frequenze di ordine superiore lasciando solo quello di ordine zero: antitrasformando il
risultato si riottiene l’immagine originale inalterata. Definendo con r ( x , y ) la funzione di
ricostruzione e con R( x , y ) la sua trasformata di Fourier, l’operazione di filtraggio in frequenza
nel piano di Fourier
FR ( x ,  y )  Fc ( x ,  y ) R( x ,  y )
(6)
Figura 16 - Spettro in frequenze spaziali dell'immagine originale
nello spazio delle coordinate corrisponde alla convoluzione
f R ( x, y)  f S ( x, y)  r ( x, y)
(7)
Figura 17 – Spettro della funzione campionata in assenza di aliasing.
Fisicamente questo corrisponde ad assegnare alle zone dell’immagine comprese tra i punti
campionati un valore di segnale ottenuto interpolando con la r(x,y) i valori nei punti campionati
stessi.
Affinché tale operazione di filtraggio abbia successo, occorre che gli spettri di ordine superiore non
si sovrappongano a quello di ordine zero che interessa estrarre, cioè accade quando
 y
 x
1
1

 xc 
,  yc 
(8)

x
y
2
2
che in corrispondenza del segno di eguale prende il nome di frequenza di Nyquist.
In teoria campionando con un passo più piccolo, non si ottengono ulteriori informazioni
(sovracampionamento) mentre con un passo più grande gli spettri si sovrappongono
(sottocampionamento ) e lo spettro ottenuto attraverso la (6) o la (7) risulta distorto alle alte
frequenze. Il tipo di deformazione dell’immagine che si determina in questo caso si definisce
aliasing.
Per comprendere il significato dell’aliasing si pensi ad un dipinto murale finemente frammentato a
causa di un crollo, ciò che è possibile recuperare sono le parti composte dai frammenti più grandi
che possono essere messe insieme anche utilizzando una precedente foto del dipinto. Alla fine
dell’operazione avanzeranno dei minuti frammenti la cui posizione non può essere ricostruita né in
base al colore né da una corrispondenza con qualche frammento più grande, se si decide comunque
di inserire tali frammenti si creerà una certa sensazione di disordine detta aliasing.
Sfortunatamente ciò che abbiamo descritto sopra è un’operazione astratta che corrisponde solo in
parte a ciò che è fatto in un campionamento mediante uno scanner digitale. Inoltre la
rappresentazione dell’immagine con una funzione continua è a sua volta un’astrazione perché non
permette di tener conto in maniera adeguata del rumore che produce effetti non sempre controllabili
anche nel processo di campionamento spaziale. In conclusione si può dire che il processo astratto di
campionamento spaziale di un’immagine è concettualmente un ottimo punto di partenza, anche se
occorre conoscerne i limiti.
4.2 Quantizzazione
A seguito del campionamento l’immagine risulta composta da numeri, f(n,m), reali positivi per
essere memorizzata in un dispositivo digitale deve essere quantizzata.
Se gli f(n,m) hanno valori compresi tra fmin e fmax in tale intervallo potranno essere individuati un
numero finito di valori con cui rappresentare la funzione f(n,m). L’incertezza con cui è misurato il
valore della funzione f(x,y) durante l’acquisizione dell’immagine dovuta alla presenza di rumore,
in giustificano il fatto che non siano assegnanti infiniti valori possibili alla funzione campionata ma
solo un numero discreto.
Per la quantizzazione del segnale occorre definire i livelli di decisione d i , opportunamente spaziati
di+1-di, e quelli di ricostruzione ri  d i , d i 1  , tali che se f(n, m)  d i , d i 1  allora f i (n, m)  ri .
I livelli di ricostruzione sono, in genere, scelti in corrispondenza dei valore aspettati in modo da
minimizzare l’errore commesso, facendo così è possibile dimostrare che nel caso di distribuzione
uniforme dei valori l’errore di quantizzazione è di 2 = . In pratica il numero di livelli di
decisione dovrebbe almeno eguagliare il numero di livelli di segnale distinguibili in base al
contrasto della immagine da quantizzare. Tale operazione può essere realizzato con un convertitore
analogico digitale (ADC ) a n bit capace di discriminare 2 n livelli di segnale.
r
ri
di+1
di
f
Figura 18 – Definizione dei livelli di decisione e di ricostruzione nella
quantizzazione.
5. DISPOSITIVI PER LA DIGITALIZZAZIONE DI DOCUMENTI
Si può procedere al campionamento di un documento punto per punto, linea per linea o
campionando l’intera area (vedi figura 19). Procedendo dalla prima alla terza modalità la qualità del
risultato peggiora ma l’operazione diviene più rapida.
Modalità di digitalizzazione di un documento
Scansione di punto
Lenta ma con
buon contrasto
Scansione di linea
Situazione
intermadia
Rivelazione di area
Rapida ma con
basso contrasto
Figura 19 – Modalità di scansione di un documento piano
La soluzione che è un compromesso valido è l’impiego di una digitalizzazione linea per linea: ossia
l’impiego di uno scanner. I vantaggi di questa soluzione sono numerosi: a) migliore qualità della
scansione in confronto a scansioni di area (soprattutto per quanto riguarda la risoluzione e la
dinamica), b) maggiore flessibilità nella scelta dell’area da digitalizzare, c) costi minori
dell’apparecchiatura. Esistono
- scanner a tamburo (drum scanner);
- scanner a letto piano (flatbed scanner).
Entrambi i tipi di scanner leggono, in genere, la luce riflessa da un originale riflettente e la luce
trasmessa da un originale trasmittente. La sorgente luminosa proietta un sottile fascio luminoso
(negli scanner a tamburo) o una lampada fluorescente (negli scanner a letto piano) che "scansiona"
l'originale.
La luce è letta dal sistema ottico dello scanner, dove sono rivelate le componenti rossa, verde e blu
per determinare il colore, e trasformata in segnali elettrici che sono amplificati, convertiti in digitale
e trasmessi al computer.
5.1 Scanner a tamburo
Gli scanner a tamburo leggono l'immagine utilizzando come sensori i fotomoltiplicatori (PMT,
photomultiplier tube). Si tratta di una tecnologia molto costosa, che tuttavia permette di ottenere
risultati superiori nella lettura dei dettagli e sono quindi i più comunemente impiegati nelle
applicazioni in cui è richiesta un’elevata qualità. Tali scanner hanno in genere un elevato ingombro
anche se esistono scanner a tamburo in miniatura, da mettere sulla scrivania (baby drum).
Gli scanner a tamburo sono consigliati solo per esigenze di grande precisione e di alta risoluzione,
essi infatti richiedono personale ben qualificato e tempi più lunghi per la digitalizzazione.
5.2 Scanner desktop
Gli scanner desktop (fig. 20), detti anche "a letto piano" utilizzano come lettori ottici i CCD
(charge-coupled device, dispositivi ad accoppiamento di carica). Si tratta di una tecnologia più
economica rispetto ai PMT, ma inferiore nei risultati. Va tuttavia considerato che i PMT sono giunti
al termine della loro evoluzione, mentre le prestazioni dei CCD continuano a migliorare.
Figura 20 – Schema di funzionamento di uno scanner a letto piatto
Gli originali che è possibile leggere con gli scanner desktop possono essere riflettenti, cioè
fotografie o disegni su carta opaca; trasmittenti, cioè pellicole trasparenti, positive o negative.
Normalmente gli scanner desktop sono ottimizzati per originali riflettenti ma quasi tutti offrono un
supporto (a forma di coperchio) che consente la scansione di pellicole trasparenti (negative o
positive) anche se i risultati non sono sempre eccellenti. Per avere buoni risultati sui trasparenti
(almeno 4 x 5 pollici) ad alta risoluzione, necessaria per la scansione di originali piccoli da
ingrandire, e con un ampio intervallo dinamico che si avvicini il più possibile a quello delle
diapositive (circa 3.6).
Esistono anche scanner unicamente per trasparenti, positivi o negativi. I più economici sono
dedicati ai 35 millimetri, i più cari possono fare la scansione di pellicole di 4 x 5 pollici. Questi
scanner possono dare risultati simili agli scanner a tamburo.
6. CARATTERISTICHE DEI DISPOSITIVI DI DIGITALIZZAZIONE
Sono in commercio diversi tipi di dispositivi che consentono di effettuare quasi automaticamente
sia il campionamento spaziale di un documento che la rivelazione della luminosità e del colore
(quantizzazione). I più comuni dispositivi sono gli scanner che presentano diversi vantaggi rispetto
alle possibili alternative, soprattutto essi sono divenuti la scelta più economica e di migliore
rapporto qualità prezzo. Tutti gli scanner hanno le seguenti componenti: un sistema ottico, un
sensore di luce ed una interfaccia per il trasferimento dei dati al computer. Oltre naturalmente un ad
un software per gestire tutte le operazioni di archiviazione ed elaborazione digitale dell’immagine.
Quello che differenzia gli scanner tra loro è il tipo di componente usata ed il modo in cui sono
impiegati. La qualità della digitalizzazione è principalmente legata alla qualità delle componenti
ottiche, la efficienza e produttività del sistema è invece in gran parte dovuto all’intercaccia
software.
6.1 Risoluzione
Con il termine di risoluzione si intende comunemente il numero di campioni per unità di lunghezza
(spi sample per inch) con cui è digitalizzato il documento. L’unità di misura impiegata (dpi, dot per
inch) è la stessa per il campionamento, per la risoluzione dell’immagine (pixel per inch, ppi) e per
quella di stampa (dpi), ciò può creare confusioni, anche nel prosieguo di questo capitolo, in quanto
si tratta di cose sostanzialmente differenti. Speriamo che il lettore possa capire la differenza senza
ricorrere a precisazioni che renderebbero più involuto il testo. E’ comunque opportuno precisare che
una risoluzione più elevata è quasi sempre necessaria sia nel campionamento che per la stampa e
invece inutile, se non dannosa, per le immagini da video in cui si possono ottenere buoni risultati
con risoluzioni decisamente più piccole. Infatti nel presentare sul video una immagine ottenuta
digitalizzando un documento è necessario frequentemente ricorrere alla riduzione della risoluzione
(resampling) in modo da non avere immagini che occupano tutto lo schermo.
Nelle specifiche tecniche degli scanner sono spesso dichiarate tre risoluzioni massime: ottica,
meccanica e interpolata, La risoluzione ottica è legata al numero di sensori per unita di lunghezza
allineati sul lato più corto del piano di scansione (ad esempio 1200 dpi). Quella meccanica (in
genere più elevata) è il numero di passi che può effettuare il sistema ottico azionato dal motore (ad
esempio 2400 dpi). Ad esempio leggendo che la risoluzione di uno scanner è 1200x 2400 dpi si
deve intendere che primo numero è la risoluzione ottica il secondo quella meccanica. Quando si
parla di caratteristiche di uno scanner è più conveniente riferirsi alla risoluzione reale, cioè quella
ottica. Anche le dimensioni fisiche del pixel hanno una importanza nella digitalizzazione, questo
dato è in genere più difficilmente analizzabile; quello che accade è che nel caso delle CCD se si
riesce a realizzare un pixel più piccolo si aumenta anche in numero di sensori per unità di
lunghezza. La risoluzione interpolata fa riferimento alla possibilità del programma di elaborazione
dell’immagine raster di aggiungere punti virtuali effettuando appunto un’interpolazione. Quando si
effettua una digitalizzazione è opportuno verificare che non si stia impiegando un’opzione per cui è
interpolata l’immagine, questa operazione, ove necessaria, potrà sempre essere effettuata
successivamente.
La risoluzione può essere prescelta in base alle caratteristiche del documento da digitalizzare: testo,
testo scritto, documento, disegno, mappa, foto, negativo, diapositiva. In genere il materiale
fotografico, soprattutto quello trasparente (cioè negativi e diapositive) richiede l’impiego di elevate
risoluzioni. I testi dattiloscritti o a stampa possono essere digitalizzati con risoluzioni molto basse
(200-300 dpi) con buoni risultati. Una considerazione importate è che impiegando risoluzioni
troppo elevate sono generati file di dimensione eccessive (ad esempio un foglio A4 digitalizzato a
200 dpi produce un’immagine di 1653 x 2339 punti, se la risoluzione sale a 1200 dpi i punti
nell’immagine sono 9921 x 2863). Le risoluzioni più elevate vanno quindi impiegate solo per
documenti di dimensione piccola (ad esempio materiale fotografico, miniature o disegni) pena un
inutile notevole incremento del tempo per effettuare la digitalizzazione, archiviazione ed impiego
del file prodotto.
La risoluzione ottica di uno scanner a tamburo arriva fino a 9600 ppi, quella di uno scanner a letto
piano può arrivare a 3800 ppi. Nei progetti di digitalizzazione più importati si impiegano scanner a
tamburo in modo da produrre file master (primari) di elevata qualità.
6.2 Colore
La gestione del colore negli scanner si fa utilizzando i sistemi di coordinate cromatiche in uso. In
genere si preferisce l’RGB, anche se nel settore della stampa il sistema preferito è il CMYK,
ovviamente è possibile passare dall’uno all’altro con facilità. Il numero di colori che è possibile
rivelare con uno scanner è molto maggiore di quelli che è conveniente registrare sull’immagine in
quanto distinguibili. Questi ultimi sono in numero molto limitato (nel grande atlante di colori di
Munsell sono meno di 1500). Gli attuali scanner spesso acquisiscono il colore con una dinamica di
36-42 bit (cioè 12 -14 bit per canale che corrispondono ad un numero impressionante di colori)
questo è utile ai fini di un migliore rivelazione di colore e luminosità in tutte le condizioni di lavoro
dello scanner. Nell’immagine finale non si usano in genere più di 24 bit (16 milioni di colori), vi
sono però produttori di dispositivi che propongono di registrare l’immagine con l’intero intervallo
di colore; in tal caso sono richiesti dei programmi di gestione del colore che permettano di usare 16
bit per canale invece degli normali 8 bit.
I diversi formati di registrazione delle immagini usano gestioni del colore molto diverse, anche per
ottimizzare la compressione in modo da contenere le dimensioni del file. Alcuni di tali formati ad
esempio il GIF riducono il numero dei colori a 256 in modo da poter produrre immagini facilmente
inseribili in testi e presentazioni multimediali e trasferibili in rete. Le immagini ottenute con la
digitalizzazione non devono utilizzare tali formati di immagine, essi possono nel caso essere
impiegati per le immagini derivate da esse.
6.3 Intervallo dinamico
L’intervallo dinamico del dispositivo di digitalizzazione è un fattore di notevole importanza per
valutarne la qualità, quasi quanto la risoluzione di cui abbiamo parlato in precedenza. Tale
intervallo corrisponde ai valori di densità ottica (OD) tra zero a quattro. Osservare in condizioni
normali di illuminazione di un documento OD, che corrispondono ai valori estremi di tale intervallo
è molto difficile. Anche i dispositivi di registrazione o di visualizzazione di un immagine non
permettono solitamente di utilizzare l’intero intervallo di valori, anche se è facile assegnare tre zeri
alle coordinate cromatiche RGB e supporre che si sia in presenza di un bianco assoluto.
Un dispositivo di digitalizzazione ha ovviamente dei limiti, minimo e massimo, di OD che è in
grado di rilevare, la differenza tra i due fornisce quello che è chiamato intervallo dinamico del
dispositivo. Gli scanner hanno intervalli dinamici che vanno dai 2.5-3.0 degli scanner più semplici
fino ai 3.6-3.8 dei “Drum Scanner” di più elevata qualità (vedi Tabella I).
Tabella I - Intervalli dinamici tipici delle diverse classi di scanner
Scanner
Tipico intervallo dinamico
Scanner manuali
< 2.3
Scanner da tavolo per ufficio
< 2.5
Scanner piani (flatbed) a 24 bit (vecchi
2.2-2.6
modelli e livello basso di qualità)
Scanner piani a 30 bit (livello intermedio)
2.8-3.2
Scanner piani a 34-36 bit (livello alto)
3.3-3.6
Scanner a tamburo (drum)
3.3-3.7
Scanner a tamburo ad elevate prestazioni
3.4-3.8
L’intervallo dinamico è in massima parte determinato dalla qualità del sensore impiegato soprattutto
per quello che riguarda il rapporto segnale rumore (S/N) ai diversi livelli di illuminamento. Tra i
dati tecnici di uno scanner sono riportati talvolta il numero di bit del convertitore A/D, tale
indicazione può essere messa in relazione all’intervallo dinamico in quanto vi dovrebbe essere una
corrispondenza tra dinamica dell’A/D ed ampiezza dell’intervallo dinamico del sensore. Gli scanner
di più elevate prestazioni spesso utilizzano convertitori con 32-34 bit necessari per i più estesi
intervalli dinamici. Occorre però accertarsi che l’A/D non sia sovradimensionato in quanto il
rapporto S/N del sensore è tale da non permettere di utilizzare i livelli disponibili.
Ciò che è registrato con l’immagine è un numero intero che corrisponde ad una scala interna del
convertitore, ad esempio un convertitore a 12 bit utilizza 4096 livelli per coprire l’intera dinamica.
Non vi è una corrispondenza di questo numero ad un valore di OD, se non si effettua una
calibrazione. In pratica lo scanner applica una procedura di autocalibrazione che gli consente di
utilizzare al meglio le caratteristiche del sensore ottico, in questo procedimento sono individuate le
aree dell’immagine con densità ottica massima e minima, e si procede ad un aggiustamento del
sistema di illuminazione in modo da ottenere il massimo contrasto nell’immagine digitale. Questo
procedimento in qualche modo scombina le calibrazioni rendendo impossibile assegnare una
precisa corrispondenza tra valore registrato e proprietà di luminosità e colore dell’elemento di area
campionato (pixel). In pratica il valore zero non corrisponde ad una OD nulla ma più
semplicemente al valore minimo osservabile dal dispositivo di digitalizzazione, per esempio 0,2.
Cosi il valore massimo (ad esempio 4096 per un convertitore a 12 bit) non corrisponda ad una OD
di 4,0 ma al tono più scuro di grigio rivelato dallo scanner nell’immagine.
Nella scelta dello scanner è opportuno anche tenere presente che le immagini prodotte con diverse
tecniche di stampa su supporti opportuni hanno delle dinamiche spesso molto diverse. In tabella II
sono riportati gli intervalli dinamici tipici per alcune immagini.
Tabella II – Intervalli dinamici tipici dei diversi supporti di immagine
Immagine da digitalizzare
Intervallo dinamico
Immagine in un giornale
0.9
Immagini su carta patinata
1.5 – 1.9
Fotografie normali (C-type)
1.6 – 2.0
Fotografie ad alto contrasto (R-type, cibachrome)
2.0 – 2.3
Negativi
2.4 – 2.8
Trasparenze a colori e diapositive
2.8 – 3.2
Trasparenze e diapositive d’alta qualità
3.4 – 3.8
6.4 Velocità dello scanner
La velocità è un fattore non marginale nella scelta e nell’impiego di uno scanner, ora vi sono
dispositivi che permettono digitalizzazioni di buona qualità, ma richiedono tempi lunghi sia per
l’effettuazione del campionamento che per la calibrazione. Questi non possono essere impiegati
quando occorre fare un gran numero d’operazioni, pena una perdita di tempo eccessiva per
l’operatore che può commettere errori dovuti all’affaticamento. In pratica, come già accade per
esempio nel caso delle fotocopiatrici, è necessario avere macchine che permettono volumi di lavoro
elevati (che quindi siano più veloci e più costose) nel caso che si debba procedere a numerose
digitalizzazioni. Occorre quindi tenere ben presente anche questo parametro nella progettazione di
un lavoro di digitalizzazione.
6.5 Superfici di scansione
Vi sono ora scanner che sono dedicati alla digitalizzazione di materiale fotografico trasparente che
presentano superfici ridotte ed elevate risoluzioni che sono necessari per fare la digitalizzazione di
negativi e di diapositive. Essi non sono consigliabili per digitalizzare pagine di testo o altri
documenti su carta. Vi sono anche scanner adatti per fogli di formato standard (A3, A4) che sono i
più comuni per uso personale e che consentono anche la digitalizzazione di materiale trasparente
con più elevate risoluzioni, utilizzando appositi dispositivi (Transparent Media Adapter TMA). Tali
scanner possono essere utilizzati per moltissimi documenti, nel caso in cui occorre però
digitalizzare documenti di dimensioni più grandi (ad esempio mappe) è necessario programmare
anche l’impiego di scanner adatti a questo scopo. Vi sono infine scanner che consentono anche la
digitalizzazione di documenti di dimensioni molto grandi, che sono però più ingombranti e di più
elevato costo, necessari quindi solo nel caso che si lavori sistematicamente su tali documenti. In
pratica in un progetto di digitalizzazione più complesso va previsto l’impiego di più scanner in
modo da poter programmare il lavoro in maniera più efficiente, il basso costo attuale degli scanner
permette di fare ciò.
6.6 Programmi di elaborazione ed archiviazione delle immagini
Tutti gli scanner sono collegati al computer tramite opportuni programmi (drive) che permettono il
trasferimento dei dati e la gestione dello scanner stesso (TWAIN e ISIS). Spesso questi consentono
anche una prima elaborazione dell’immagine per ottenere migliori risultati e la selezione dell’area
da digitalizzare. Occorre prestare attenzione a non fare elaborazioni in questa fase che poi
compromettono il risultato finale o creare differenze tra immagini di pagine successive di un
documento che rendono più complesse le fasi di produzione del documento digitale finale. Infatti
l’immagine ottenuta può essere elaborata in seguito utilizzando uno dei tanti programmi disponibili
(come ad esempio Photoshop, Corel Photo-Paint, Ulead PhotoImpact).
Vi è attualmente un buon numero di programmi che facilitano sia il trattamento sia l’archiviazione
delle immagini ottenute nel processo di digitalizzazione. Essi consentono l’eliminazione di alcuni
difetti, il miglioramento del contrasto ed anche la selezione di aree di interesse. Questi programmi
non sono sempre di facile uso e comprensione e favoriscono operazioni errate da parte di utenti
poco esperti. Alcuni programmi consentono anche di memorizzare procedure che permettono di
risparmiare tempo e ridurre la possibilità di errori. Digitalizzando più pagine di uno stesso
documento (o documenti simili) è opportuno fare le stesse operazioni di aggiustamento in modo da
ottenere sempre risultati ottimali.
Nell’archiviazione è necessario utilizzare formati immagine appropriati, ad esempio per i documenti
primari (master) occorre utilizzare formati TIFF o PNG mentre per quelli secondari anche altri
formati possono andare bene (JPEG e GIF). Il file master va archiviato con un formato che permette
l’impiego della dinamica con cui è stato digitalizzato il documento (vedi paragrafo 6.3) e non va
modificata la risoluzione, se non in casi molto particolari.
6.7 Elaborazione delle immagini
Un’immagine può essere vista come un veicolo d’informazione, portata dai segni in essa contenuti,
o- in maniera più semplicistica - può essere vista come un oggetto caratterizzato da alcune proprietà
fisiche e chimiche che ne permettono la lettura da parte dell’uomo. L’analisi dell’immagine
consente l’estrazione dell’informazione in essa contenuta permettendo così di trasferire al computer,
con un maggiore grado di sicurezza, tutto ciò che è contenuto nell’immagine stessa. Questa
operazione non può essere facilmente effettuata ed ha un notevole grado di incertezza, in quanto la
definizione stessa di informazione contenuta in un’immagine dipende notevolmente dalle
metodologie impiegate nell’estrarla.
Nel processo di produzione di una copia digitale si parte dall’assunzione che ciò che va trasferito è
l’oggetto immagine con la sua consistenza materiale, che ha quindi traccia delle tecniche con cui è
stato prodotto; che sono solo in piccola parte connesse all’informazione veicolata. Così facendo si
corre quindi il rischio di trasferire tante informazioni inutili o pleonastiche e di non aver la
possibilità di verificare se sia effettivamente possibile trasferire tutta l’informazione contenuta
nell’immagine primitiva.
Le immagini prodotte nel processo di digitalizzazioni sono raster (o bitmapped) che richiedono
dimensioni dei file molto grandi perciò vi è un’esigenza quasi ineludibile di impiegare tecniche di
compressione. Vi sono tecniche di compressione (dette prive di errori) che compiono tale
operazione in maniera del tutto reversibile, queste sono le più comunemente usate dai formati di
immagine consigliati per l’archiviazione di immagini primarie. Tramite tecniche di analisi è
possibile scomporre un’immagine in una serie di oggetti elementari (primitive), come si fa per la
produzione di immagini di grafica. Questa operazione è detta vettorializzazione e permette di
ridurre drasticamente le dimensioni dei file. Utilizzando questa tecnica è possibile eseguire
operazioni come ad esempio la segmentazione, cioè l’estrazioni di oggetti dall’immagine o
l’interrogazione dell’immagine da parte di programmi di archiviazione automatica, che sarebbe
impossibile eseguire su immagini raster. Ovviamente la vettorializzazione è un’operazione che è
possibile compiere su documenti secondari da utilizzare in particolari contesti.
7. ESEMPI PRATICI DELL’EFFETTO DEL CAMPIONAMENTO SPAZIALE
Allo scopo di far comprendere meglio gli effetti del campionamento vediamo cosa accade in una
digitalizzazione di un’immagine quando si cambia il passo di campionamento. In figura 21 si vede
la riproduzione digitale di una lettera ottenuta con un passo di campionamento da 338,7 micron
(corrispondenti ad una spi di 75 dpi). A fianco vediamo il risultato su due particolari con un passo
di campionamento rispettivamente di 75, 100, 150, 200 e 300 dpi. A 300 dpi il passo di
campionamento è di 78,4 micron.
E’ evidente come per tutte le spi è leggibile lo scritto risulta, ma a più grandi spi le sfumature
dell’inchiostro e le imperfezioni del foglio si notano sempre meglio. Anche che le dimensioni
dell’oggetto crescono quasi linearmente con la frequenza di campionamento (dpi) perciò
un’immagine campionata a frequenza maggiore è, in proporzione, più grande. Questo rappresenta
un grave problema nella gestione e memorizzazione dell’immagine stessa.
Per fare un altro esempio più evidente in figura 22 è mostrata la riproduzione digitale di un foglio di
test di un dispositivo ottico, utile a valutarne le capacità di risoluzione spaziale. Per far ciò sono
riportati gruppi di barre verticali e orizzontali con frequenze di linee crescenti. Come si vede i
gruppi a più basso numero di coppie di linee
8. CONCLUSIONI
La programmazione delle attività di digitalizzazione di documenti richiede un buon livello di
conoscenza tecnica dei vari problemi da affrontare, una capacità di progettazione e di
organizzazione, che sappia gestire gli aspetti di interazione con la struttura che possiede (ed
eventualmente tutela) i documenti ed infine una buona conoscenza delle linee guida sviluppate per
tali attività a livello nazionale, comunitario ed internazionale.
Esistono ovviamente anche normative che riguardano i singoli aspetti del processo come quelle sui
dispositivi per la digitalizzazione, il formato dei file immagine, ecc. Un aspetto non trascurabile è
quello dei controlli di qualità e della verifica del corretto funzionamento dei vari dispositivi e delle
procedure. Tali verifiche devono essere necessariamente compiute di continuo in quanto un
programma di digitalizzazione può richiedere molto tempo e il sistema di digitalizzazione deve
avere prestazione, per quanto possibile, costanti nel tempo.
RIFERIMENTI BIBLIOGRAFICI
Besser H. e Trant J., Introduction to Imaging. Getty Art History Information Project.
http://www.gii.getty.edu/intro_imaging/
Dainty J. C. e Shaw R., Image Science, Principles, Analysis, and Evaluation of Photographic-Type
Imaging Processes, Academic Press, London 1974).
Drake K.M., Eriksson H. e Borje J. R., Guida alle buone pratiche, MINERVA Rete interministeriale
per la valorizzazione degli interventi di digitalizzazione,IST-2001-35461, 2003
Frey F. S. e Reilly J.M., Digital Imaging for Photographic Collections- Foundations for Technical
Standards,Image Permanence Institute and Rochester Institute of Technology, Rochester (NY),
1999
Klijn E. de Lusenet Y. SEPIADES Cataloguing photographic collections European Commission on
Negroponte, N., Essere Digitali, Sperling & Kupfer, Milano, 1997
Preservation and Access Amsterdam, 2004 ISBN 90-6984-417-6 Published 2004 by the European
Commission on Preservation and Access, Amsterdam.
ISO 16067/WD, ISO/TC42, Electronic scanners for photographic images - Spatial resolution
measurements: Part 1, Scanners for reflective media, September 1999
NARA Guidelines for Digitizing Archival Materials for Electronic Access, September 1998
<www.nara.gov/nara/vision/eap/ eapspec.html>
TASI Technical Advisory Service for Images, www.tasi.ac.uk
Figura 21 – A sinistra riproduzione digitale di una lettera, a destra segmenti della stessa
immagine campionati a diverse frequenze spaziali.
Figura 22 – Riproduzione digitale di una fotocopia di un foglio di test per il controllo di
qualità; a destra risultati del campionamento del particolare evidenziato nel
riquadro a frequenze spaziali di 75, 100, 150, 200, 300, 400 dpi.