Lavori-V-2011-2012_files/TRASDUTTORI ottico

Transcript

Lavori-V-2011-2012_files/TRASDUTTORI ottico
I.P.S.I.A. Di
BOCCHIGLIERO
a.s. 2011/2012
-classe V-
Materia: Elettronica, Telecomunicazioni ed applicazioni
---- TRASDUTTORI OTTICO-ELETTRICO ----
alunna:
Valente Vittoria
prof. Ing. Zumpano Luigi
IPSIA Bocchigliero
-Elettronica, Telecomunicazioni ed Applicazionitrasduttori ottico-elettrico
_________________________________________________________________________________________________________________________________________
TRASDUTTORI OTTICO-ELETTRICO
Se Niepce e Daguerre sono cosiderati i padri della fotografia tradizionale, anche l’immagine digitale
è nata soprattutto grazie a due menti geniali, quelle di Willard Boyle e George Smith, dei laboratori
Bell. Nel corso della ricerca di una nuova memoria per computer, nell’ottobre del 1969 i due
inventori posero le basi di un nuovo tipo di sensore elettronico, denominato a scorrimento di carica
(in inglese charge-coupled device o CCD). L’anno seguente vide la luce la prima videocamera con
sensore a stato solido e quattro anni dopo venne prodotto un modello capace di effettuare riprese
televisive di livello professionale; era nata l’era del CCD.
A differenza del metodo fotografico tradizionale, che prevede la cattura di luce e colori da parte di
un’emulsione chimica stesa su una pellicola, le fotocamere digitali (ma anche le videocamere)
utilizzano un particolare dispositivo elettronico denominato sensore d’immagine, che nella
stragrande maggioranza dei casi è proprio il sensore CCD. .
Questi sensori di forma quadrata o rettangolare e di dimensioni che raramente superano 1 o 2
centimetri di lato, sono formati da centinaia di migliaia o addirittura milioni di microscopici
componenti sensibili alla luce. Durante l’effettuazione di una ripresa, la luce che colpisce ogni
micro-componente del sensore viene trasformata in energia; ad una maggiore intensità luminosa
corrisponde una più alta carica emessa dal componente. In seguito, l’insieme dell’energia emessa da
ogni singolo componente del sensore viene trasferita in un circuito che si occupa di misurare le
singole letture, convertirle in una serie di numeri e in seguito memorizzarli. Questi numeri verranno
poi usati dal computer per trasformarli in un’immagine da mostrare sullo schermo del monitor o da
inviare ad una stampante per la stampa della foto digitale su carta.
Questo principio si applica non solo alle fotocamere digitali e alle videocamere attualmente in
commercio, ma anche alle moderne fotocopiatrici, agli scanner (che permettono di convertire in
forma digitale immagini su pellicola o su carta), ai fax, ai lettori di codici a barre dei supermarket,
ai sistemi per videoconferenza e agli endoscopi elettronici usati in campo medico. Come si vede, gli
impieghi della tecnologia di ripresa digitale sono molteplici, anche se ovviamente non tutti sono
concepiti per la creazione di immagini fotografiche. Il primo telescopio ad utilizzare un sensore
elettronico CCD risale al 1983, sebbene in precedenza molti altri osservatori astronomici e sonde
inviate nello spazio avevano utilizzato sistemi più primitivi, ma sempre basati sull’elettronica in
luogo della chimica e delle tradizionali pellicole fotografiche. Attualmente, le riprese astronomiche
professionali vengono effettuate quasi esclusivamente con speciali sensori CCD e i risultati sono
straordinari non solo dal punto di vista scientifico, ma anche da quello estetico, come dimostrano le
_________________________________________________________________________________________________________________________________________
Alunna: Valente Vittoria
classe V
anno scolastico 2011/2012
pag. 2 di 12
IPSIA Bocchigliero
-Elettronica, Telecomunicazioni ed Applicazionitrasduttori ottico-elettrico
_________________________________________________________________________________________________________________________________________
eccezionali immagini riprese dal telescopio spaziale Hubble.
I pixel sono gli elementi fondamentali. Una ripresa digitale viene resa possibile da un sensore
elettronico composto da un elevatissimo numero di minuscoli e particolari elementi sensibili alla
luce. Ogni immagine digitale è composta a sua volta da un pari numero di piccolissimi quadratini (o
più raramente rettangolini) che formano la fotografia vera e propria. I quadratini in questione sono
denominati elementi dell’immagine o, nei termini tecnici normalmente in uso, pixel.
I sensori raggiungono facilmente risoluzioni enormi, ad esempio 5 milioni di pixel (il massimo è 14
milioni).
In fotografia, il numero di pixel si misura in Megapixel/Mp (milioni di pixel). Il numero totale di
pixel è calcolabile anche come prodotto della massima risoluzione verticale per la massima
risoluzione orizzontale. Ad esempio, se la macchina riprende 1280x1024 = 1,3 Mp.
È importante notare che la “definizione” aggiuntiva catturata da un CCD con più Mp potrebbe
deludere chi si aspetta un nettissimo cambiamento. Infatti, passando da 2 MP a 5 Mp si potrebbe
pensare che un oggetto fotografato raddoppi (e oltre) la sua dimensione e sia quindi stampabile a
grandezza più che doppia. Si potrebbe pensare che un’immagine a 2 Mp sia stampabile
agevolmente a 9x12 e quella a 5 Mp a 18x24. Invece, la risoluzione del CCD è aumentata solo della
radice quadrata di 5/2 e cioè di 1,6 volte, valore inferiore a quello che ci saremmo aspettati (2.5).
Dunque, se per definizione intendiamo l’aumento di dettagli in entrambe le direzioni, i Mp sono
effettivamente un parametro utile che misura l’aumento di nitidezza nell’immagine. Ma se ci
interessa notare un particolare o stampare la foto, più che i Megapixel ci interessa la risoluzione
orizzontale (o verticale) e passando da un ccd all’altro, quello che conta è la radice quadrata del
rapporto tra le dimensioni dei sensori in Mp.
Come si può vedere dalla tabella, i rapporti reali (tra risoluzioni orizzontali) sono molto deludenti
rispetto all’aumento di Megapixel e sono tanto più deludenti (in percentuale) quanto più l’aumento
è forte. In altre parole, passando da 2 MP a 5 Mp, l’aumento non è del doppio, ma è pari alla radice
quadrata del rapporto (5/2.5), cioè 1,4 volte e così passando da 1 MP a 14 Mp, non sarà di 14 volte,
ma di appena 3,7 !
Un'altra caratteristica molto importante per i sensori CCD è la grandezza.
La grandezza dei singoli pixel (più che del ccd) influisce moltissimo sulla capacità di catturare luce.
Sensori grandi (e quindi pixel più grandi) di norma hanno una resa dinamica maggiore dei sensori
_________________________________________________________________________________________________________________________________________
Alunna: Valente Vittoria
classe V
anno scolastico 2011/2012
pag. 3 di 12
IPSIA Bocchigliero
-Elettronica, Telecomunicazioni ed Applicazionitrasduttori ottico-elettrico
_________________________________________________________________________________________________________________________________________
piccoli. I valori più diffusi in ordine crescente di grandezza sono 1/2.7", 1/1.8", 2/3", 23x15 mm
circa, 35x23 mm (FF). La grandezza effettiva del ccd si calcola 1/1.8”=0.55”,quindi,1/1.8 è più
piccolo di 1/1.3
Grandezze di ccd da 23x15mm circa a 35x23mm o superiori sono le più usate dai professionisti. Il
funzionamento fisico di un CCD è qualcosa di complesso e molto interessante. Grazie
all’elettronica è stato possibile costruire strutture microscopiche in grado di rilevare l’intensità di
luce che le colpisce attraverso variazioni della corrente elettrica prodotta (o lasciata passare). Il
passo successivo è quello di convertire l’intensità di corrente elettrica in un segnale digitale
attraverso un convertitore A/D (Analogico-Digitale) a grande risoluzione di colore (12 bit, 16 bit). Il
CCD , la cellula fotosensibile che converte la luce in segnali elettrici è costruito in matrici (chip) di
celle unitarie (pixel) che possono “passarsi” la carica elettrica dall’una all’altra. Facendo scorrere
prima in senso verticale e poi in senso orizzontale le cariche tra le celle, è possibile rendere seriale
l’informazione, così come avviene in tutte le rappresentazioni delle immagini. Nei sensori CCD a
cmos, ogni singolo elemento fotosensibile (pixel) è costituito da un elemento che accumula la
corrente emessa dal fotodiodo (la superficie attiva del pixel). Ogni unità è connessa singolarmente
attraverso un amplificatore allo stadio di uscita. Da questa spiegazione sembrerebbe di poter
desumere che i sistemi CCD cmos, essendo più complessi e sofisticati, siano più costosi e
qualitativamente migliori dei semplici sistemi CCD. Nella realtà è vero il contrario: i sensori cmos
utilizzano tecnologie produttive simili alla maggior parte dei circuiti integrati e provengono dalle
stesse linee produttive, quindi, il maggior costo di progetto e la maggiore complessità realizzativa
sono abbondantemente bilanciati dell’ammortamento dei macchinari impiegati. Per produrre i
sensori CCD invece, vengono utilizzati macchinari appositi, limitati solamente a questo tipo di
produzione. Gli svantaggi dei cmos sono causati dalla maggiore quantità di componenti presenti
sulla loro superficie che provocano un aumento dei disturbi nell’immagine: il sensore è quindi meno
sensibile e offre meno definizione a parità di dimensioni. Allo stato attuale i chip CCD “puri” che
troviamo nelle macchine fotografiche digitali non professionali sono migliori, non è detto che
l’evoluzione della tecnologia non porterà tra qualche anno a rivedere i parametri del confronto. La
cosa che è importante notare però, è che ogni pixel cattura un solo colore, i pixel sono
monocromatici. In pratica, i CCD attuali vengono “verniciati” pixel per pixel con una vernice
trasparente che permette a ogni pixel di catturare la luce solo nella componente di colore di cui è
verniciato. Per capire meglio questa tecnica, basta pensare all’effetto che si ha guardando attraverso
un filtro colorato, vediamo solo quel colore nelle sue diverse intensità.
Lo schema più usato consiste nel dipingere i pixel adiacenti secondo lo schema RGB, Red (rosso),
Green (verde), Blue (blu). (il verde è il colore a cui l’occhio umano percepisce la maggior parte di
dettagli). I colori appena citati sono i colori primari, da questi è possibile ottenere qualsiasi altro
colore.
_________________________________________________________________________________________________________________________________________
Alunna: Valente Vittoria
classe V
anno scolastico 2011/2012
pag. 4 di 12
IPSIA Bocchigliero
-Elettronica, Telecomunicazioni ed Applicazionitrasduttori ottico-elettrico
_________________________________________________________________________________________________________________________________________
In pratica, l’effetto che si ottiene attraverso questa tecnica è quello di avere tre fotografie dello
stesso oggetto, ognuna leggermente spostata rispetto all’altra di una certa misura angolare (che
corrisponde a pochi millimetri o meno a distanze di pochi metri).
Il calcolo si effettua così: larghezza area fotografata alla distanza x (ad esempio 5 metri di larghezza
a 5 metri di distanza)/risoluzione orizzontale.
Per un sensore a 3 Mp abbiamo: 5000 mm / 1550 = 3.2 mm.
Queste immagini vengono fuse insieme attraverso un procedimento molto complesso che richiede,
per dare un’idea, circa 100 operazioni per singolo pixel. Nonostante ciò, il procedimento produce
artefatti abbastanza vistosi, una risoluzione “reale” inferiore a quella dichiarata e raggiunta solo
grazie all’interpolazione, un certo livello di sfocatura necessario per evitare artefatti di colore che si
verificano comunque su superfici a mosaico.
Dunque, gli attuali sensori CCD utilizzati dagli scanner e dalle fotocamere digitali non hanno
alcuna conoscenza cromatica della realtà. Reagiscono ai fotoni liberando elettroni senza essere, di
fatto, sensibili alle frequenze in gioco, ovvero al colore della luce percepita, un pò come gli occhi
dei gatti, le cui retine sono povere di coni, che presiediono alla percezione dei colori e dei contrasti,
e ricche di bastoncelli, che invece sono molto sensibili alle variazioni di luminosità, anche piccole.
Anche negli occhi umani i coni sono molti meno dei bastoncelli (in un rapporto di 1 a 50), ma
nell'occhio del gatto questo rapporto è molto più basso. Nei sensori, in pratica, i coni non ci sono
affatto (o meglio nei sensori CCD o CMOS; il Foveon prende il nome proprio dalla fovea, una zona
della retina priva di bastoncelli). Dunque, un sensore CCD, almeno allo stato attuale, è un
dispositivo rigidamente monocromatico ("vede" a livelli di grigio) e genera una tensione elettrica
variabile in funzione della quantità di luce che lo raggiunge. A latere, un convertitore A/D fà il
resto: la tensione in uscita dal sensore CCD, trasmessa singolarmente per ogni pixel di cui è formato
il dispositivo di acquisizione (da poche centinaia di migliaia di elementi ai molti milioni dei dorsi
digitali "one shot" o "three shot" più sofisticati), viene convertita in formato numerico ed utilizzata
così com'è dalla rimanente circuiteria o dal computer collegato al dispositivo. Maggiore è la
risoluzione del convertitore, maggiore sarà il numero di sfumature effettivamente riconosciute
durante l'acquisizione. Per fortuna, il colore può essere inteso come un'estensione del bianco e nero:
è sufficiente ricorrere alla sintesi additiva (nell'acquisizione e nella visualizzazione) o sottrattiva
(nella stampa a colori) per riconoscere o aggiungere cromaticità delle nostre immagini. Si può
affermare pertanto che attraverso una terna di filtri RGB e un sensore CCD monocromatico, siamo
in grado di riconoscere le singole componenti cromatiche primarie dell'immagine acquisita e tornare
a ragionare anche in termini qualitativi. Come si riesce a risalire alle informazioni di colori, che
come sappiamo nelle immagini digitali fanno riferimento ai tre valori R,G,B? Il sensore va
ingannato o meglio, vanno ingannati i singoli fotodiodi. Davanti a tutti i sensori CCD e CMOS (e
anche Super CCD), c'è il cosidetto filtro di Bayer, che non è altro che una matrice di filtri colorati
che ha un ben determinato pattern spazialmente periodico; questa matrice ha lo stesso numero di
elementi del sensore, ciascuno dei quali è perfettamente allineato ad un fotodiodo del sensore. Un
pattern di Bayer potrebbe essere fatto così:
_________________________________________________________________________________________________________________________________________
Alunna: Valente Vittoria
classe V
anno scolastico 2011/2012
pag. 5 di 12
IPSIA Bocchigliero
-Elettronica, Telecomunicazioni ed Applicazionitrasduttori ottico-elettrico
_________________________________________________________________________________________________________________________________________
In pratica, ogni diodo legge la luminosità che passa attraverso un filtro colorato, del colore
assegnato dalla posizione del pattern di Bayer; poiché i tre colori primari hanno lunghezze d'onda
ben distinte, sono facilmente filtrabili (il rosso filtra molto bene blu e verde, ecc...), in pratica ogni
fotodiodo legge il valore di luminosità di un solo colore. Il primo elemento ha solo informazioni sul
rosso, il secondo solo sul verde, il terzo solo sul blu, il quarto solo sul verde, ecc... Il numero di
elementi associati al verde è molto più alto (il doppio, praticamente) di quelli associati al blu o al
rosso in quanto l'occhio umano è particolarmente sensibile alla lunghezza d'onda del verde, di
conseguenza il canale migliore di un'immagine proveniente da un sensore è il verde, avendo meno
punti in cui tale colore deve essere interpolato.
La ricostruzione dei colori mancanti da associare in ciascun elemento sensibile (o meglio, dei livelli
di riferimento per i tre componenti R,G,B) viene fatta per interpolazione coi valori dello stesso
colore adiacenti, letti da altri elementi sensibili; esistono molti algoritmi di interpolazione dei colori,
operazione prende il nome di demosaicizzazione. Alla fine dei calcoli, ciascun elemento della
matrice corrispondente al sensore potrà essere caratterizzato dai tre valori R,G,B solo uno dei quali,
però, sarà stato letto dall'elemento sensibile di quella posizione, gli altri saranno ottenuti mediante
interpolazione. Posto, dunque, che un sensore CCD è in grado di percepire solo livelli di luminosità,
nella sua accezione più semplice l'acquisizione a colori si riduce ad effettuare tre singole esposizioni
anteponendo all'obiettivo di ripresa un filtro rosso, un filtro verde e uno blu. Otteniamo in questo
modo tre immagini monocromatiche che, opportunamente ricombinate tra loro, ripropongono
l'immagine a colori corrispondente, o quasi, alla realtà.
_________________________________________________________________________________________________________________________________________
Alunna: Valente Vittoria
classe V
anno scolastico 2011/2012
pag. 6 di 12
IPSIA Bocchigliero
-Elettronica, Telecomunicazioni ed Applicazionitrasduttori ottico-elettrico
_________________________________________________________________________________________________________________________________________
L'immagine "letta" da un sensore CCD realizzato con questa tecnologia è ovviamente a colori. Per
ogni punto conosciamo sempre una delle tre caratteristiche cromatiche primarie (il rosso, il verde,
oppure il blu) e le altre due possono essere facilmente interpolate ricorrendo ai pixel situati
nell'intorno di quell'area, che sicuramente saranno filtrati anche secondo le componenti cromatiche
mancanti. Sempre in figura sono presi due generici pixel del sensore (A e B) ed è schematizzato una
basilare tecnica di interpolazione che tiene conto solo ed esclusivamente dei punti adiacenti. Non è
assolutamente casuale il fatto che siano presenti più elementi filtrati in verde rispetto a quelli filtrati
in rosso e in blu (i primi sono esattamente il doppio dei secondi e dei terzi) in quanto la regione del
verde è quella di maggiore sensibilità per il nostro apparato visivo ed è proprio in quella "zona"
dello spettro visibile che riusciamo a riconoscere un numero maggiore di dettagli e di sfumature.
Quel che preoccupa maggiormente, di questi tempi, è il "coraggio" della stragrande maggioranza
dei costruttori di fotocamere digitali (amatoriali e professionali) i quali utilizzano il numero di pixel
del sensore CCD monocromatico per indicare la risoluzione a colori dei loro prodotti. Così è
possibile scoprire che magicamente, un sensore CCD da poco meno di 500.000 elementi
monocromatici è capace di fornire immagini a colori da 800x600 pixel, mentre chiunque abbia un
minimo di dimestichezza con il funzionamento dei dispositivi di questo tipo è in grado di accorgersi
che è necessario "sprecare" ben tre elementi del CCD, differentemente filtrati in RGB, per avere
conoscenza cromatica di quella singola porzione d'immagine. Giocando, abilmente, con
l'interpolazione software dei punti a colori mancanti (e sfruttando quanto più possibile il fatto che i
pixel verdi sono in quantità doppia rispetto a quelli rossi e blu) si riesce ad ottenere un numero di
punti validi ridotti alla metà invece che ad un terzo (diciamo 250.000 pixel "veri" a colori
utilizzandone, in partenza, 500.000), ma non è fisicamente possibile eguagliare la risoluzione
monocromatica del sensore CCD con quella a colori ottenibile via microfiltratura RGB. L'immagine
800x600 così ottenuta è assolutamente priva di dettaglio, con evidenti sbavature cromatiche nei
contorni dell'immagine dovute al fatto che le tre immagini monocromatiche percepite dal sensore,
oltre che interpolate, sono per di più sfasate tra loro di almeno un pixel, condizione che non giova
certo alla resa finale del dispositivo. Dunque, a quanto pare, non si può generare un'immagine a
colori da un singolo sensore CCD microfiltrato, senza ricorrere all'interpolazione software. E'
_________________________________________________________________________________________________________________________________________
Alunna: Valente Vittoria
classe V
anno scolastico 2011/2012
pag. 7 di 12
IPSIA Bocchigliero
-Elettronica, Telecomunicazioni ed Applicazionitrasduttori ottico-elettrico
_________________________________________________________________________________________________________________________________________
possibile però minimizzare il problema ricorrendo ad uno schema di funzionamento più sofisticato.
Si basa sull'utilizzo di pixel rettangolari (invece che quadrati) di dimensione esattamente pari alla
metà di punti immagine che intendiamo acquisire. Secondo lo schema in figura, per ogni pixel della
nostra immagine conosciamo il valore di due delle tre componenti cromatiche primarie, mentre ben
quattro pixel nel suo intorno possono fornire informazioni circa la terza. Ad esempio, del pixel A
conosciamo esattamente la quantità di rosso e di blu di cui è composto il pixel acquisito, mentre dai
pixel identificati con la lettera B "abbiamo di che interpolare" circa la componente verde. Lo stesso
accade per il pixel C (così come per gli altri punti da acquisire) di cui è nota la quantità di rosso e di
verde mentre il blu possiamo interpolarlo dai quattro pixel identificati dalla lettera D. Ma il vero
"salto di qualità" si ha eliminando del tutto o minimizzando al massimo il meccanismo di
interpolazione software dei punti colore. E, come è facile prevedere, se non intendiamo effettuare
più esposizioni con differenti filtri, è necessario ricorrere a 2 o a 3 sensori CCD utilizzati insieme.
In figura è mostrato uno schema esemplificativo di una fotocamera digitale basata su due sensori
CCD nonché la soluzione "no limits" di 3 sensori CCD, uno per componente primaria di sintesi
additiva.
E' evidente che nell'ultimo caso (3 CCD) non è necessario compiere alcuna operazione di
interpolazione software di natura cromatica, in quanto di ogni pixel della nostra immagine
conosciamo esattamente ognuna delle tre componenti cromatiche che identificano il rispettivo
colore. Più interessante, dal punto di vista algoritmico, la situazione della coppia di sensori CCD, il
cui schema di interpolazione è mostrato in figura. Dei due CCD disponibili (di pari risoluzione
grafica) ad uno è demandato il compito di leggere tutti i pixel verdi dell'immagine, l'altro si occupa
delle componenti rosso e blu, secondo lo schema a scacchiera mostrato. E' evidente che in questo
caso di ogni punto conosciamo sempre esattamente due componenti cromatiche e solo la terza dovrà
essere interpolata. Ad esempio del pixel A è noto il verde e il rosso (il blu è da interpolare) mentre
del pixel B conosciamo il verde e il blu, lasciando al software il calcolo della componente rossa.
Anche in questo caso la predominanza di pixel verdi (che essendo presenti sul 100% della
superficie non necessitano di interpolazione alcuna) permette risultati interessanti in termini di
risoluzione finale. Volendo, infine, esagerare a tutti i costi, anche dallo schema appena discusso,
basato su due soli sensori CCD, permette di evitare l'interpolazione software anche per le
_________________________________________________________________________________________________________________________________________
Alunna: Valente Vittoria
classe V
anno scolastico 2011/2012
pag. 8 di 12
IPSIA Bocchigliero
-Elettronica, Telecomunicazioni ed Applicazionitrasduttori ottico-elettrico
_________________________________________________________________________________________________________________________________________
componenti rosso e blu ricorrendo ad un piccolo trucchetto elettromeccanico. "Basta" montare il
CCD rosso/blu su un supporto mobile a controllo numerico ed effettuare con questo due
acquisizioni in rapidissima sequenza, a pochi millesimi di secondo l'una dall'altra. Tra la prima e la
seconda lettura, il servomeccanismo sposta il sensore CCD di un pixel in diagonale leggendo in
questo modo il valore di tutti i punti che con lo schema statico sarebbero stati interpolati... Il Range
Dinamico è il rapporto tra la più forte e la più debole luce catturabile dal sensore ccd una volta
fissati tempo di otturazione, apertura diaframma e sensibilità iso. Il range dinamico è quindi un
sinonimo di contrasto massimo tra luce e ombra che viene reso correttamente dal ccd. Anche
l’occhio umano e la pellicola hanno un range dinamico limitato, il fatto è evidente se si pensa
all’effetto che si ha guardando una pila che ci viene puntata in faccia o fotografando con qualunque
macchina in controluce. In pratica un range dinamico troppo limitato ci porterà ad avere immagini
con parti troppo chiare (sovraesposte), troppo scure (sottoesposte) o addirittura entrambe. In queste
aree perdiamo completamente (o quasi) i dettagli e anche i migliori software faticano a recuperarli
(e se ci riescono spesso l’immagine non è certo gradevole). Il range dinamico non viene dichiarato
dai costruttori, ma può essere misurato attraverso alcuni test, la misura è espressa in ev (equivalent
value) o in rapporti di contrasto (es. 400:1). Questo range varia inoltra al variare della sensibilità iso
impostata, avendo il valore massimo per iso bassi (100) e calando rapidamente per valori alti (a iso
800 è in media 4 volte più basso che a iso 100). . I pixel sono misuratori analogici e la misura da
loro prodotta è un segnale elettrico misurabile in volt. Tale segnale deve essere convertito in
digitale. La conversione introduce un fenomeno di perdita d’informazione chiamato
“quantizzazione”. Questo fenomeno è dovuto al fatto che il numero di bit usati per ogni pixel è
molto piccolo e il numero di informazioni codificabili con N pixel è 2N. Nella maggior parte delle
fotocamere abbiamo N = 8 e di conseguenza 2N= 256. Ciò significa che qualsiasi immagine
fotografiamo dovremo descriverla con “solo” 256 gradazioni di luminosità (per ogni colore). Le
ultime fotocamere professionali hanno 10 o addirittura 12 bit che corrispondono rispettivamente a
1024 e 4096 gradazioni. In futuro quando le macchine avranno range dinamici molto superiori a
quelli attuali e si potrà scegliere l’esposizione migliore dopo aver scattato la foto (il range sarà così
ampio da equivalere a due foto con due esposizioni diverse). Si noti infatti che avere un buon range
dinamico e soli 8 bit significa comprimere le informazioni aggiuntive rinunciando a buona parte
delle informazioni guadagnate (in pratica la forte perdita di dettagli presente nelle zone scure o
chiare si distribuisce ovunque ma molto, molto attenuata). Si noti inoltre che il jpeg non supporta
risoluzione di colore superiori a 8 bit (ecco il perché dei formati raw). I ccd comunemente utilizzati
nelle fotocamere hanno sensori del tipo “interline transfer”. Il funzionamento prevede un tempo di
esposizione, in cui gli elementi sensibili del sensore “misurano” la luce incidente trasformandola in
carica elettrica. Il principale pregio di questo tipo di costruzione è la semplicità meccanica: non
serve un otturatore per determinare il tempo di esposizione: i ccd interline transfer sfruttano
semplicemente segnali elettronici. Il contro è la perdita di superficie utile (-30%) determinata dalla
presenza di altri componenti al fianco del sensore. Un altro vantaggio di questo tipo di sensore, è
che consente la generazione di un’immagine “live” utile nella fase di anteprima. Sulle fotocamere di
fascia più alta (spesso reflex) trovano posto i sensori “full frame”. In questo tipo di ccd le singole
unità hanno doppia funzione: producono carica elettrica durante il periodo di esposizione alla luce
_________________________________________________________________________________________________________________________________________
Alunna: Valente Vittoria
classe V
anno scolastico 2011/2012
pag. 9 di 12
IPSIA Bocchigliero
-Elettronica, Telecomunicazioni ed Applicazionitrasduttori ottico-elettrico
_________________________________________________________________________________________________________________________________________
e, passandosi la carica l’un l’altro, fanno arrivare l’informazione verso il componente che rende
l’immagine comprensibile all’occhio umano (il convertitore A/D) Questa soluzione elimina la
necessità di elementi di correzione di tipo ottico (le micro lenti che si trovano su tutta la superficie
del sensore) e garantisce un ottimale sfruttamento della superficie sensibile del ccd. Ha lo
svantaggio principale che uno scatto deve essere letto completamente prima che se ne possa
effettuare un altro, il che impedisce di fatto la possibilità di generare un’uscita video continua,
molto pratica quando si utilizza il “preview” da Lcd. Un parametro qualitativo importante è la
dimensione del sensore. In generale si può dire che più è grande meglio è, visto che consente di
raccogliere più luce. Le differenze di dimensioni tra i sensori delle fotocamere amatoriali non sono
tali da generare foto di qualità molto diversa.: per vedere notevoli miglioramenti bisogna andare su
costose macchine professionali. Non dobbiamo pensare alle singole celle di un CCD come attaccate
l’una all’altra, tra di esse c’è uno spazio neutro. L’evoluzione tecnologica dei sensori sfrutta la
riduzione di questo spazio con conseguente produzione di CCD con maggiore risoluzione, più
sensibili e meno influenzati da disturbi. I Super CCD di Fujifilm recentemente giunti alla quarta
generazione, approcciano questa esigenza ridisegnando la geometria delle unità sensibili che, invece
che quadrate (o rettangolari), diventano ottagonali e si “incastrano” tra loro a tutto vantaggio del
fattore di riempimento.
La disposizione diagonale dei pixel dei CCD ad interlinea convenzionale è stata ruotata di 45° per
formare una configurazione a nido d’ape con grandi fotodiodi ottagonali, combinandola con
l’esclusiva elaborazione del segnale, in modo da creare un sistema d’imaging integrato. Altamente
sensibile alla luce in ingresso, questo sistema innovativo offriva una combinazione bilanciata di
risoluzione, sensibilità, gamma dinamica, rapporto segnale/disturbo e fedeltà cromatica, che ha dato
inizio ad una nuova era d’imaging di alta qualità per le fotocamere digitali. In questo panorama
fatto di affinamenti e piccole evoluzioni, nel 2002, Foveon, un’azienda californiana, ha annunciato,
ed è oggi disponibile, X3, una rivoluzionaria tecnologia. Si tratta di un chip tristrato basato su
tecnologia Cmos in cui ogni strato assorbe un’unica gamma cromatica lasciando passare il resto.
Foveon X3 unisce la semplicità costruttiva di un singolo CCD alla qualità di una fotocamera
professionale: queste ultime, infatti, utilizzano spesso un sistema a 3 sensori per riprodurre
separatamente i tre colori primari, mentre i modelli più economici hanno un singolo sensore. Va
fatto notare che i sensori attuali (CCD e pellicole) sono di gran lunga inferiori all’occhio umano
come contrasto massimo catturabile. Ed è qui che diventa interessante l’ultimo prodotto della
tecnologia sviluppato da Fujifilm: il sensore Super CCD SR.
Il Super CCD HR presenta due varianti: la prima dispone di 6,63 milioni di pixel in un chip da
1/1,7", un risultato reso possibile dai nuovi progressi compiuti nel campo della miniaturizzazione.
Le fotocamere dotate del nuovo super CCD possono produrre fino a 12,3 milioni di pixel di
registrazione, che si traducono in immagini dalla risoluzione particolarmente elevata. L’altra
versione del Super CCD HR è da 1/2,7" e incorpora 3,14 milioni di pixel totali, che producono 6,0
milioni di pixel registrati. Oltre alla risoluzione notevolmente incrementata, è stata anche migliorata
la sensibilità rispetto al Super CCD di 3^ generazione. Il Super CCD SR presenta una nuova
configurazione che produce una gamma dinamica all’incirca quattro volte più ampia. Con la stessa
dimensione da 1/1,7", il nuovo Super CCD SR vanta 6,7 milioni di pixel totali* (3,35 milioni di
_________________________________________________________________________________________________________________________________________
Alunna: Valente Vittoria
classe V
anno scolastico 2011/2012
pag. 10 di 12
IPSIA Bocchigliero
-Elettronica, Telecomunicazioni ed Applicazionitrasduttori ottico-elettrico
_________________________________________________________________________________________________________________________________________
pixel S e 3,35 milioni di pixel R).Il Super CCD SR contiene dunque sia pixel di grandi dimensioni
ad alta sensibilità (di tipo “S”), sia pixel più piccoli per una gamma dinamica più vasta (di tipo
“R”). Combinando le informazioni ricevute da entrambi questi elementi sensibili in base alla
composizione della scena, il Super CCD SR è in grado di garantire sia un’elevata sensibilità sia una
maggiore gamma dinamica. Grazie al nuovo Super CCD di 4^ generazione le prestazioni delle
fotocamere digitali saranno migliorate aumentando la risoluzione ed incrementando la sensibilità,
nel tentativo di ottenere una qualità d’immagine simile a quella prodotta con la pellicola fotografica.
Ad oggi tuttavia, anche la prestazione dei Super CCD Fujifilm è inferiore a quella della pellicola
per quanto riguarda la scala tonale, uno degli elementi più importanti che caratterizzano la qualità
d’immagine. Le fotocamere digitali tradizionali incontrano difficoltà nel riprodurre immagini ad
alto contrasto contenenti zone scure e luminose, le zone in ombra tendono a perdere nitidezza nel
dettaglio ed i bianchi appaiono sbiaditi. Il Super CCD di Fujifilm è stato progettato per ospitare
fotodiodi più larghi all’interno di ciascun pixel, migliorando la sensibilità e ampliando la gamma
dinamica. Il nuovo Super CCD SR di 4^ generazione raggiunge una gamma dinamica all’incirca
quattro volte superiore rispetto al precedente Super CCD di 3^ generazione, producendo una scala
tonale ampia ed omogenea senza perdita di dettaglio nelle zone in ombra o slavature nelle zone
luminose. L’importanza di questa tecnologia è fondamentale se si pensa alle applicazioni che può
avere per un professionista e alla comodità per un fotoamatore; il range dinamico (contrasto
massimo catturabile) delle macchine fotografiche digitali è molto ridotto rispetto alle controparti su
pellicola. Questo sensore avrà quindi l’effetto di avvicinare ancor più la qualità delle macchine
digitali a quelle a pellicola, avvicinando al contempo la data del sorpasso (di qualità) definitivo.
Un sensore di una digitale può costare anche milioni, mentre il sensore di una Reflex tradizionale, la
pellicola, costa pochi euro e per quanto possa essere buona la macchina che la contiene, è pur
sempre il sensore a determinare in primo luogo la qualità delle immagini. Per adesso la tecnologia
non ha ancora permesso il sorpasso, ma i miglioramenti sono incredibili e visibili da tutti...
Il super CCD utilizza quindi una struttura ottagonale già sperimentata in passato a cui aggiunge un
elemento del tutto innovativo: il doppio fotodiodo. Invece di un solo fotodiodo per pixel ne
vengono utilizzati due, di cui uno è più grande e sensibile alla luce, l’altro molto più piccolo e molto
meno sensibile e viene utilizzato per registrare la luce molto forte. L’immagine registrata è formata
a partire dalle due immagini registrate dai due sensori: l’effetto è molto simile a quello che si
otterrebbe scattando la stessa foto con due esposizioni differenti (ad esempio stringendo il
diaframma e diminuendo il tempo di otturazione) una normale e l’altra molto scura. In quella scura
avremo ben visibili le parti troppo luminose, che in quella normale sono rese come totalmente
bianche. Un algoritmo si occupa di ricostruire l’immagine complessiva. Ingrandendo notevolmente
un’immagine digitale ci si può rendere conto di come questa sia in realtà composta da un reticolo di
quadratini, cioè di pixel, che la rende di aspetto simile a quello di un mosaico. Così come in un
mosaico ogni tessera ha un certo colore di una certa luminosità, anche ogni singolo pixel di una foto
digitale ha una tinta specifica e una determinata intensità luminosa. Osservando la stampa di
un’immagine digitale o guardando la stessa foto ad ingrandimento normale su un monitor di
computer, non si noteranno i singoli pixel che anzi sembreranno fondersi per creare un insieme
continuo di luci e colori, proprio come in una tradizionale stampa fotografica o diapositiva
_________________________________________________________________________________________________________________________________________
Alunna: Valente Vittoria
classe V
anno scolastico 2011/2012
pag. 11 di 12
IPSIA Bocchigliero
-Elettronica, Telecomunicazioni ed Applicazionitrasduttori ottico-elettrico
_________________________________________________________________________________________________________________________________________
proiettata su schermo. Al di là delle considerazioni estetiche su una particolare fotografia, esiste un
termine tecnico di valutazione del numero di dettagli che è possibile catturare in una ripresa digitale
e della capacità di stamparli a dimensioni tali da non mostrare i cosiddetti effetti di scalettatura, cioè
di non incorrere nel rischio di rendere evidenti i singoli pixel del reticolo. Pur se in maniera diversa,
lo stesso accade sul fronte della fotografia tradizionale, quando si vuole fare un ingrandimento
eccessivo: la grana del negativo, o della diapositiva, può diventare talmente evidente da risultare
fastidiosa. La qualità di un’immagine digitale dipende dunque soprattutto dal numero di pixel di cui
è composta: un termine che normalmente viene definito risoluzione. Come si è già visto in
precedenza, il numero di punti di una foto digitale dipende dal numero di elementi sensibili di cui è
composto il sensore elettronico di ripresa. Ciò significa che una fotocamera con sensore da 5
megapixel (cioè dotato di una superficie di 5 milioni di elementi sensibili) sarà capace di riprendere
più dettagli e di stampare meglio e in dimensioni maggiori un’immagine digitale rispetto ad una
fotocamera con sensore da 2 o 3 megapixel. Per un’immagine da pubblicare in una pagina Web
possono bastare anche 100.000 pixel; una videocamera ha bisogno di poco più di 400.000 pixel,
dato che le immagini in movimento andranno viste principalmente su un televisore. Se invece ci si
limita ad osservare la foto digitale sullo schermo di un computer, si parte da mezzo milione di pixel
per arrivare a 1 o 2 milioni. Se infine la si desidera stampare su carta di grandi dimensioni (per
intendersi, superiori a 20x30 cm), ci può essere bisogno di una risoluzione anche maggiore: alcune
fotocamere professionali hanno anche 6 milioni di pixel e più.
In genere, la taglia di una foto digitale viene identificata da due fattori: il numero di pixel relativo ai
due lati, oppure il numero complessivo di pixel di cui è composta. Ciò signifca che un’immagine
può ad esempio essere definita come una foto da “2048 per 1536 pixel” oppure un’immagine da 3,1
megapixel (2048 moltiplicato per 1536 dà come risultato 3.145.728 pixel). Come sempre, maggiore
è il numero di pixel, migliore sarà la resa dei dettagli e la possibilità di effettuare ingrandimenti o
stampe di grandi dimensioni. La stessa denominazione si applica anche alle fotocamere digitali. In
questo caso, però, la risoluzione si riferisce al sensore di ripresa: una macchina megapixel ha un
sensore da almeno un milione di elementi sensibili; una fotocamera multi-megapixel ha più di due
milioni di pixel sul suo sensore. Naturalmente in questo caso il costo dell’apparecchio è
proporzionale alla qualità del sensore, cioè al numero di elementi di cui è composto. Più alto è il
numero di pixel, migliore è la qualità ma più elevato è il prezzo dell’apparecchio.
_________________________________________________________________________________________________________________________________________
Alunna: Valente Vittoria
classe V
anno scolastico 2011/2012
pag. 12 di 12