apri/salva file

Transcript

apri/salva file
Le dispense del
Mini Corso di Fotografia
LA PRIMA LEZIONE:
• Scrivere con la luce
• Lo spettro della luce
• Perché vediamo i colori
• Luce riflessa e luce incidente
• Le fotocamere digitali
• I sensori d’immagine
• Pixel e megapixel
• ll rumore digitale
Club Alpino Italiano – Sezione di Carpi
Via Cuneo, 51 41012 Carpi (MO) – Tel. 059696808 – Fax 0596223612 [email protected]
“È un’illusione che le foto si facciano
con la macchina... si fanno con gli occhi,
con il cuore, con la testa”. Henri
Cartier-Bresson
“La fotografia non mostra la realtà,
mostra l’idea che se ne ha”. Neil
Leifer
“Credo davvero che ci siano cose che
nessuno riesce a vedere prima che
vengano fotografate”. Diane Arbus
HENRI C
ARTIER-B
RESSON
“Chi non sa fare una foto interessante
con un apparecchio da poco prezzo,
ben difficilmente otterrà qualcosa di
meglio con la fotocamera dei suoi
sogni”. Andreas Feininger
“Un buon fotografo è una persona che
comunica un fatto, tocca il cuore, fa
diventare l’osservatore una persona
diversa”. Irving Penn
PENN
G
N
I
V
IR
“Dieci fotografi di fronte allo stesso
soggetto producono dieci immagini
diverse, perché se è vero che la
fotografia traduce il reale, esso si rivela
secondo l’occhio di chi guarda”. Gisele
Freund
GISE
LE FR
EUN
D
Comunicare con le immagini...
Fotografare è scrivere
con la luce!
La parola fotografia ha origini greche,
deriva dall'unione di due parole
phos (luce) e graphis (scrivere)
La prima foto della storia
scattata da Nicéphore Niepce nel 1826
SPETTRO DELLA LUCE
Lo spettro visibile è quella parte dello spettro elettromagnetico che cade tra il rosso e il violetto
includendo tutti i colori percepibili dall'occhio umano. La lunghezza d'onda della luce visibile
nell'aria va indicativamente dai 380 ai 760 nm ; le lunghezze d'onda corrispondenti in altri mezzi,
come l'acqua, diminuiscono proporzionalmente all'indice di rifrazione. La massima sensibilità
dell'occhio la si ha attorno ai 550 nm in corrispondenza del colore giallo citrino.
Le radiazioni con lunghezza d'onda minore (e quindi frequenza maggiore) sono gli ultravioletti, i
raggi x e i raggi gamma; quelle con lunghezza maggiore (e frequenza minore) sono gli infrarossi,
le microonde e le onde radio. Tutte queste radiazioni hanno la stessa natura, sono infatti tutte
composte da fotoni. Lo spettro visibile rappresenta la parte centrale dello spettro ottico che
comprende anche infrarosso e ultravioletto.
Lo spettro visibile non contiene come si può pensare tutti i colori che l'occhio e il cervello
possono distinguere: il marrone, il rosa, il magenta, per esempio, sono assenti, in quanto si
ottengono dalla sovrapposizione di diverse lunghezze d'onda.
Un prisma separa la luce nei colori che compongono lo spettro visibile.
Le lunghezze d'onda visibili occupano la cosiddetta "finestra ottica", una regione dello spettro
elettromagnetico che può attraversare indisturbata l'atmosfera della Terra (benché come è noto il
blu venga diffuso più del rosso, dando al cielo il suo colore caratteristico
Perche’ vediamo i colori
Gli oggetti e gli ambienti che ci circondano sono in gran parte colorati. Ciò dipende dal fatto che
la luce si diffonde attraverso onde di diversa lunghezza: ad ogni onda corrisponde un colore. La
differenza tra 'colore' e 'non colore' è spesso labile e soggettiva.
Il fisico inglese Isaac Newton dimostrò, nel 1672, che la luce, che vediamo bianca, è in realtà
composta dai sette colori dello spettro solare. Nel suo esperimento Newton fece passare un
raggio di luce attraverso un prisma di cristallo. Il raggio si scompose così nei sette colori dello
spettro solare, dimostrando che il bianco è la somma di quei colori.
Il nostro occhio percepisce solo una piccola parte
delle onde luminose esistenti in natura; a questa
corrisponde uno spettro di sette colori: il rosso,
l’arancio, il giallo, il
verde, l’azzurro, l’ìndaco e il
violetto.
Deriva quindi questa osservazione: l’oggetto che riflette tutte le onde luminose
appare bianco (bianco = somma di tutti i colori); l’oggetto che assorbe tutte le
onde, senza restituirle ai nostri occhi, viene visto dai nostri occhi nero (nero =
assenza di colori); l’oggetto che assorbe tutte le onde tranne uno, ha il colore
corrispondente a quell’unica onda ( ad esempio: un oggetto che non assorbe il
verde, viene visto dai nostri occhi verde).
Il colore è un fenomeno psico-fisico legato alla luce. Il colore senza luce non
esiste; basti pensare che nell'oscurità profonda ciò che si intravvede è privo di
colori.
Per capire il colore possiamo fare il parallelo col mondo dei suoni, assai più
familiare; un tamburo emette note meno acute di un violino, perché la frequenza
delle vibrazioni sonore del tamburo è inferiore a quelle del violino.
L'occhio umano percepisce meglio la parte centrale della banda della luce visibile,
cioè quella dei gialli e dei verdi, mentre verso i bordi la percezione sfuma. Il colore
è una sensazione ottica, che cambia a seconda della sensibilità individuale, in
ognuno di noi la visione può differenziarsi anche in maniera consistente. Si è soliti
pensare al colore come a un fenomeno puramente fisico, mentre in realtà è il
risultato di un insieme di fattori: la capacità ricettiva degli occhi, le caratteristiche
del cervello e la combinazione di gas, umidità e particelle di polvere presenti
nell'atmosfera, le quali filtrano, riflettono e rifrangono i raggi dell'energia luminosa.
I
I
colori
colori
PRIMARI:
SECONDARI:
ROSSO,
BLU,
ARANCIO,
VERDE,
GIALLO,
VIOLA
non
si
possono
ottengono
essere
mescolando
generati
due
primari
da
in
altri
colori.
parti
uguali.
Ogni coppia di complementari è formata da un primario e dal secondario ottenuto dalla mescolanza degli altri due
primari. Per sapere qual è il complementare del colore primario giallo, mischiate gli altri due primari, il rosso e il blu: ottenete
il viola che risulta essere il complementare del giallo.
il viola è complementare del giallo
il verde è complementare del rosso
l'arancio è complementare del blu.
Se si accostano i colori complementari si ottiene un effetto di massimo contrasto: i due colori
acquistano forza cromatica rafforzando a vicenda la luminosità di entrambi
Se si pone un colore luminoso al centro del suo complementare meno luminoso, l'effetto di contrasto e
di complementarità è particolarmente evidente.
I colori primari blu, rosso e giallo miscelati, generano la maggior parte dei colori che
l'occhio umano riesce a percepire.
Il modello CMY
è conosciuto come colore sottrattivo, perché quando questi colori si sovrappongono
danno origine al colore nero. Se si ha una sola sorgente di luce, bisogna ricorrere alla
"sintesi sottrattiva", che è la stessa che avviene quando si usano i coloranti (come i
tubetti del pittore o l'inchiostro di una stampante).
E' il metodo per la stampa in quadricromia.
Il sistema sottrattivo CMY(Cyan-Magenta-Yellow) sottrae luce ad uno sfondo
bianco
Se si sovrappongono i tre colori primari sottrattivi si forma il nero
PROCESSO SOTTRATTIVO DEI COLORI
Un fascio di luce bianca viene fatto passare attraverso tre filtri realizzati nei
colori complementari (giallo, magenta, ciano).
La sovrapposizione di due fasci colorati genera i colori primari (blu, verde,
rosso),
mentre la presenza contemporanea dei tre filtri produce il nero.
•
dalla mescolanza di ciano e magenta deriva il blu
dalla mescolanza di magenta e giallo deriva il rosso
•
•
dalla mescolanza di giallo e ciano deriva il verde.
Il modello RGB
è conosciuto come colore additivo, perché i tre colori combinandosi riproducono il
Bianco.
E' il metodo utilizzato dai monitor per visualizzare il colore.
In pratica, l'esperienza insegna che tutti i colori possono essere ottenuti partendo da tre
fasci luminosi nei cosiddetti colori primari: rosso, verde e blu. Questo procedimento,
che parte dal buio e somma le luci, si chiama "processo additivo" o "sintesi additiva" dei
colori.
L'unione dei tre colori primari (o fondamentali) dà il bianco; quando i colori primari
vengono uniti due a due si ottengono invece i cosiddetti colori complementari; il blu e il
rosso danno il magenta (colore complementare del verde), il rosso e il verde danno il
giallo (complementare del blu), il verde e il blu danno il ciano (complementare del
rosso). Il colore ciano viene anche denominato cyan.
•
•
Il sistema additivo RGB (Red-Green-Blue) aggiunge luce ad uno sfondo nero
Se si sovrappongono i tre colori primari additivi di eguale intensita’, si
forma il bianco.
PROCESSO ADDITIVO DEI COLORI
Tre fasci di luce nei colori primari (blu, verde, rosso),
sovrapponendosi due a due
formano i colori complementari (giallo, magenta, ciano);
dove si sovrappongono tutti e tre, danno origine al bianco.
dalla mescolanza di rosso e blu deriva il magenta
•
•
•
dalla mescolanza di blu e verde deriva il ciano
dalla mescolanza di verde e rosso deriva il giallo.
La luce.
La materia prima del fotografo è la luce. È attraverso la luce che noi possiamo vedere le cose, nella loro forma e nei loro
colori, valutarne la dimensione e la distanza. La luce è energia, in particolare essa è una radiazione elettromagnetica.
Essa ha la stessa natura delle onde radio, delle microonde, dei raggi X e dei raggi γ (gamma), e differisce da queste cose
solo per la lunghezza d'onda (o per la frequenza). La luce è caratterizzata da:
a - intensità, da cui dipende la luminosità (esempio: una candelina emette una luce debole, poco intensa o
luminosa, mentre un faro emette una luce forte, molto intensa o luminosa),
b - lunghezza d'onda (o frequenza), da cui dipende il colore (esempio: una luce rossa ha lunghezza d'onda
maggiore di una luce verde).
La luce, nel vuoto e nei materiali trasparenti, si propaga in linea retta. Ci sono situazioni in cui il cammino rettilineo di un
raggio di luce può essere deviato, si tratta dei seguenti fenomeni fisici:
a - riflessione, ogni qual volta la luce incontra un materiale su cui rimbalza,
La riflessione.
Si considerano due tipi fondamentali di riflessione:
a - quella su una superficie ruvida o opaca (per esempio un pezzo di carta, un muro, una stoffa...),
b - quella su una superficie perfettamente levigata o lucida (per esempio uno specchio, un metallo liscio e lucidato).
a - Riflessione su una superficie opaca:
In questo caso noi osserviamo che il raggio incidente, dopo avere incontrato la superficie opaca, viene rimbalzato in tutte le
direzioni. E' per questo motivo che, anche stando all'ombra, possiamo essere illuminati. Infatti la luce, pur non potendo
raggiungerci con un cammino diretto dalla sua fonte (per esempio dal sole), ci raggiunge indirettamente dopo essere stata
rimbalzata dalla superficie degli oggetti (per esempio il suolo, le case, le pareti, gli alberi...). Il fenomeno della riflessione
sulle superfici non lucide è utilizzato spesso dal fotografo per fornire una illuminazione morbida, ovverosia capace di creare
delle ombre che non siano troppo nette e dei contrasti attenuati. A volte questa luce risulta migliore di quella diretta che dà
ombre dure e contrasti violenti fra zone troppo chiare e zone troppo scure.
b - Riflessione su una superficie lucida:
In questo caso noi osserviamo che il raggio incidente, dopo avere incontrato la superficie opaca, viene rimbalzato in una
sola ben precisa direzione.
La legge della riflessione si enuncia così: l'angolo di incidenza e l'angolo di riflessione sono sempre uguali. Naturalmente
per angolo di incidenza si intende quello fra il raggio incidente e la verticale, mentre per angolo di riflessione si intende quello
fra il raggio riflesso e la verticale.
Se stai valutando la possibilità di passare al digitale, ecco alcuni buoni motivi per farlo.
➢ Si risparmia il denaro per l'acquisto delle pellicole e per lo sviluppo.
➢ Si risparmia tempo. Non occorre fare tre viaggi al negozio per comprare il rullino, per
riportarlo a sviluppare e per ritirare le stampe.
➢ Si possono controllare subito le immagini ottenute evitando delusioni uno o due giorni
dopo.
➢ Le immagini mal riuscite possono essere cancellate subito o ritoccate più tardi.
➢ Non si usano materie chimiche tossiche che troppo spesso finiscono negli scarichi e nei
fiumi.
➢ Non occorre aspettare di finire il rullino prima di portarlo a sviluppare, o sprecare la pellicola
non esposta se non si vuole aspettare.
➢ Si utilizza il computer per immagazzinare e catalogare grandi collezioni di immagini.
➢ Con una stampante poco costosa si ottengono tutte le stampe che si vuole. Se si usa
carta fotografica la qualità delle stampe sarà sorprendente, simile a quella del laboratorio
➢ Molte fotocamere digitali hanno la capacità di catturare non solo immagini fisse, ma anche
video e suoni.
➢ Oltre a visualizzare e distribuire le immagini, è relativamente facile usare un software di
fotoritocco per migliorarle o modificarle. Per esempio si può ritagliarle, correggere gli occhi
rossi, modificare i colori, variare il contrasto, togliere o aggiungere elementi.
➢ La libertà di esplorare le strade della creatività.
Categorie delle Fotocamere Digitali
Fotocamere compatte automatiche
Le foto di queste piccole macchine in questi
ultimi tempi hanno raggiunto livelli qualitativi di tutto rispetto, più che abbastanza per le
esigenze di un utilizzo amatoriale.
Fotocamere compatte evolute
Famiglia di camere dette anche “Bridge” a metà strada tra le compatte e le reflex.
Generalmente una risoluzione maggiore si combina con caratteristiche più avanzate come
la tecnologia di focalizzazione avanzata,
Fotocamere Reflex
Se avete soldi da spendere potete rivolgere le vostre attenzioni alle fotocamere progettate
per i professionisti o per gli amatori di alto livello. Con costi che vanno dai 1000 ai 6000
Euro, queste camere riprendono il design e la tecnologia delle reflex a film e vantano
risoluzioni tra i 10 ed i 24 megapixel.
Fotocamere Mirror-Less
Possono essere chiamate anche macchine “Evil” dove l’acronimo stà per “Electronic Viewfinder
Interchangable Lens” che può essere tradotto come macchine con “Mirino elettronico e lenti
intercambiabili”. Il pregio di tali macchine è dato dalla compattezza e leggerezza delle stesse a
confronto delle reflex digitali, senza però sacrificare la qualità delle immagini
Macchine fotografiche (SLR single lens reflex) o comunemente REFLEX
La sezione dei componenti ottici di una camera SLR mostra come la luce
passi attraverso le lenti dell'obiettivo (1), sia riflessa dallo specchio (2) e sia
proiettata sullo schermo opaco di messa a fuoco (5). Attraverso una lente di
condensazione (6) e le riflessioni interne al pentaprisma (7) l'immagine
appare nel mirino (8). Quando il fotografo scatta, lo specchio si muove in
direzione della freccia, l'otturatore (3) si apre e l'immagine è proiettata sulla
pellicola o sul sensore (4) esattamente come sullo schermo di messa a
fuoco.
Il nome di queste fotocamere quindi deriva esclusivamente dal sistema di
mira e non dal tipo di elemento sensibile. Oggi però, per praticità, con SLR
si tende ad identificare le fotocamere che immagazzinano le foto su
pellicola e con DSLR le macchine fotografiche digitali con la medesima
configurazione.
Macchine fotografiche reflex o Mirror-Less
L’idea è stata: perchè non costruire una macchina reflex all’interno di un
corpo macchina più stretto? Come poter arrivare a tale risultato? Semplice:
togliendo lo specchio. Grazie alla rimozione di tale congegno guadagnamo
dei centimetri preziosi sul corpo macchina ottenendo così una macchina più
stretta. L’immagine si va così a formare direttamente sul sensore, il quale
rimanda direttamente quello che vien visto sul monitor, come in una
compatta.
Sensori di immagine
Il funzionamento di una fotocamera digitale è molto simile a quello di una normale
fotocamera tradizionale a pellicola. Ambedue contengono un obiettivo, un diaframma, ed
un otturatore. Le lenti mettono a fuoco il fascio luminoso all'interno della camera, il diaframma si
apre creando un foro di diametro variabile e l'otturatore controlla il tempo diesposizione. Questo
meccanismo (diaframma + otturatore) controlla esattamente la quantità di luce che entra e
colpisce il sensore.
La grande differenza fra le camere tradizionali e quelle digitali consiste nel modo in cui la luce
viene catturata. Al posto della emulsione fotosensibile sulla pellicola, le fotocamere digitali
usano un dispositivo elettronico allo stato solido chiamato sensore di immagini o CCD (ChargeCoupled Device). Sulla superficie di questi chip di silicio di varie dimensioni, si trova una griglia
di milioni di diodi fotosensibili, detti fotoelementi o più comunemente pixel (picture element).
Ogni singolo fotoelemento cattura una porzione dell'intera immagine.
Tipi di sensore
Fino a pochi anni fa, i sensori tipo CCD (Charge-Coupled Device) erano gli unici sensori usati
nelle fotocamere, avendo raggiunto un buon grado di sviluppo in anni di impiego in telescopi
ottici, scanner, videocamere ecc. Ora però si sta affacciando un nuovo tipo di sensore, il CMOS
(Complementary Metal Oxide Semiconductor) che promette di diventare il sensore di prima
scelta in un vasto segmento del mercato. Sia i sensori CCD che i CMOS catturano la luce in una
griglia di pixel, ma differiscono quanto a processi diproduzione dei file digitali e per il modo di
gestire le immagini.
I sensori CCD (Charge Coupled Device):
Il sensore CCD deve il suo nome alla modalità di lettura dei pixel. Dopo l'esposizione, le
cariche elettriche generate dai singoli pixel vengono trasferite una per volta in una sezione
del sensore chiamata registro di lettura. Da qui, i segnali sono inviati ad un amplificatore e
poi ad un particolare circuito che converte le grandezze elettriche analogiche in valori
numerici digitali.
I sensori CMOS (Complementary Metal Oxide Semiconductor):
Il grande problema dei sensori CCD è di carattere economico, dato che i volumi di
produzione non consentono soddisfacenti economie di scala. Gli impianti di produzione
sono altamente specializzati, cioè sono adatti solo alla produzione di CCD. Mentre invece i
sensori CMOS sono prodotti nelle stesse fabbriche e con le stesse attrezzature usate per
fabbricare i milioni di microchip impiegati ormai ovunque come processori per computer o
memorie.
Il processo di produzione CMOS è di gran lunga il più comune ed economico e usare lo
stesso processo e le stesse attrezzature per produrre sensori di immagine taglia i costi di
circa un terzo, rispetto ai costi dei CCD. Costi che sono ulteriormente ridotti dal fatto che i
CMOS contengono i circuiti di processo delle immagini nello stesso chip, mentre nel caso
dei CCD tali circuiti devono essere alloggiati in un chip separato.
Solo bianco e nero
Potrà sembrare sorprendente, ma i pixel del sensore possono registrare solo l'intensità
della luce, non il suo colore. Ogni singolo pixel colpito dalla luce produce una scala di 256
valori che corrispondono a 256 tonalità di grigio, dal puro nero al puro bianco.
Dal bianco/nero al colore
Poiché la luce solare è composta dai tre colori di base, basta mettere un filtro rosso, o
verde o blu, sopra ogni pixel per ottenere immagini colorate, esattamente come fece
Maxwell nel 1860. Nel sistema Bayer usato in quasi tutti i sensori, i filtri verdi sono in
numero doppio degli altri. Poiché l'occhio umano è molto più sensibile al verde che agli
altri due colori, l'esatta resa cromatica del verde è più importante.
I filtri colorati ricoprono ogni pixel del sensore. I filtri verdi sono in numero maggiore degli altri,
le micro-lenti al di sopra dei filtri servono a focalizzare la luce per aumentare la resa cromatica
dei pixel.
I filtri colorati rossi, verdi e blu, permettono il passaggio solo della rispettiva corrispondente
cromatica della luce incidente, con questo sistema si riesce a scomporre la luce separando i
colori in 3 distinti canali.
I sensori CMOS retroilluminati
I sensori CMOS retroilluminati presentano un nuovo tipo di struttura rispetto ai sensori CMOS
utilizzati precedentemente. Questi sensori modificano il posizionamento del livello
della circuiteria, per consentire la riduzione della perdita di luminosità e, di conseguenza, un
incremento della sensibilità alla luce e la riduzione del disturbo registrato nell'immagine.
Il progetto tradizionale di un sensore CMOS, presenta il livello della circuiteria posizionato
sopra il livello dei fotodiodi . A causa del posizionamento della circuiteria, parte della luce viene
riflessa e quindi persa.
Il sensore CMOS retroilluminato presenta il livello dei circuiti posizionato sotto il livello dei
fotodiodi, in questo modo la luce non viene riflessa e persa. Grazie a questa caratteristica, i
fotodiodi ricevono più luce e il sensore è in grado di produrre immagini di qualità migliore in
condizioni di scarsa illuminazione.
I sensori SUPER CCD (Fuji)
Il nuovo CCD utilizza una struttura ottagonale già sperimentata in passato a cui aggiunge un
elemento del tutto innovativo: il doppio fotodiodo. Invece di un solo fotodiodo per pixel ne
vengono utilizzati due, di cui uno è più grande e sensibile alla luce, l’altro molto più piccolo e
molto meno sensibile e viene utilizzato per registrare la luce molto forte.
L’immagine registrata è formata a partire dalle due immagini registrate dai due sensori: l’effetto è molto simile a quello che si
otterrebbe scattando la stessa foto con due esposizioni differenti (ad es. stringendo il diaframma e diminuendo il tempo di
otturazione) una normale e l’altra molto scura. In quella scura avremo ben visibili le parti troppo luminose, che in quella normale
sono rese come totalmente bianche. Un algoritmo si occupa di ricostruire l’immagine complessiva.
Sensori tipo Foveon ( Sigma)
I sensori Foveon non usano filtri colorati ma catturano i colori in modo analogo al film che e’
rivestito da tre strati sovrapposti di emulsioni chimiche, ognuna sensibile a uno dei tre colori
primari. Nelle pellicole a colori i primi due strati sono trasparenti alla luce rossa, il secondo
strato e sensibile al verde, il primo strato e sensibile alla luce blu.
In modo del tutto analogo, i sensori Foveon hanno tre strati sovrapposti di materiali sensibili ai
tre colori primari. Le componenti rossa, verde e blu della luce penetrano nel sensore a diverse
profondita e sono catturate dai rispettivi strati sensibili che hanno spessori adeguati alle
capacita di penetrazione delle tre frequenze luminose. Tutti i pixel dello stesso strato sono attivi
e quindi non esiste la necessita di intervenire con l'interpolazione cromatica.
L'interpolazione cromatica
Con i filtri colorati, ogni pixel registra la brillantezza della luce colorata che passa
attraverso il proprio filtro, mentre gli altri colori vengono bloccati. Per esempio, un pixel con
filtro rosso percepisce solo la luce rossa che lo colpisce. Se su quel pixel non arriva luce rossa,
occorre determinare di quale colore quel pixel dovrebbe essere. Usando come
riferimento i colori dei pixel che lo circondano, il software stabilisce il colore non registrato
In pratica, ogni pixel misura l'intensità di uno dei colori primari, se questo colore è presente
nella luce incidente. Se invece quel pixel non percepisce luce, il suo colore viene "stimato"
dal software basandosi sul colore dei pixel adiacenti.
Questo processo (interpolazione cromatica) implica un notevole consumo delle batterie, un
rallentamento delle operazioni, alti costi di sviluppo del software e di produzione dei
microchip. Per tutti questi motivi nelle camere compatte si usano algoritmi relativamente
semplici, con conseguente inferiore livello della fedeltà dei colori
Le Immagini Digitali
Sono solo Pixel
Le immagini digitali sono composte da milioni di piccoli quadrettini chiamati pixel (picture
elements). Come i pittori impressionisti che componevano le loro opere con piccoli punti di
colore, il computer o la stampante usano i pixel per visualizzare le immagini sul monitor o
stamparle sulla carta.
Per fare ciò il computer suddivide lo schermo in una griglia di pixel ed usa i valori
memorizzati nel file digitale per attribuire a ciascun pixel dello schermo il colore e la
brillantezza del pixel originale. Il processo di controllo della griglia dei pixel si chiama
mappatura dei bit, e le immagini digitali sono chiamate anche bit-map.
Dimensioni dell'Immagine e Risoluzione
La qualità di un'immagine digitale, sia stampata che visualizzata su uno schermo, dipende
in buona parte dal numero di pixel usati (risoluzione) per creare quell'immagine. Più alto è
il numero di pixel (alta risoluzione) maggiore sarà il dettaglio reso, e meglio definiti
saranno i bordi tra i vari elementi dell'immagine. Ingrandendo l'immagine oltre un certo valore si
cominciano a distinguere i singoli pixel.
Questo fenomeno è abbastanza simile alle tradizionali stampe fotografiche dove la grana
della pellicola comincia ad apparire quando le immagini sono ingrandite oltre una
determinata soglia. Più alto è il numero dei pixel, più l'immagine può essere ingrandita prima che si
possano notare i singoli pixel.
Dimensioni dei pixel
Nel linguaggio comune si usa il termine “pixel” per indicare sia i fotoelementi del sensore
che gli elementi luminosi di un monitor a cristalli liquidi, ma anche le parti elementari di una
immagine digitale. In realtà i pixel del sensore hanno dimensioni fisiche che vanno da 1,6
micron (millesimi di millimetro) a 6-8 micron e oltre. La dimensione effettiva dipende dalle
misure fisiche del sensore e dalla densità dei pixel. A parità di risoluzione, un sensore di
una camera compatta avrà singoli pixel sensibilmente più piccoli di un sensore per camere
reflex.
Pixel e Megapixel
Pixel è un termine coniato alcuni decenni fa, nato dalla contrazione delle parole
Picture Element, e sta ad indicare la più piccola porzione di una immagine
fotografica. Il prefisso Mega sta per milione, quindi 1 Megapixel, o in breve 1
Mp, sta per 1 milione di pixel.
La superficie del sensore è interamente coperta da elementi fotosensibili (i
pixel) dalle dimensioni di alcuni micron (millesimi di mm). Ognuno di questi
pixel registra la luminosità di una microscopica parte della scena, generando
un segnale elettrico proporzionale alla quantità di luce ricevuta. Il software di
controllo della fotocamera si incarica poi di analizzare e di elaborare tutti i segnali
generati dai singoli pixel per ricostruire l'immagine finale.
Il numero di pixel presenti nei sensori di recente produzione va da 8 a 14
Mp delle nostre normali camere, fino ai 48 Mp e oltre di alcune camere
professionali.
In teoria disporre di più pixel significa produrre immagini di qualità
superiore, ma solo fino ad un certo punto. Se 16 Mp su un sensore di grandi
dimensioni possono dare notevoli vantaggi, Infilare 12 Mp sulla superficie
di un sensore grande come l'unghia di un bambino è pura follia sotto il
profilo tecnico.
Dimensioni del sensore
Per la qualità finale delle immagini, le misure fisiche del sensore contano molto di
più dei suoi Megapixel.
Il motivo è abbastanza semplice da comprendere: consideriamo di avere 10 milioni di
2
pixel su un sensore da 25 mm di una compatta e gli stessi 10 MP su un sensore tipo
2
APS-C di una reflex, che ha una superficie di circa 370 mm , quasi 15 volte più
grande. Una differenza macroscopica.
2
a. - Reflex pro – Sensore Full Frame - 36 x 24 mm
864
mm
2
b. - Reflex entry level – Sensore APS-C - 24 x 16 mm (circa)
384
mm
2
c. - Camera del Sistema 4/3 – Sensore 4/3 - 18 x 13,5 mm
243
mm
2
d. - Camera compatta evoluta – Sensore 1/17” - 7,6 x 5,7 mm
43,32
mm
2
e. - Camera compatta tascabile – Sensore 1/25” - 5,75 x 4,31 mm
24,78
mm
2
f. - iPhone – Sensore 3,63 x 2,73 mm
9,90
mm
La differenza più evidente è il cosiddetto “Fattore di Moltiplicazione” (Crop Factor). Come
si vede nella fotografia seguente, un sensore più piccolo cattura una porzione minore della
scena, a parità di lunghezza focale dell'obiettivo. Come risultato avremo una foto che
sembra ripresa con una focale più lunga di 1,6 volte (APS-C) o di 2 volte (4/3) rispetto al
risultato del sensore Full Frame (foto intera). In pratica un obiettivo con focale di 100 mm
su un sensore 4/3 (crop 2x) si comporta come un obiettivo con una focale di 200 mm.
Il segnale prodotto dal sensore è indirizzato ad un convertitore di segnale analogico/digitale
(A/D) ed elaborato da un processore, una Cpu che sistemerà i dati in una memoria espressa
RAM [(Random Access Memory), memoria destinata all'esecuzione dei programmi, in cui
vengono memorizzati i dati in lavorazione] eseguendo i programmi della ROM [(Read Only
Memory), memoria di lettura non volatile che contiene Sistema Operativo e applicazioni - i
dati non vengono cancellati spegnendo il dispositivo]; che saranno fissati in via definitiva su
una scheda di memoria, “Memory Card” di tipo CF (Compact Flash) più professionale o SD
(Secure Digital) schede di dimensioni più contenute che però stanno diventando il punto di
riferimento.
Lo schema è il seguente:
CMOS —> convertitore A/D —> Processore —> Memoria
Il rumore nelle immagini digitali
L’aumento dei Megapixel nei sensori delle camere compatte comporta che i singoli pixel
non solo diventano sempre più piccoli, ma anche sempre più vicini uno all'altro. E
questo crea un ulteriore problema perché lo spazio che divide i pixel è talmente ridotto
da non garantire un sufficiente isolamento elettrico, oltre ad un aumento della
temperatura durante le riprese.
Uno scarso isolamento tra pixel adiacenti provoca uno scambio di elettroni tra pixel
(rumore digitale) e quindi una perdita netta di qualità delle immagini che assumono un
aspetto granuloso, visibile specialmente nelle aree scure. Quando si confrontano camere
della stessa classe si deve cercare la combinazione tra megapixel e dimensioni del
sensore che dia la minore densità per cm 2 Questa si calcola dividendo il numero dei
Mp per il numero dei cm 2 della superficie del sensore, secondo la formula = b x h : 100,
dove i valori di b e h sono espressi in mm. Basta fare pochi semplici calcoli e si trovano
differenze macroscopiche. Per esempio, un sensore Full Frame da 12 Mp ha una densità
di 1,38 Mp/cm2 , mentre un sensore 1/17” per compatte, sempre da 12 Mp, ha una
densità di 27,7 Mp/cm 2
Il rumore nelle immagini digitali si evidenzia in prevalenza come una certa granulosita o
puntinatura monocromatica e/o come puntini o macchioline colorate evidenti soprattutto
nelle aree scure.
In breve, il livello di rumore e influenzato dai seguenti fattori:
Dimensioni del sensore. Un sensore grande e significativamente meno rumoroso di
uno piccolo
Dimensioni dei singoli pixel. A parita di dimensioni del sensore, piu megapixel significa
piu dettaglio ma anche maggiore densita e piu rumore
Sensibilita ISO impiegata. Poca luce = alto valore ISO = maggiore amplificazione del
segnale = piu rumore
Forte compressione JPEG
Tempi di posa. Tempi lunghi (1-2 sec.) producono rumore cromatico
Temperatura del sensore