MANUALE DI FOTOGRFAUI DIGITALE corretto

Transcript

MANUALE DI FOTOGRFAUI DIGITALE corretto
MANUALE
DEL
CORSO
DI
FOTOGRAFIA
DIGITALE
PROGRAMMA DIDATTICO DEL CORSO DI
“FOTOGRAFIA DIGITALE”
prof. Antonio Ruggieri
La fotocamera digitale
1-1
Sensori CCD e CMOS
1-2
Risoluzione e megapixel
1-3
Interpolazioni
1-4
Memorie di immagazzinamento
1-5
Formati di salvataggio immagini: jpg, tiff, raw
1-6
Exif e metadati
1-7
Le ottiche e il fattore di conversione
2.0 La gestione digitale delle immagini
2.1
Spazi colore
2.2
Profondità Bit e Gamma
2.3
RGB, CMYK, LAB
2-4
La calibrazione di monitor e periferiche
2-5
I profili colore
2-6
Conversione del colore
2-7
Bilanciamento e correzione dei colori
2-8
HDR
2-9
l’elaborazione del formato RAW
2-10
Filigrana e protezione del copyright
3.0 Fotografia multimediale
3.1Creare fotografie panoramiche
4.0 Presentazioni fotografiche multimediali
4.1
Creare una presentazione in pdf
1.0 La fotocamera digitale
Introduzione
Negli ultimi anni abbiamo assistito gradualmente ad un abbandono del formato analogico
a favore di quello digitale. Questa rivoluzione ha coinvolto la musica (Il CD ha
praticamento soppiantato le cassette), il cinema (le videocassette sono state sostituite
dai DVD) e naturalmente anche la fotografia con l'avvento delle nuove macchine
fotografiche digitali.
Proprio questo tipo di apparecchi hanno subito forse il più grande cambiamento
tecnologico. Si è passati infatti da un processo meccanico e chimico delle vecchie macchine
fotografiche ad un processo di digitalizzazione dell'immagine realizzabile
mediante microprocessori e sensori.
Nelle pagine successive vediamo di conoscere meglio le macchine fotografiche digitali
La più grande differenza tra una vecchia macchina fotografica ed una digitale è
sicuramente la mancanza della pellicola. Nella camere digitali, essa è sostituita da un
sensore che converte la luce in cariche elettriche.
Attualmente ci sono due tipi di sensori in commercio, i CCD (Charge Coupled
Device) ed iCMOS (Complementary Metal Oxide Semiconductor). I CCD sono
quelli attualmente più usati e sono costituiti da una serie di diodi (detti photosites)
sensibili alla luce che convertono ogni fotone di luce ricevuto in una carica elettrica.
A seconda dell'intensità della luce quindi avremo dei photosites più o meno carichi di
elettroni. Il processo successivo sarà quello di convertire la carica di ogni photosites
(ovvero di ogni pixel della futura foto) in un formato digitale mediante un ADC (Analog
to Digital Converter).
Il processo per i sensori CMOS è praticamente identico ma con alcune differenze riguardo
alla qualità. I sensori CMOS sono infatti molto più sensibili alle interferenze e qundi
producono un immagine qualitativamente inferiore rispetto ai sensori CCD. D'altra parte
sono comunque più flessibili in termini tecnologici e consumano 100 volte meno dei
CCD! Ovviamente però in una fotografia la qualità è uno degli elementi imprenscindibili
per cui i CCD vengono preferiti ai CMOS.
I sensori sono uno dei miracoli tecnologici che hanno permesso la creazione delle camere
digitali e si distinguono per le loro dimensioni incredibilmente piccole. In una camera
da 1.3 megapixels un sensore CCD misura circa 4.4mm x 6.6mm!
Megapixels
Una delle caratteristiche più pubblicizzate di una camera digitale è il numero
di megapixelche essa possiede, ovvero il numero di puntini (pixels) espresso in milioni
che può catturare in una singola foto. Ovviamente più è alto il numero dei megaPixel e più
la qualità della foto è alta. In commercio attualmente ci sono camere digitali che vanno da 1
fino a 5 Megapixel anche se a prezzi molto più alti, e riservate ai veri professionisti della
foto è possibile trovarne anche con più di 10 Megapixel!
Il numero dei Megapixel è comunque indicativo e non indica realmente il numero dei pixel
che vengono catturati in un singolo scatto. Una camera a 2.1 Megapixel ha una
risoluzione massima di 1600x1200 pixels, ovvero di 1.920.000 pixels, quindi
circa 200.000 pixels in meno di quanto atteso.
La spiegazione sta nel fatto che 2.1 Megapixel indica in realtà la presenza di circa
2.100.000 photosites sul sensore. Questi non sempre vengono usati per mappare dei pixels
ma una piccola percentuale viene usata per altre operazioni quali ad esempio la
conversione da analogico a digitale.
I photosites dedicati a queste operazioni sono ovviamente posizionati agli estremi della
matrice del sensore e sono coperti da uno strato nero che non fa filtrare la luce e non gli
permette quindi di caricarsdi elettronicamente come gli altri.
Processo di una foto
Nei prossimi 9 punti vediamo quello che succede quando scattiamo una semplice foto con una
macchina fotografica digitale:
•
1.Quando il pulsante di scatto è a metà, il fuoco e l'esposizione vengono regolati
automaticamente per produrre una foto ben fatta. Quando avviene lo scatto vero e
proprio, l'otturatore si apre, la luce passa attraverso lenti e filtri e raggiunge il sensore
CCD.
•
2. Il sensore ha una serie di photosites (il numero è equivalente ai megapixels della
camera) organizzati in una matrice detta Bayer Mosaic, che catturano la quantità di
fotoni passata e li trasformano in cariche elettriche.
Bayer Mosaic
In questa matrice (o mosaico) viene alternata una riga di rossi e verdi ad una di blue e
verdi. Il motivo per cui il verde compare più degli altri due colori è che l'occhio umano
non ha la stessa sensibilità a tutti e tre i colori, quindi per ottenere un immagine reale
abbiamo bisogno di più informazioni sul verde.
•
3.Ogni photosite è coperto da un filtro blue, rosso o verde in modo da catturare
solamente uno di questi colori. L'informazione del colore viene trasmessa ad un diodo
fotosensibile che assorbe la luce e genera elettroni a seconda dell'intensità della luce
stessa.
•
4. Alla fine della foto (alla chiusura dell'otturatore), le informazioni (le cariche elettriche)
vengono inviate una riga alla volta ad un registro.
•
5. A questo punto le cariche elettriche vengono amplificate e convertite mediante dei
circuiti integrati (Analog to Digital Converter) in informazioni digitali.
•
6. L'immagine ottenuta viene elaborata, memorizzata in una memoria
temporanea(DRAM) e mostrata in formato ridotto sul display LCD della camera. A
questo punto è possibile decidere se tenere o cancellare la foto. Se si decide di essa
sarà cancellata immediatamente dalla memoria temporanea.
•
7. Nel caso la foto venga tenuta, essa viene elaborata con alcuni sofisticati processi
che servono a produrre una foto di alta qualità. Il De-Mosaicing serve ad elaborare i
colori della foto e a produrre le gradazioni mancanti. Il Color correction aggiusta
l'intensità del blue e del rosso per raggiungere un corretto bilanciamento con il verde (e
produrre quindi un bianco "pulito"). Il processo di Enhancement infine serve ad
adattare i colori catturati dal CCD a quelli tipici percepiti dall'occhio umano.
•
8. Una volta che l'immagine è stata costruita, essa deve essere compressa.
Considerando che una foto fatta a 3.1 Megapixel occupa circa 9 megabytes, è
impensbile usare il formato originale. Solitamente viene adottata una compressione
JPEG con cui si riduce la foto a circa 900 K mantenendo comunque un altissima
qualità.
•
9. L'immagine finalmente può essere salvata sulla memoria della camera e
successivamente esportata su un computer, un PDA o direttamente su una stampante.
Memorizzare foto
Per salvare le foto scattate, una camera digitale può essere dotata di una delle seguenti unità
di memorizzazione:
•
•
•
•
•
SmartMedia Cards e CompactFlash - Due tipi molto simili di memorie Flash
Memory Stick - Un altro tipo di memoria Flash proprietaria della Sony
Floppy disk
Hard disk
CD e DVD
In pratica questi dispositivi di salvataggio hanno sostituito la pellicola delle vecchie
macchine fotografiche. Il grande vantaggio è però che esse possono essere svuotate (su
un PC ad esempio) e riscritte all'infinito.
La maggiore differenza tra i tipi di supporto visti sopra è ovviamente la loro capacità. Nella
tabella seguente vediamo lo spazio occupato da una singola foto in relazione al suo formato e
alla compressione usata.
Risoluzione
TIFF non
compresso
JPEG alta
qualità
JPEG media
qualità
640x480
1 Mbytes
300 Kbytes
90 Kbytes
800x600
1.5 Mbytes
500 Kbytes
130 Kbytes
1024x768
2.5 Mbytes
800 Kbytes
200 Kbytes
1600x1200
6 Mbytes
1.7 Mbytes
420 Kbytes
Da questa tabella si evince che il supporto peggiore in termini di capacità è
sicuramente ilfloppy disk che con appena 1.4 Megabytes può contenere al massimo
qualche foto (addirittura nessuna se si usa il formato TIFF non compresso). Il massimo
in termini di capacità è sicuramente dalle Flash Memory a 128/256 Megabytes che
possono contenere centinaia di foto anche ad altissima qualità.
Ecco alcuni consigli sull'acquisto di una camera digitale.
Scegliere la risoluzione in base all'uso della macchina
Se dovete fare delle foto da pubblicare su Internet o con una qualità medio-bassa,
potete accontentarvi di una risoluzione 640x480. Se invece avete intenzione di
stampare le vostre foto come facevate prima con la vostra Reflex, il consiglio è quello
di acquistare un modello da almeno 3 o 5 Megapixel.
Verificate come la camera memorizza le foto
Abbiamo visto che ci sono differenti supporti per salvare le foto. Se acquistiamo una
camera con un supporto a bassa capacità (come ad esempio un floppy disc), dovremo
effettuare loscarico delle foto sul PC molto frequentemente ed avremo problemi nel
caso volessimo portare la nostra camera in vacanza qualora non avessimo un PC al
seguito !!!
Non confondere lo zoom digitale da quello ottico
Tutte le camere hanno l'indicazione dello Zoom che riescono a raggiungere.
Ricordatevi però che il vero zoom è quello ottico mentre quello digitale non è altro che
un processo di elaborazione della foto che viene interpolata per raggiungere dimensioni
maggiori di quella originale. Lo zoom digitale è quello che potete effettuare anche
manualmente con un programma di grafica.
Verificare la durata della batteria in dotazione
Come visto in precedenza, le camere digitali assorbono potenza per alimentare il
sensore, il display LCD ed il microprocessore. Se non abbiamo una batteria più che
cpace, saremo costretti a fare i conti con continue ricariche.
Non confondere la risoluzione vera da quella interpolata
Alcuni produttori di camere pubblicizzano il loro prodotto con frasi del tipo "risoluzione
1000X800 e 1600x1200 interpolata". La risoluzione interpolata in realtà non è altro
che un processo che elabora la foto nel formato originale (nel nostro esempio
1000x800) e la ingrandisce (per interpolazione) fino ad arrivare ad un altro formato (nel
nostro esempio 1600x1200). E' lo stesso processo che avviene nello zoom digitale ed
in pratica si tratta solo di un "ingrandimento" della foto originale a cui vengono adattate
nuove dimensioni.
1-1 .Sensori CCD e CMOS
CCD = Charge Coupled Device
CMOS = Complementary Metal Oxide Semiconductor
Il CCD è un sensore che produce una qualità d’immagine piuttosto buona, e
che viene per questo impiegato in applicazioni scientifiche dove il costo non è
rilevante (ad esempio, viene usato per i telescopi spaziali) o professionali (es.
per le migliori macchine fotografiche). Si tratta comunque di un dispositivo
molto complesso, che ha bisogno di generatori di frequenze di
temporizzazione diverse (es. per la lettura orizzontale e per quella verticale…)
e che quindi necessita di una circuitazione e componenti supplementari
particolari.
Rispetto alla tecnologia un po’ più recente e più economica dei CMOS, i CCD
hanno il vantaggio di avere un rapporto tra segnale e rumore migliore, di
permettere una sensibilità maggiore da parte del dispositivo di acquisizione,
di permettere la costruzione si elementi di base (pixel) più piccoli.
Dal canto loro i CMOS hanno il vantaggio di essere più economici, di
integrarsi più facilmente nei circuiti degli apparecchi che li ospitano, di
consumare meno corrente (e in questo senso sono molto interessanti a causa
della durata critica delle batterie) e di consentire la costruzione di dispositivi
più compatti. Questo non tanto per le dimensioni del sensore, ma perché non
richiedono quei dispositivi supplementari (es. generatori di frequenze
diverse) tipici del CCD.
E’ ora evidente il motivo per cui vengono impiegati i CCD per le applicazioni
in cui serve la qualità d’immagine a qualunque costo. Dove per “costo” non si
deve intendere solo il costo fisico del sensore, ma anche in termini di
svantaggio, come il consumo di corrente o l’ingombro. In particolare la
produzione di una immagine con un elevato rapporto tra segnale e rumore
comporta fotografie più nitide, senza la granulosità di fondo che la rende
“sporca” e priva della dovuta limpidezza
1-2 Risoluzione e megapixel
Introduzione
In questo capitolo cercheremo di capire, prima di tutto, la terminologia adottata per
definire le dimensioni e le caratteristiche principale di un'immagine e in secondo luogo
vedremo cosa hanno a che fare sigle come dpi, ppi, o megapixel con una fotografia
stampata.
Mini Glossario
Per cominciare riporto alcuni dei termini base usati con maggior frequenza dandone una
breve spiegazione:
- dpi: ( Dots Per Inch ) Unità di misura utilizzata per indicare la risoluzione grafica che può
essere riprodotta ad esempio da una stampante.
- MegaPixel: Unità di misura corrispondente a 1 milione di pixel. Molto usata per definire
la risoluzione di una immagine prodotta da una macchina digitale.
- bit: Un bit è la più piccola quantità di informazione memorizzabile.
- byte: Unità di misura corrispondente a 8 bit.
- Kilobyte: 1024 byte.
- Megabyte: 1 milione di byte.
- pixel: ( Picture Element ) Il più piccolo tra gli elementi che vengono visualizzati su uno
schermo. La più piccola area dello schermo che possa accendersi e spegnersi e variare
d'intensità indipendentemente dalle altre.
- ppi: (pixel per inch) Unità di misura concettualmente simile a dpi ma utilizzata per
definire la risoluzione di monitor, scanner e macchine fotografiche digitali.
Le immagini digitali
Quando scattiamo una fotografia la nostra macchina digitale svolge, in rapidissima
successione una serie di passi. Prima di tutto viene impostato il diaframma al valore scelto.
Successivamente l'otturatore si apre e lascia passare luce in modo da impressionare il
sensore digitale. Quest'ultimo trasforma le informazioni luminose in impulsi elettrici e li
invia ai circuiti dedicati all'elaborazione dell'immagine. Qui i dati verranno adeguatamente
manipolati e infine salvati come file digitale.
A questo punto nella nostra scheda di memoria abbiamo archiviata sotto forma di bit una
fotogradia digitale.
La stampa
Dopo questa lunga, ma credo abbastanza interessante, introduzione, veniamo al dunque
cercando di capire come si passa dal file memorizzato sull'hard disk ad una bella fotografia
appesa al muro del nostro soggiorno.
In questi casi non è raro sentirsi porre domande del tipo: ...quanto grande posso stampare
questa immagine ? o ancora ...ho stampato questa fotografia in formato A4 ma i risultati
sono pessimi ...perchè ?
Il nocciolo della questione è quindi capire quale relazione esista tra risoluzione di
un'immagine digitale e dimensione finale della stampa.
Prima di tutto cerchiamo di fare luce sul concetto di dpi.
Un'immagine digitale è composta essenzialmente da un certo numero di punti colorati, i
pixel, disposti ordinatamente in una griglia di dimensioni fissate. Ad esempio una foto da
due megapixel sarà composta da circa 2 milioni di pixel disposti in un rettagolo di
dimensioni 1600x1200 pixel per lato circa.
Stampare una foto significa riportare su carta tutti i punti costituenti l'immagine.
Qui interviene il concetto di dpi. Un certo valore di dpi ( dots per inch ) infatti ci dice
quanti punti (dots) vengono stampati per ogni pollice (inch). Valori più alti significheranno
che i punti saranno più fitti, più vicini tra loro. Al contrario valori bassi indicheranno che i
punti avranno una densità, una distanza tra di loro più elevata.
Punti troppo distanti tra loro daranno luogo ad un'immagine poco definita, granosa in cui i
punti stessi saranno visibili ad occhio nudo con conseguente degrado della qualità della
stampa.
Aumentando la densità dei punti si ottengono immagini migliori, in cui non è presente
alcun effeto grana e in cui i passaggi tonali sono più graduali e delicati.
A causa della struttura stessa dei nostri occhi però è inutile superare una cera soglia di
definizione. Il nostro apparato visivo infatti è in grado di distinguere dettagli fino alla
risoluzione di circa 300dpi. Oltre questo valore, ogni informazione aggiuntiva verrebbe
confusa con le altre e non sarebbe rilevabile.
Per questo motivo si è stabilito che la risoluzione ottimale per un'immagine fotografica
sarà di circa 300dpi (massima qualità) con un minimo di 200-240dpi in casi particolari.
Utilizzi diversi dalla stampa prevedono tuttavia valori acnhe molto più bassi. Vedi tabella.
DESTINAZIONE
Esposizioni, Libri, Riviste di Qualità
Stampe di grandi dimensioni
Quotidiani
Web - Monitor
VALORE dpi CONSIGLIATO
300dpi
200dpi
100dpi
72dpi
Conclusioni
Una volta compreso il concetto di dpi basta tenere a mente quanto segue:
1. Un'immagine digitale è definita da una dimensione, espressa in pixel, per il lato
maggiore e una per il lato minore.
2. Un'immagine digitale NON ha dimensioni ASSOLUTE di stampa.
3. La relazione tra dimesioni in pixel e dimensioni in cm della stampa
passa SOLO ed ESCLUSIVAMENTEattraverso il concetto di dpi.
Riporto una piccola tabella che mette in evidenza il rapporto esistente tra il numero di
megapixel, la risoluzione e la dimensione massima stampabile a 72, 150 e 300dpi.
MEGAPIXEL RISOLUZIONE
1 Megapixel
2 Megapixel
3 Megapixel
4 Megapixel
5 Megapixel
6 Megapixel
11 Megapixel
1280x768
1600x1200
2048x1536
2272 x 1704
2560 x 1920
3072x2048
4064 x 2704
STAMPA a STAMPA a 150 STAMPA a 300
72dpi
dpi
dpi
45x27
21x13
10x6
56x42
27x20
13x10
72x54
34x26
17x13
80x60
38x28
19x14
90x67
43x32
21x16
108x72
52x34
26x17
143x95
68x45
34x22
Esempi
L'immagine presentata all'inizio dell'articolo è stata realizzata come Risoluzione &
Dimensioni di circa 6 scatti provenienti da una reflex digitale Canon EOS 10D da circa 6
megapixel. Il risultato finale è una stampa 60x15cm.
Per chiarire i concetti fin qui esposti riporto la schermata delle dimensioni dell'immagine
relative a Photoshop.
Come potete vedere una fotografia di circa 60cm di lato richiede ben 7195 pixel per essere
stampa alla massima qualità di 300dpi.
Modificare le dimensioni di un'immagine
A volte può essere necessario modificare le dimensioni di un'immagine per adattarla a
scopi specifici.
Esisto 2 modi di procedere.
1. Risoluzione fissa
Modificare le dimensioni in pixel dell'immagine lasciando invariato la risoluzione in dpi.
Questo approccio è "indolore" nel caso l'immagine venga rimpicciolita mente può creare
un degrado di qualità nel caso in cui le dimensioni finali siano maggiori di quelle iniziali.
Riducendo le dimensioni di un'immagine infatti non si fa altro che scartare dati non più
necessari. Ingrandendo invece, il programma di fotoritocco dovrà interpolare i dati
esistenti per crearne di nuovi. Questo processo, sebbene venga realizzato tramite algoritmi
molto sofisticati, ha dei limiti e da risultati accettabili solo se usato con moderazione.
Per compiete questa operazione nella casella delle dimensioni immagine di photoshop,
assicurarsi che la voce "Resample image - Ricampiona Immagine" sia SELEZIONATA.
Successivamente modificare dimensioni a piacere.
Notate come anche le dimensioni dell'immagine siano variate. Il file, prima di 37 MB è
diventato ora di 101 MB. Questa è conseguenza dei nuovi dati, generati dal programma di
fotoritocco, che sono serviti per passare dalla risoluzione di 7.195 pixel alla nuova di 11.811
pixel. Allo stesso tempo notate come i dpi siano rimasti fissi a 300.
2. Dimensioni in pixel fisse
Questo secondo approccio prevede di modifcare la risoluzione dell'immagine cambiando il
valore di dpi. Anche in questo caso rimpicciolendo l'immagine non si hanno particolari
controindicazioni. Ingrandendo invece il problema risiede nel fatto che si tenta di disporre
su una superficie più ampia lo stesso numero di pixel che dostituivano l'immagine iniziale.
Per forti ingrandimenti il livello qualitativo della stampa potrebbe non essere accettabile.
Per compiete questa operazione nella casella delle dimensioni immagine di photoshop,
assicurarsi che la voce "Resample image - Ricampiona Immagine" NON sia
SELEZIONATA. Successivamente modificare dimensioni a piacere. Noterete che il valore
dpi diminuirà se ingrandirete l'immagine e aumenterà se la rimpicciolirete.
La dimensione im MB dell'immagine è rimasta costante come i valori in pixel.
Avendo DESELEZIONATO il ricampionamento immagine, modificando le dimensioni
cambia solo la risoluzione.
1.3 Interpolazione digitale delle immagini
L’interpolazione digitale delle immagini si verifica in tutte le foto digitali che vengono, in
un qualche modo, manipolate, sia che si applichi un riduzione, un ingrandimento o una
rimappatura sull’immagine stessa. Il ridimensionamento delle immagini, tanto per fare un
esempio, è praticato quando è necessario aumentare o diminuire il numero totale di pixel
mentre la rimappatura accade quando è necessario intervenire sulla fotografia
per apportare una correzione per la distorsione della lente, un cambio di prospettiva o la
rotazione di un’immagine.
L’interpolazione di un’immagine non è univoca ma varia da programma a programma, o
meglio da algoritmo ad algoritmo, impiegato per realizzarla. L’interpolazione va, in poche
parole, considerata come un’approssimazione dell’immagine originale e, per giungere a
quest’approssimazione, esistono differenti strade che possono essere seguite.
Il concetto base dell’interpolazione digitale delle
immagini
L’interpolazione funziona utilizzando dati noti per stimare valori in punti sconosciuti . Ad
esempio, se si vuole conoscere la temperatura a mezzogiorno ma si conosce solo la
temperatura misurata alle 11:00 ed alle 13:00, è possibile stimare il valore a mezzogiorno
eseguendo un’interpolazione lineare :
L’interpolazione diviene più complessa (polinomiale)nel caso fosse presente un ulteriore
valore di temperatura, per esempio alle 11:30. La seconda interpolazione porta ad un
risultato più preciso ma richiede una maggiore potenza di elaborazione.
Nell’ambito dell’interpolazione delle immagini avviene più o meno la stessa cosa cercando,
per ogni pixel, di ottenere la migliore approssimazione possibile del colore e dell’intensità
leggendo i valori dei pixel limitrofi.
Nel disegno qui sopra l’esempio di un ingrandimento al 183%. Il colore e l’intensità di ogni
pixel “blu” viene calcolato facendo una media dei quattro pixel limitrofi ed il risultato è
l’immagine interpolata in alto. Al contrario, se non si facesse l’interpolazione, il pixel
aggiuntivo blu avrebbe il colore e l’intensità del pixel alla sia sinistra (una specie di copia,
insomma) ed il risultato sarebbe l’immagine non interpolata in basso. Come si evince,
l’immagine interpolata ha una risoluzione (in termini di dettagli) decisamente superiore.
Ovviamente più l’immagine si allarga, meno preciso sarà il risultato finale.
La Rotazione e l’interpolazione digitale delle
immagini
L’interpolazione si verifica anche ogni volta che si ruota o distorce un’immagine.
Una rotazione di 90° non comporta alcun tipo di perdita di dati in quanto i pixel vengono
risistemati in uno schema identico a quello originale. Quando però si effettua una
rotazione da 45°, per esempio, è necessario “ricreare” il pixel “mancante” tra due ch
vengono riposizionati. E questo problema si ha ogni qual volta si effettua una successiva
rotazione, il che porta alla perdita di informazione per ogni rotazione che viene effettuata.
Ecco perché bisogna evitare di ruotare le foto quando è possibile.
I risultati di cui sopra utilizzano quello che è chiamato un algoritmo “Bicubic” e mostrano
alterazioni significative. Si noti la diminuzione complessiva del contrasto con aloni scuri
che si vanno a formare vicino ai pixel azzurri (questo perché la media tra azzurro e nero è
un azzurro più scuro). Cambiando interpolazione ed impiegando degli algoritmi più evoluti
è possibile migliorare il risultato. Vediamo addesso quali sono gli algoritmi più importanti.
Gli Algoritmi di interpolazione digitale delle
immagini
Gli algoritmi di interpolazione possono essere raggruppati in due categorie: adattativi e
non adattativi. I metodi adattivi cambiano a seconda di ciò che stanno interpolando
(spigoli vivi oppure linee morbide), mentre i metodi non-adattivi trattano tutti i pixel allo
stesso modo.
Gli algoritmi non adattativi includono: nearest neighbor, bilinear, bicubic, spline, sinc,
lanczos ed altri. A seconda della loro complessità, questi algoritmi usano ovunque 0-256 (o
più) pixel adiacenti per ottenere l’interpolazione. Più pixel adiacenti vengono inclusi, più
accurata sarà l’interpolazione finale, a scapito ovviamente del tempo di elaborazione.
Questi algoritmi possono essere utilizzati sia per distorcere che per ridimensionare una
foto.
Gli algoritmi adattativi includono molti algoritmi proprietari, inclusi quindi in alcune
suite grafiche, come: Qimage, PhotoZoom Pro, Genuine Fractals e altri. Molti di questi
algoritmi applicano una versione differente dello stesso algoritmo in funzione dell’area che
si sta interpolando, al fine di minimizzare gli artefatti. In pratica l’algoritmo usato su
un’area sarà differente da quello impiegato in presenza di un bordo o di una linea. Gli
algoritmi adattativi sono progettati principalmente per massimizzare i dettagli privi di
artefatti nelle foto ingrandite il che li rende non utilizzabili nell’ambito delle distorsioni
o delle rotazioni delle immagini.
L’algoritmo nearest neighbor
L’algoritmo nearest neighbor è l’algoritmo base e richiede minor tempo di
elaborazione rispetto a tutti gli altri algoritmi di interpolazione perché considera solo un pixel ,
il più vicino al punto interpolato. Questo ha l’effetto di rendere “semplice” ogni pixel più
grande.
L’algoritmo di interpolazione bilinear
L’algoritmo di interpolazione bilineare considera quattro pixel limitrofi
presi da una matrice 3×3 dove il punto centrale è quello da interpolare.
L’algoritmo di interpolazione bicubica
L’algoritmo di interpolazione bicubica va un passo
oltre quello bilineare, considerando una matrice 7×7. I pixel che vengono presi in
considerazione sono ben 16. Poiché questi pixel sono a varie distanze dal pixel sconosciuto,
ai pixel più vicini viene dato un peso maggiore nel calcolo. L’interpolazione bicubica
produce immagini notevolmente nitide rispetto ai due metodi precedenti ed è forse la
combinazione ideale tra il tempo di elaborazione e qualità finale, tanto che è uno standard
in molti programmi di editing di immagini ( tra cui Adobe Photoshop).
Gli algoritmi d’interpolazione complessi: SPLINE
e SINC.
Ci sono molti altri interpolatori che prendono in considerazione più pixel circostanti e
quindi sono anche molto più avidi di tempo e di potenza computazionale . Questi algoritmi
sono chiamati spline e sinc e la loro caratteristica principale è di conservare un maggior
numero di informazioni nell’immagine interpolata rispetto agli altri algoritmi elencati
prima. Questi due algoritmi sono quindi estremamente utili quando l’immagine richiede
più distorsioni o più rotazioni in fasi successive. Tuttavia, per ingrandimenti o per singole
rotazioni, questi due algoritmi forniscono un risultato visivamente meno piacevole degli
altri.
Gli Artefatti dovuti all’interpolazione
Tutti gli algoritmi di interpolazione non adattativi tentano di trovare un equilibrio ottimale
tra tre artefatti indesiderati : aloni sui bordi, sfocature ed aliasing.
Anche gli interpolatori non adattativi più avanzati restituiranno un’immagine dove uno dei
tre artefatti è predominante: non esiste un algoritmo in grado di ridurli tutti e tre del
medesimo valore.
Gli algoritmi di interpolazione adattativi, invece, possono o non possono produrre gli
artefatti elencati sopra, ma possono anche introdurre delle texture estranee all’immagine
originale o dei pixel che nulla c’entrano con la stessa immagine.
Anti-Aliasing
L’ anti-aliasing è un processo il cui scopo è minimizzare la comparsa di frastagliature sui bordi
diagonali.
Nelle immagini seguenti viene visualizzata la differenza:
L’immagine “aliased” è scalinata, mente nell’immagine anti-aliased la scalinatura viene
ammorbidita grazie alla presenza di pixel il cui colore è un mix tra il nero a destra ed il grigio a
sinistra. Riportando l’immagine a dimensioni non così ingrandite, la linea derivata
dall’immagine di destra sarà molto più piacevole da vedere.
L’anti- aliasing, in pratica, rimuove i bordi frastagliati e fornisce all’immagine dei bordi
dall’aspetto più regolare. Questo processo si ottiene considerando per ogni pixel del bordo e
per i suoi adiacenti un valore intermedio: in questo modo si va ad aggiungere una sorta di
“ombra” al bordo, ombra che, all’occhio umano, renderà più piacevole il bordo stesso. L’antialiasing, in pratica, non è un incremento delle informazioni presenti nell’immagini ma al
contrario riduce le informazioni stesse.
1.4schede di memoria
Una scheda di memoria (in inglese memory card[1]), è un dispositivo elettronico portatile
di ridotte dimensioni in grado di immagazzinare dati in forma digitale e di mantenerli
in memoria anche in assenza di alimentazione elettrica. A tale scopo utilizza una memoria
flash (memoria non volatile) contenuta al suo interno.
Descrizione
Le schede di memoria vengono utilizzate per due fini: per il salvataggio di dati di gioco
nelle console e per memorizzare files (musica, immagini, filmati o altro) su periferiche
portatili.
Ne esistono vari tipi: alcuni sono "proprietari", ovvero funzionano solo sui dispositivi
elettronici per i quali sono stati progettati (come ad esempio le memory card per
le PlayStation), mentre altri sono compatibili con una grande varietà di dispositivi elettronici,
rendendo così possibile lo scambio di dati tra di essi.
Le schede di memoria sono da considerarsi un'evoluzione dei classici dischetti utilizzati in
passato per trasferire dati da un computer all'altro, rispetto ai quali hanno due fondamentali
vantaggi: la non influenzabilità da parte dei campi magnetici, e l'enorme capacità di memoria
rispetto ai floppy. Anche la più piccola tra le schede oggi in commercio, infatti, con una
capacità di appena 128 o 256 MB, può contenere l'equivalente dei dati contenuti
rispettivamente in 89 o 178 classici dischetti, con un ingombro notevolmente inferiore.
L'utilizzo delle schede di memoria riduce anche considerevolmente il costo per megabyte: un
dischetto da 1,44 MB che costi 50 centesimi di euro ha un costo per MB di 35 centesimi,
contro gli 0,0625 centesimi di una scheda da 8 GB (costo intorno ai 4/5 euro, capacità pari a
5960 floppy).
Standard delle schede di memoria
Attualmente esistono modelli di varie dimensioni, capacità e caratteristiche tecniche, le più
capienti per ora raggiungono 512 GB (CompactFlash), ma non sono ancora molto diffuse per
via del prezzo; modelli da 8 GB o 16 GB sono invece di uso molto comune.
La veloce diffusione e l'elevato numero di produttori e gli interessi commerciali ad essi legati,
hanno fatto sì che non si sia ancora giunti ad uno standard per questi dispositivi di
archiviazione portatili. Esistono molti tipi diversi di schede di memoria, differenti per
dimensione, forma e interfaccia.
Nome
PC Card
CompactFlash I
Acronimo Dimensione
PCMCIA
CF-I
DRM
85.6 × 54 ×
3.3 mm
Nessuno
43 × 36 ×
3.3 mm
Nessuno
Capacità
massima
128 GB
CompactFlash
II
SmartMedia
CF-II
43 × 36 ×
5.5 mm
Nessuno
128 GB
SM / SMC
45 × 37 ×
0.76 mm
Nessuno
128 MB
Memory Stick
MS
50.0 × 21.5 ×
MagicGate
2.8 mm
1 GB
Memory Stick
Duo
MSD
31.0 × 20.0 ×
MagicGate
1.6 mm
16 GB
Memory Stick
Micro M2
M2
15.0 × 12.5 ×
1.2 mm
MagicGate
8 GB
MMC
32 × 24 ×
1.5 mm
Nessuno
8 GB
RS-MMC
16 × 24 ×
1.5 mm
Nessuno
MMCmicro
12 × 14 ×
1.1 mm
Nessuno
SD
32 × 24 ×
2.1 mm
MultiMediaCard
Reduced Size
Multi Media
Card
MMCmicro
Card
2 GB(SD)
Secure Digital
CPRM
32GB(SDHC)
2TB(SDXC)
miniSD
miniSD
21.5 × 20 ×
1.4 mm
CPRM
32 GB
microSD
microSD
11 × 15 ×
1 mm
CPRM
2 TB
xD-Picture Card
xD
20 × 25 ×
1.7 mm
Nessuno
8 GB
Intelligent Stick
iStick
24 x 18 x
2.8 mm
Nessuno
µ card
µcard
32 x 24 x
1 mm
Sconosciuto
CompactFlash
Questo tipo di supporto venne realizzato nel 1994 dalla SanDisk. La scheda si basa sullo
standard PCMCIA (Personal Computer Memory Card International Association) e può essere
utilizzata attraverso un adattatore meccanico negli slot di PC Card presenti su buona parte dei
computer portatili. Hanno una dimensione di 43 × 36 mm e sono state prodotte secondo due
fattori di forma: tipo I con spessore di 3,3 mm e tipo II con spessore di 5 mm. Hanno un peso
che varia tra gli 8 ed i 12 grammi. Le capacità iniziali non superavano i 200 MB per le tipo I e i
300 MB per le II, ma ora possono raggiungere i 16 GB. Utilizzano una connessione a 50 pin ad
inserimento meccanico. Nel corso degli anni a queste due tipologie se ne è aggiunta una terza
chiamata Ultra Compact Flash (attualmente Ultra II e Ultra III con capacità fino a 16 GB), che
ha un transfer-rate doppio rispetto alle tradizionali card (10 MB/s per le Ultra II e 20 MB/s
per le Ultra III). Quest'ultimo supporto venne creato principalmente per la registrazione di
sequenze fotografiche ad alta risoluzione, ed ha rappresentato un ottimo compromesso fino
all'entrata sul campo di formati più innovativi. Inoltre, per aumentarne la diffusione sono stati
introdotti una serie di lettori/adattatori che permettono l'utilizzo su porta USB o direttamente
attraverso un lettore di dischetti.
SmartMedia
Una SmartMedia da 32 Mb
Supporto inizialmente chiamato SSFDC (solid-state floppy disk card), sviluppato da Toshiba.
Dimensionalmente è simile alle CompactFlash (45 × 37 mm), ma risulta essere decisamente
più sottile raggiungendo lo spessore di circa 1 mm (0,76 mm per la precisione). Sono anche
più leggere visto che il loro peso arriva a circa 2 grammi. Utilizzano una connessione a 22 pin
ad inserimento meccanico. A differenza delle Compact Flash non contengono un controller
integrato; infatti alcuni dispositivi non sono in grado di gestire SmartMedia con capacità
superiori ai 16 o 32 MB, anche se il limite architetturale effettivo di queste card è di 128 MB.
La mancanza del controller permetteva costi di produzione contenuti.
MultiMediaCard e TwinMOS-MMC
L'arrivo di questo tipo di scheda di memoria rappresentò una vera svolta. Nacque nel 1997 da
una collaborazione tra SanDisk e Samsung, le quali puntarono ad un supporto poco
ingombrante e sottile. In effetti il risultato è di tutto rispetto visto che le dimensioni sono
simili a quelle di un francobollo (24 × 32 mm) per uno spessore di soli 1,4 mm. Pesano meno
di 2 grammi. La velocità di lettura e scrittura è doppia rispetto alle CF e già nel 2002 offrivano
capacità fino a 128 MB. Un'altra novità è il tipo di collegamento che non è più a pin ma è
costituito da contatti meccanici (7 linee) decisamente più versatili e meno inclini a
danneggiarsi. Infine presentano la possibilità di cifrare il contenuto informativo, cosa che
risulta particolarmente interessante tant'è che nasce una associazione chiamata MMCA
(MultiMedia Card Association) di cui fanno parte importanti produttori come HP, Siemens,
Palm per promuovere l'utilizzo di questo supporto nella distribuzione di materiale protetto da
copyright. In genere raggiungono un velocità di trasferimento di circa 2,5 MB/s.
Memory Stick
Rappresentano una soluzione completamente proprietaria nata in casa Sony. Anche questo
tipo di memoria utilizza, come per i precedenti dispositivi di tipo flash, un contenitore fatto di
materiale plastico particolarmente resistente agli urti. La novità rispetto agli altri supporti è
che presentano un selettore per evitare la cancellazione accidentale del dispositivo. Hanno
dimensioni di 21,5 × 50 mm con spessore di poco inferiore ai 3 mm. Pesano circa 4 grammi e
utilizzano una contattiera a 10 linee. Hanno subito un'evoluzione prettamente dimensionale
che ha portato alla nascita di un nuovo supporto chiamato MemoryStick Duo. Le dimensioni
si riducono raggiungendo i 20 x 32 mm con uno spessore di 1,6 mm. Funzionalmente però
rimangono praticamente identiche al formato precedente. Teoricamente secondo il progetto di
Sony potrebbero raggiungere capacità di 32 GB, ma sul mercato sono reperibili quelle che
arrivano a 16 GB. La velocità di trasferimento va da 15 MB/s a 30 MB/s (sustained, MS HG).
SD
Una Secure Digital da 512 MB
Questa tecnologia nasce nel 1999 e viene sviluppata in un progetto congiunto da Panasonic
Corporation, Toshiba e SanDisk. Fondamentalmente concentra le migliori caratteristiche di
tutti gli altri supporti. Hanno un velocità di trasferimento molto elevata ed un consumo
energetico ridotto (in sleep = 250 uA, Lettura / Scrittura = 80 mA). Sono di dimensioni molto
contenute (32 × 24 mm per 2,1 mm di spessore), hanno un collegamento a contatti metallici (9
linee) e pesano circa 2 grammi. Offrono capacità di memorizzazione elevate (attualmente sono
disponibili i tagli da 128 GB) e funzionalità di cifratura del contenuto, con una velocità di
trasferimento che raggiunge i 22,5 Mb/s nelle nuove 150x. Presentano, inoltre, un selettore
per renderle read-only al fine di evitare la cancellazione accidentale dei dati. Sul mercato è
stata presentata anche una scheda con un fattore di forma ridotto chiamato MiniSD messa a
punto per venire incontro alle esigenze del mercato della telefonia cellulare. Queste schede
hanno dimensioni pari a 21,5 x 20 mm per uno spessore di 1,4 mm ed un peso di 1 grammo.
Permettono di raggiungere degli ottimi livelli di risparmio energetico arrivando a consumare
appena 150 µA in sleep mode, 40 mA in lettura e 50 mA in scrittura. I tagli attualmente
disponibili arrivano a 2 GB. Raggiungono una velocità di trasferimento massimo di 10 Mb/s.
Esistono anche schede di tipo microSD o TransFlash (dimensioni di 15 per 11 per 1 mm). Ultra
II SD è disponibile fino alla capacità di 4 GB ed è dotata di un'interfaccia Universal Serial Bus.
È possibile connettere la memoria direttamente a una porta USB senza la necessità di un
lettore di schede.
MicroSD
La MicroSD (precedentemente TransFlash) è un memoria flash dalle dimensioni ridottissime
(15 × 11 × 1 mm), semi-rimovibile basata sullo standard delle miniSD, questo nuovo tipo di
scheda viene utilizzata da molti telefoni di recente uscita. Esiste con capienza fino a 128 GB.
Per le difficoltà di gestione date le ridottissime dimensioni la TransFlash è un prodotto che
molto probabilmente sarà supportato solo da produttori di telefonia mobile, ma dato
l'incremento di capacità molto probabilmente sarà adottato anche nei palmari. Nel luglio
2005 le TransFlash sono state adottate ufficialmente dalla SDA (SD Card Association)
diventando le microSD.
xD-Picture Card
Una xD-Picture Card da 16 MB
Le xD-Picture Card hanno un peso di soli 2 grammi ed insieme alle transFlash risultano le
memorie flash più piccole disponibili oggi sul mercato, grazie alle sue dimensioni 20 × 25 ×
1,7 mm. La xD Picture Card e stata sviluppata dalla Olympus e prodotta da Toshiba per
rimpiazzare l'oramai datato formato delle SmartMedia. Il formato xD è stato creato pensando
alla futura generazione di macchine fotografiche, che hanno sempre più bisogno di maggiori
capacità di trasferimento dati e capacità di memorizzazione, tutto in formati sempre più
piccoli. Questo formato ha avuto un rapidissimo processo di evoluzione; agli inizi, le xDpicture Card avevano dimensioni di 16 MB, attualmente arrivano anche a 2 GB e in futuro
potranno raggiungere dimensioni di 8 GB. Read/Write Speeds: agli inizi con le schede da
16/32 MB avevano una velocità di trasferimento di 1,3 MB/sec oramai sono arrivati a velocità
come 5 MB/s.
1.5 Introduzione ai formati di salvataggio delle fotografie
Immagini RAW, S-RAW, M-RAW e JPEG
Il formato di un'immagine digitale dipende dall'algoritmo utilizzato per registrarla.
Un'immagine di tipo RAW è quella più ricca di informazioni digitali, cioè è l'insieme
completo di dati acquisiti dal sensore digitale. E' detto anche negativo digitale, dal
momento che l'output finale (immagine JPEG o TIFF, stampa, wallpaper, etc.) può essere
vario e differenziato. E' il formato che consente la massima variazione dei parametri di
scatto in postproduzione, fra cui l'esposizione, il bilanciamento del bianco, etc.
Il formato S-RAW pesa circa la metà del RAW e contiene meno informazioni (la
risoluzione è di circa 1/4 rispetto al RAW), pur mantenendo le potenzialità del formato
RAW. E' un formato utile nei casi in cui la piena risoluzione non è fondamentale.
Il formato M-RAW pesa circa 2/3 del RAW e contiene meno informazioni (la risoluzione è
di circa il 55-60% rispetto al RAW), pur mantenendo le potenzialità del formato RAW. E'
un formato utile nei casi in cui la piena risoluzione non è fondamentale e nella fotografia
sportiva, in cui vi sia un consumo critico di spazio di memorizzazione a causa delle molte
immagini acquisite a raffica. Non adatto a stampe superiori al formato A3.
Il formato JPEG è un formato compresso rispetto al RAW e contiene meno informazioni
digitali, per cui non è consigliabile per stampe superiori al formato A4. Il suo vantaggio sta
nel fatto di essere immediatamente usufruibile nei vari media e dispositivi: pc, iphone,
ipad, web, etc.
Formato
PRO
RAW
Possibilità di postprocessing elevate.
Ampiezza cromatica e tonale massime (12-14 bit).
S-RAW1
Possibilità di postprocessing elevate.
Ampiezza cromatica e tonale massime (12-14 bit).
Produce file più piccoli rispetto al RAW (~ 1/2).
M-RAW2
Possibilità di postprocessing elevate.
Ampiezza cromatica e tonale massime (12-14 bit).
Produce file più piccoli rispetto al RAW (~ 2/3).
JPEG
Immediatamente usufruibile in tutti i dispositivi.
Produce file più piccoli rispetto al RAW.
TIFF
formato introdotto dalla Canon EOS-1D Mark III in poi; 2 formato introdotto dalla Canon
EOS 7D in poi.
1
I dati Exif
I dati EXIF (Exchangeable image file format) di un'immagine sono informazioni che
vengono registrate dalla fotocamera nel file immagine di tipo RAW, TIFF o JPEG.
I dati Exif principali sono di questo tipo: data e ora di scatto, modello della fotocamera e
dell'obiettivo, parametri di scatto (ISO, diaframma, tempo, lunghezza focale,
compensazione dell'esposizione, bilanciamento del bianco, etc.), Copyright,
geolocalizzazione in formato GPX se è presente un ricevitore GPS.
uando si scatta una fotografia, l’immagine viene memorizzata sulla scheda di memoria.
Ilsalvataggio delle fotografie sulla scheda di memoria avviene tramite il processo di
codifica, ovvero la macchina fotografica segue un particolare schema (un codice, appunto)
relativo ad un particolare formato di salvataggio. Questo schema è atto principalmente a
ridurre la dimensione finale dell’immagine, ovvero per comprimerla. Nella maggior parte
delle fotocamere compatte,
le foto sono codificate in formato JPEG quale impostazione predefinita. Molte fotocamere,
comunque (ed in particolare le reflex), possono essere impostate per codificare le foto in
differenti modi, ognuno con i suoi pro e contro.
Generalmente, le compatte salvano in Jpeg mentre, salendo di prezzo e di qualità, si
aggiungono il formato TIFF nonché il formato RAW (nell’articolo RAW vs JPEG ho già
introdotto due dei formati elencati).
Pro e Contro dei formati di salvataggio delle fotografie
JPEG (Joint Photographic Experts Group)
JPEG è sicuramente il più famoso e diffuso formato per
il salvataggio delle fotografie. Utilizzato da tutte le fotocamere digitali, JPEG è un
formato lossy, il che significa che sacrifica la qualità dell’immagine per garantire una
piccola dimensione del file.
I vantaggi di JPEG:
•
File di piccole dimensioni: si possono inserire più immagini nella scheda di
memoria e trasferire le immagini al vostro computer più velocemente.
•
Salvataggio delle foto più veloce. Le raffiche fotografiche sono più rapide.
•
I file JPEG possono essere visualizzati su qualsiasi computer senza software di
terze parti.
Gli svantaggi di JPEG:
•
Quando si cattura un’immagine in formato JPEG, il rumore è ammorbidito e
l’immagine è generalmente nitida . La fotocamera generalmente riduce la
profondità dell’immagine da 12 a 8 bit il che si traduce in una perdita di
dettaglio e qualità.
Utilizzo consigliato per JPEG
•
JPEG è il formato migliore per l’uso fotografico in generale, quali feste ed eventi
sociali in cui è necessario scattare le foto in modo rapido.
•
JPEG generalmente non necessita di alcun passaggio di conversione al computer,
ovvero l’immagine è immediatamente fruibile ovunque.
RAW
I file RAW non sono compressi e non sono trasformati. I file RAW devono in primo luogo
essere elaborati utilizzando il software di terze parti (di solito fornito dal produttore dalla
macchina fotografica prima che possano essere stampati o modificati. I software più
blasonati (quali Photoshop, LightRoom o Aperture) hanno in dotazione un convertitore
(come Camera RAW) il cui scopo è quello di decodificare l’immagine RAW, differente da
macchina fotografica a macchina fotografica (vi rimando all’articolo linkato
in precedenza).
I vantaggi di usare RAW
•
Il vantaggio principale è che l’elaborazione delle immagini viene eseguita sul
computer. Questo significa che se siete in procinto di scattare una foto e non siete
sicuri che il bilanciamento del bianco o le impostazioni di esposizione sono quelle
ottimali, potete (di pochi stop!) elaborare l’immagine al computer correggendo
appunto i parametri di scatto.
•
Un altro vantaggio di RAW è che è un formato senza perdita. Ciò significa che
l’immagine non perde qualità o informazioni (a differenza JPEG). Di
conseguenza, i file RAW sono molto più grandi rispetto ai loro omologhi JPEG.
Gli svantaggi di usare RAW
•
File più grandi significa meno immagini salvate sulla scheda di memoria. I file
RAW sono tipicamente quattro volte più grandi della stessa immagine codificata
in formato JPEG.
•
I file RAW richiedono più tempo per il salvataggio delle fotografie sulla scheda di
memoria ed il buffer della fotocamera si satura prima.
•
Le raffiche fotografiche non sono veloci come in JPEG
•
L’elaborazione di più foto in formato RAW può essere noiosa e richiede tempo.
•
Non esiste un unico formato RAW. Ogni produttore ha la propria variante di
RAW.
Utilizzo consigliato per RAW
RAW è consigliato a tutti coloro che hanno la necessità di un’immagine di massima qualità,
utilizzare. Ma è consigliato anche a chi non sa decidersi al momento su quale sia il miglior
bilanciamento del bianco e / o le impostazioni di esposizione da utilizzare (ad esempio,
quando si scattano foto di bambini / animali domestici che non vogliono stare fermi. In
questi casi è fondamentale poter agire in post-produzione sull’immagine).
TIFF (Tagged Image File Format)
TIFF è un formato che si trova nelle reflex. Si tratta di un formato non compresso.
Tuttavia, quando si scatta una foto utilizzando il formato TIFF, è necessario definire a
priori i parametri di scatto in quanto non potranno essere modificati inseguito: TIFF è
paragonabile ad un JPEG non compresso.
Utilizzo consigliato per TIFF
Il formato TIFF dovrebbe essere usato quando si ha bisogno di un’immagine alla massima
qualità e si ha la certezza di usare il giusto bilanciamento del bianco nonché le
impostazioni di esposizione.
RAW + JPEG
Quando si scatta una foto con RAW + JPEG, la fotocamera fa due copie della foto: una
RAW e una JPEG. Utilizzare la modalità RAW + JPEG porta i vantaggi combinati dei due
formati. L’unico problema è la scheda di memoria che si riempie molto più velocemente e
la fotocamera potrebbe richiedere un po ‘di tempo per scrivere entrambe le immagini nella
scheda di memoria, limitando ulteriormente (rispetto al RAW) le raffiche di foto.
Modo d’uso per RAW + JPEG
Questo formato va bene quando siamo abbastanza sicuri di impostare il
bilanciamento del bianco e l’esposizione, ma si può incorrere in errori. In fase
di post processing, potremo prendere le foto JPEG “buone” e andare a
modificare manualmente quelle che al contrario non ci soddisfano, operando
sulle RAW.
Formati file e flussi di lavoro
Si consideri la seguente situazione: Ci è stato chiesto di creare un panorama
di una spiaggia. Si va in spiaggia, si scattano tutte le foto in formato JPEG
della spiaggia e si torna a casa. A casa, si caricano tutti i file sul computer. Si
modifica ogni foto in Photoshop, (ad esempio luminosità o contrasto). Si salva
quindi ogni immagine in formato JPEG. Successivamente si passa ad unire
tutte le immagini modificate in Photoshop per creare il panorama. Finito il
lavoro, si salva il panorama in JPEG. Una volta osservata la foto, ci si rende
conto che i colori sono troppo brillanti, per cui un ulteriore passaggio in
Photoshop è necessario, con ulteriore salvataggio delle fotografie in JPEG.
Alla fine, il risultato finale sarà da “buttare”. Perché?
Ogni volta che si salva un’immagine in formato JPEG si perde qualità.
Diciamo che (ipoteticamente) ogni volta che l’immagine viene salvata in
formato JPEGsi perde in qualità un 5%, per cui:
1.
2.
3.
4.
Scatto foto 100%-5% -> 95%
Editing singole foto: 95%-5% -> 90.25%
Creazione del panorama e salvataggio: 90.25%-5% -> 85.74%
Ulteriore correzioni sulla foto panoramica: 85.74%-5% -> 81.64%
Come si può vedere, in tutto il flusso di lavoro l’immagine continua a perdere
la qualità. 5% ogni passaggio può non sembrare molto, ma se si considerano i
vari passaggi il risultato è allarmante. Il modo migliore per risolvere questo
problema è quello di usare file non compressi, partendo da un RAW o da un
TIFF:
•
•
•
•
•
Scattate le foto in formato RAW o TIFF.
Se si sceglie il formato RAW, elaborate l’immagine e quindi salvatela
come TIFF (o PSD, il formato lossless di photoshop).
Aprite il vostro software di editing delle immagini e modificate le
immagini.
Una volta terminata la modifica, salvate come TIFF o PSD.
Create il vostro panorama e salvatelo ancora una volta come TIFF o
PSD.
•
Editatelo quante volte volete e salvate il TIFF finale.
Il questo modo l’immagine conserva il 100% di qualità (utilizzando questo
metodo, ovviamente le dimensioni dei file sono molto più grandi rispetto al
formato JPEG).
Salvataggio delle fotografie: Condivisione
Una volta che avete la vostra fotografia definitiva in formato TIFF, potete
pensare a come consividerla o conservarla (se avete problemi di spazio). La
cosa più semplice da fare è creare, partendo dal TIFF di cui sopra, un JPEG:
questo sarà ovviamente molto più piccolo a scapito di una perdita di qualità,
come ipotizzato in precedenza, del 5%. Si tratta di un valore tutto sommato
accettabile, soprattutto se l’intento è porre queste immagini sul web o se
vanno inviate tramite posta elettronica. JPEG, ricordo, permette in fase di
salvataggio, di definire la qualità finale dell’immagine. Selezionando il valore
compreso tra 10 e 100 sarà possibile definire la quantità di informazione che
si accetta venga perduta (100 è molto limitata, 10 indica una qualità molto
scarsa) a vantaggio della qualità: sta a voi decidere quale valore impiegare in
funzione dell’uso finale dell’immagine
1.6Metadati EXIF
La Japan Electronic Industry Development Association (JEIDA) ha
compilato le specifiche per i metadati di una immagine digitale scattata
mediante una fotocamera digitale. Le specifiche si chiamano Exif e sono
supportate dai formati JPEG (non da JPEG 2000), TIFF Rev. 6 e RIFF WAVE
audio file oltre che dalla gran parte dei formati Raw.
Lo standard Exif
Tutti i fotografi sanno che Exif sono quelle informazioni (come la data, tempo
di esposizione, lunghezza focale e molte altre) che vengono inserite
come metadati (cioè dati che si riferiscono ad altri dati, quelli dell’immagine)
in uno scatto fotografico.
Questi dati sono molto importanti, e anche le più semplici tra le operazioni
delle fotocamere non sarebbero fattibili senza le informazioni Exif. Una
applicazione può decidere, per esempio, di ruotare l’immagine oppure di
mantenere, durante il trasferimento dalla fotocamera al computer la data di
scatto separata dalla data di trasferimento. Un software di visualizzazione può
leggere l’informazione sul bilanciamento del bianco e operare le regolazioni
appropriate.
Exif, tuttavia, non consiste solo di informazioni aggiunte all’immagine
scattata, ma è un sistema più complesso di quanto normalmente si pensi.
Vediamo come stanno le cose.
Breve storia di Exif e DCF
Exif, come dice il nome (Exchangeable Image File Format), è un formato
grafico progettato per le fotocamere digitali (DSC, digital still camera)
dalla Japan Electronics and Information Technology Industries Association.
Il formato Exif è nato nel 1995 per standardizzare i precedenti sistemi di
informazione e per facilitare l’interscambio dei dati. Prima del 1995 c’erano i
formati JPEG e TIFF che costituiscono ancora oggi la struttura di base per la
memorizzazione e compressione dei dati raster. Infatti Exif si basa sui formati
JPEG e TIFF ai quali aggiunge i metadati.
Nel 1999 è stato pubblicato un secondo standard, il DCF (Design Rule for
Camera File Systems). Si tratta del file system cioè del metodo per
memorizzare e organizzare i file Exif sui supporti di registrazione, in modo
che siano leggibili da computer e periferiche (fotocamere, stampanti, dischi)
diverse. Oggi questo file system viene usato praticamente da tutte le
fotocamere digitali.
Altri esempi di file system sono quelli usati su Mac OS X (HFS+), Windows
NT (NTFS), e sui CD e DVD (UTF).
Dal 1999 Exif e DCF viaggiano in coppia. Dopo l’uscita di DCF, Exif è stato
aggiornato alla versione 2.2 all’inizio del 2002. Questa versione è nota anche
come ExifPrint. All’uscita di DCF 2, Exif è stato aggiornato alla versione 2.2.1
alla fine del 2003. L’ultima versione è la 2.3 di aprile 2010.
VERSIONE
DATA
Exif 1.0
ottobre 1995
Exif 1.1
maggio 1997
Exif 2.0
novembre 1997
Exif 2.1
giugno 1998
DCF 1
gennaio 1999
Exif 2.2 (aka ExifPrint) febbraio 2002
DCF 2
settembre 2003
Exif 2.2.1
settembre 2003
Exif 2.3
aprile 2010
Scrittura dei tag Exif
I metadati EXIF si suddividono in tre gruppi:
•
•
•
metadati che riguardano la fotocamera;
metadati che riguardano l’immagine;
altri metadati.
La registrazione di informazioni specifiche che riguardano la fotocamera
comprendono marca, modello, numero di serie, disposizione dei filtri, tipo di
sensore, apertura massima, versione del software e molto altro.
Ecco un breve estratto:
Make
: NIKON CORPORATION
Camera Model Name
: NIKON D100
Software
: Ver.2.00
Bits Per Sample
: 12
CFA Pattern
: [Blue,Green][Green,Red]
Compression
: Nikon NEF Compressed
Le informazioni specifiche dell’immagine scattata riguardano per esempio la
data di scatto, tempo, otturatore, uso del flash, lunghezza focale e possono
comprendere anche una immagine di preview othumbnail di 160 x 120 pixel.
Ecco un breve estratto:
Image Width
: 3034
Image Height
: 2024
Exposure Time
: 1/60
F Number
: 5.6
Exposure Program
: Program AE
Create Date
: 2004:10:17 11:03:36
Exposure Compensation
:0
Metering Mode
: Multi-segment
Flash
: Fired, Return detected
Focal Length
: 24.0 mm
Exif consente inoltre ai produttori di memorizzare informazioni proprietarie
(che non seguono lo standard Exif) in speciali campi detti maker notes. Molti
produttori inseriscono in questi campi informazioni sulle impostazioni della
fotocamera, modalità di flash ed esposizione, o dati di dettaglio sullo scatto,
anche in maniere criptata.
I tag Exif possono essere scritti non solo dalle fotocamere digitali ma, per
esempio, anche dagli scanner e da qualsiasi applicazione sia in grado di farlo.
Lettura dei tag Exif
La versione 7 del 2002 è la prima versione di Photoshop nella quale si
possono leggere alcuni tag Exif, direttamente in Photoshop o nel File
Browser.
In Photoshop CS2 (9) le informazioni Exif si possono vedere in File > Info file
nei pannelli Dati fotocamera 1 e 2 e Avanzate > Proprietà Exif (sono un po’ da
interpretare).
In Bridge, si possono vedere nel tab Metadati, Dati fotocamera (Exif). Qui ci
sono i dati un po’ interpretati. Vedi per esempio MeteringMode.
In Mac OS X alcune di queste informazioni possono essere viste direttamente
dal Finder (File > Get Info > More Info). Su Windows si può fare clic destro e
scegliere Proprietà e poi Summary.
Ci sono anche numerose utilities che leggono i dati Exif. La più nota e
completa è ExifTool.
Su Mac OS X si installa l’applicazione (c’è già un package pronto), quindi si
apre il Terminale (sta nelle Utilities) si scrive exiftool, uno spazio, e
il path della immagine Raw che si vuole esaminare (o meglio si trascina
l’icona del file nella finestra del Terminale), per esempio
exiftool fotografie/DSC0233.NEF
L’utilità elencherà decine e decine di tag Exif contenuti nel file Raw. Gran
parte di questi tag (come per esempio il tag Color Space) vengono utilizzati
solo per l’elaborazione interna di una immagine e non giocano alcun ruolo nel
caso di dati Raw elaborati esternamente.
Anche Exif Viewer è molto comodo perché funziona direttamente da una
pagina web.
Spazio colore in Exif
La versione 2.0 di Exif ha introdotto un particolare tag chiamato “color
space” che indica lo spazio colore associato all’immagine salvata dalla
fotocamera.
Questo tag può avere solo due valori: sRGB oppure Uncalibrated (che
significa non sRGB), cioè il tag può solo dire se l’immagine è in sRGB o non lo
è. Non c’è modo per esempio di indicare che l’immagine è in Adobe RGB.
Tecnicamente il tag ColorSpace occupa 16 bit e i due valori consentiti sono 1
(che indica sRGB) e #FFFF (esadecimale, che indica Uncalibrated).
Dalla versione 2.21 di Exif (e versione 2 di DCF) è stato introdotto il nuovo
tag InterOperability Index e così le indicazioni possibili sono tre (non solo
due): sRGB, Adobe RGB oppure Uncalibrated(cioè qualcosa di diverso dai
primi due spazi). Tutto questo è stato realizzato mediante unmeccanismo
di tag (vedi qui sotto), che è complesso ma comunque funziona, e la
fotocamera comunica, mediante le informazioni Exif, lo spazio colore corretto
(se è sRGB o Adobe RGB).
In breve:
• Se InterOperability Index = R03 lo spazio è Adobe RGB. Finito.
• Se InterOperability Index = R98, allora
o se ColorSpace = sRGB lo spazio è sRGB. Finito.
o altrimenti lo spazio non è né Adobe RGB né sRGB (Uncalibrated).
Finito.
In dettaglio:
Per decidere lo spazio colore, Exif 2.21 agisce come segue:
1. Viene letto il tag InterOperability Index. Questo tag può avere solo due
valori: R98 oppure R03.
2. Se il valore è R98, viene letto il tag ColorSpace, che può avere solo due
valori: sRGB oUncalibrated. Nel primo caso si dichiara che l’immagine è
nello spazio sRGB, nel secondo che non lo è. Ogni altro tag riguardante il
colore (cioè quelli elencati qui sotto) viene ignorato.
3. Se invece il valore è R03, il tag ColorSpace può avere solo il
valore Uncalibrated (per specifica). In tal caso si controllano i tag relativi
al colore, che sono i seguenti e dai quali si ricostruisce lo spazio colore:
o WhitePoint
o PrimaryChromaticities
o YCbCr coefficients
o ReferenceBlackWhite
o Gamma (se non c’è, Transfer Function)
4. Tuttavia questi tag, per specifica, sono fissi sulle caratteristiche di Adobe
RGB, cioè sui seguenti valori e quindi di fatto, indicano questo spazio
colore.
o
o
o
5.
WP =
0.313 0.329
PC = (0.64 .33) (0.21 .71) (0.15
G = 2.2
.06)
1-7 Le ottiche e il fattore di conversione
Obiettivi e sensori digitali
Nella pagina dedicata ai sensori digitali si diceva che la dimensione del
sensore determina la dimensione dell'immagine registrata, quindi influenza le
proporzioni fra soggetto e fotogramma.
Come già detto, un sensore di dimensioni ridotte porta ad una riduzione del
campo inquadrato rispetto a quello inquadrato in condizioni full-frame:
Questa riduzione del campo inquadrato è paragonabile ad un aumento della
lunghezza focale dell'obiettivo: è come se si stesse fotografando con un
obiettivo più potente, cioè con un angolo di visione più stretto. In modo molto
facile da ricordare si può pensare che un obiettivo di focale 100mm
equivarrebbe ad un 130mm su sensore 1.3x e ad un 160mm su sensore 1.6x.
Quindi, il rapporto fra i diversi sensori è un rapporto di moltiplicazione della
lunghezza focale dell'obiettivo per un fattore di conversione 1.3 o 1.6 rispetto
al full-frame. Ma sempre dal punto di vista del campo inquadrato, non della
lunghezza focale che rimane sempre quella!
Ne consegue che, montando un obiettivo progettato per il full-frame su una
fotocamera dotata di sensore più piccolo, si ottiene un campo più stretto,
equivalente ad una lunghezza focale maggiore. Questo è di grande vantaggio
nella fotografia con teleobiettivo, o in macrofotografia, dal momento che la
potenza dell'obiettivo viene aumentata. Lo svantaggio è invece nelle focali
"corte", o grandangolari, dal momento che un grandangolare progettato per
il full-frame darà angoli di campo da obiettivo "normale" sul sensore di
dimensioni minori, pur rimanendo di lunghezza focale grandangolare:
E' per questo che sono nati gli obiettivi specifici per i sensori piccoli, capaci
cioè di riportare l'angolo di campo delle lunghezze focali nominali a quello
effettivo. Un 28-135mm, ad esempio, risulterebbe come un 45-216mm su un
sensore 1.6x, per cui si perderebbe la possibilità della fotografia
grandangolare. Ecco che viene costruito il suo equivalente specifico per quel
sensore, cioè un 17-85mm.
Ma, a sua volta, ne consegue che non sarà possibile montare un obiettivo
progettato per un sensore più piccolo su una fotocamera dotata di un sensore
più grande, pena una evidentissima vignettatura - se venisse montato su un
sensore 1.3x - o il totale annerimento dei bordi del fotogramma - se venisse
montato su un sensore full-frame:
A parità di lunghezza focale (es. 100mm), profondità di campo e prospettiva
non variano se si confrontano le immagini di una full-frame con le immagini
di una fotocamera a sensore più piccolo.
Ben diverso il discorso nelle digitali compatte: le ottiche sono incorporate e
già ottimizzate per il sensore della fotocamera. Per cui le funzioni
grandangolari sono già assicurate. Inoltre, non si corre il rischio di polvere sul
sensore dovuta al cambio di obiettivi. Ma, ovviamente, le compatte sono
compatte e le reflex sono un'altra cosa.
2.1 Spazi colore
IL CONCETTO DI SPAZIO COLORE- Lo spazio colore è il Gamut
riproducibile. Il Gamut è la rappresentazione matematica dello spazio o del
quantitativo di colori ottenibili in un flusso di lavoro. Ilflusso di lavoro è
l’insieme di apparecchi utilizzati per un determinato risultato, e il Gamut è
stabilito dall’apparecchio più limitato.
Anche la visione umana ha un suo Gamut, molto esteso rispetto a quelle delle
nostre apparecchiature elettroniche ma anch’esso limitato. Nel 1931 si arrivò
a una definizione di tale spazio e fu nominato C.I.E. 1931. Il risultato fu
questo grafico che pubblichiamo qui sotto.
Il grafico CIE 1931 rapprensenta la gamma dei colori percepibili dall'occhio
umano.
Senza andare ad approfondire teorie prettamente matematiche, a noi
fotografi preme sapere che questo è il grafico di riferimento dei colori assoluti.
Oltre il bordo rappresentato, il nostro occhio non percepisce alcun colore.
Poiché le nostre apparecchiature digitali, o meglio la nostra catena
digitale (macchina fotografica, scanner, monitor, stampante e così via) non
hanno la possibilità di raggiungere tali estensioni di colore, si è reso
necessario creare degli specifici spazi di colore che fossero interpretati allo
stesso modo da tutte le apparecchiature. Lo spazio colore quindi è una
successiva interpretazione della gamma tonale in versione ridotta e limitata
con nuovi bordi e nuovi limiti all’interno del grafico C.I.E. 1931.
Essendoci diverse tipologie di lavoro o finalità specifiche (una stampa ha delle
esigenze molto diverse rispetto a una pubblicazione online) ci sono anche
diversi spazi di colore studiati e resi disponibili secondo le situazioni.
sRGB E ADOBE RGB - Inizialmente prenderemo come esempio due degli
spazi colore più conosciuti, utilizzati e dibattuti del momento, lo spazio
colore sRGB e l’AdobeRGB. Tra fotografi un po’ "impallinati" dalle
procedure tecniche è sempre presente il dibattito su quale dei due spazi colore
è meglio utilizzare. Intanto bisogna premettere che questi parametri possono
essere impostati sulla macchina fotografica e ciò influirà su tutto il successivo
processo di sviluppo delle immagini.
sRGB
Lo spazio sRGB ha un Gamut molto limitato, cioè la sua rappresentazione dei
colori reali è molto compressa e quindi incapace di riprodurre passaggi tonali
complessi o ampi.
Lo spazio colore sRGB (delimitato dal triangolo nero) è ideale per i monitor,
che lo riproducono per intero.
Il suo contrasto e la saturazione dei colori, invece, sono degni di nota. Lo
spazio sRGB ha una predisposizione a preservare i toni chiari delle immagini
(quando un colore è fuori dal Gamut del profilo colore scelto, viene convertito
al colore più prossimo all’interno dello spazio disponibile) che lo rendono
molto interessante nell’uso di output quali i monitor. Potremmo quindi
affermare che lo spazio colore sRGB è l’ideale quando il nostro lavoro finale
ha una collocazione visibile prettamente a monitor, quindi pubblicazioni web,
presentazioni online o su supporto CD–DVD. Se la stessa immagine la
dovessimo utilizzare per delle stampe, la sua ridotta capacità di riproduzione
di toni potrebbe generare qualche delusione.
Adobe RGB
Il suo “antagonista”, lo spazio colore Adobe RGB, ha uno spazio molto più
ampio, soprattutto sulla zona dei verdi. Riesce a dare degli incarnati più reali
e riesce a riprodurre meglio i toni nelle zone d’ombra.
Lo spazio colore Adobe RGB è più ampio dell'sRGB.
Verrebbe da dire che questo è lo spazio migliore da utilizzare (in effetti, io lo
uso) ma la risposta è meno scontata del previsto. Come detto in precedenza, la
scelta è in base alla funzione, non in base al suo Gamut. Il profilo Adobe RGB
non è completamente riproducibile dai monitor, pertanto ci ritroveremmo a
gestire un maggior numero di colori ma non potremmo visualizzarli
correttamente durante la postproduzione, o almeno fino a quando non
estenderanno anche il Gamut delle periferiche di visualizzazione.
FORMATI FILE E SPAZI COLORE - Per chi scatta direttamente in
formato jpeg, è necessario comunicare alla macchina fotografica in quale
spazio vogliamo che siano convertiti i colori (vi prego di leggere le istruzioni
dei manuali inerenti alle vostre macchine fotografiche, le procedure possono
essere simili ma non uguali). Personalmente metterei Adobe RGB poiché
avendo un maggiore Gamut, posso sempre fare una conversione dello spazio
colore senza perdite o compressioni di toni.
Per chi scatta in RAW, la cosa è molto più semplice (per questa ragione
consiglio sempre di scattare con questo formato). Il RAW è un formato grezzo
che accumula tutti i dati di scatto, li memorizza ma non li processa
definitivamente, lasciando al fotografo la possibilità di scegliere molti dei
parametri in postproduzione. Il formato RAW, quindi, non ha uno specifico
spazio colore e ci permette di sceglierlo nella fase di conversione del
file in jpeg. Potremmo, a seconda delle situazioni, adoperare un certo profilo
oppure un altro secondo lo scopo che ci siamo prefissati.
PRO PHOTO RGB - Oltre a questi due profili è possibile sceglierne
addirittura altri e anche migliori. Uno in particolare denominato Pro Photo
RGB ha uno spazio molto più ampio rispetto allo stesso Adobe RGB (riesce
addirittura a catturare colori fuori dallo spettro del nostro visibile).
Lo spazio colore Pro PhotoRGB comprende anche colori non visibili
dall'occhio umano.
Purtroppo con le periferiche attuali non è possibile ottenere la gamma di
colori che esprime né su stampanti inkjet né tantomeno a monitor. Sarà lo
spazio colore del futuro.
SINCRONIZZARE IL SOFTWARE - Se avete deciso di cambiare il profilo
colore della vostra digicamera (di solito impostato su sRGB), e anche se
lavorate in Raw, dovete andare a vedere se il vostro software di gestione dei
file è “sincronizzato” con le decisioni prese da voi e dalla macchina
fotografica. Ovviamente prendiamo come esempio Photoshop.
Andate sul menù a cascata modifica e cliccate sulla scelta "impostazioni
colore".
Sulla finestra che vi apparirà, vi saranno molte possibilità di
personalizzazione. Io ve ne consiglio una già bella e pronta. Su impostazioni
(il primo menù a cascata disponibile) scegliete l’opzione "prestampa
Europa 2" sostituendo quella data di default "Uso generico Europa 2".
Questa sostituzione imposterà immediatamente il profilo Adobe RGB.
Nella prossima e ultima puntata sulla teoria del colore, tutte le informazioni
utili per avere la migliore calibrazione possibile del monitor e l’ottenimento di
stampe con colori più fedeli possibili.
2.2.Profondità Bit e Gamma
gamma dinamica e profondità di bit
La fotografia nasce come un processo chimico, in cui una pellicola sensibile
viene impressionata dalla luce e forma un'immagine latente che poi viene
rivelata tramite bagni chimici.
La fotografia digitale, invece, non è un processo chimico e si attua in tempo
reale, al punto che l'immagine scattata è immediatamente visibile sul display
della fotocamera.
L'immagine digitale (detta anche immagine raster o bitmap) che il
computer ci mostra a video è in realtà una matrice di punti (pixel), cioè è una
rappresentazione numerica binaria (0, 1, cioè bit). Nella matrice, ogni pixel è
definito da una posizione nel piano e da un valore, che
corrisponde al livello di intensità
corrisponde al livello di intensità dei colori primari RGB che quel pixel
assume nell'immagine.
Un'immagine digitale di tipo bitmap è una matrice di pixel caratterizzati da
posizione e da precisi valori RGB.
Profondità di bit
La profondità di colore (color depth) o profondità di bit (bit depth), è la
quantità di informazione digitale (bit) necessaria per rappresentare il colore
di un singolo pixel nell'immagine: una profondità di colore elevata
corrisponde a una gamma tonale elevata. Nell'immagine che segue si nota
come all'aumentare della profondità di bit aumenti la quantità di grigi che è
possibile registrare nell'immagine. In parole povere si può dire che la
profondità di bit identifica il numero di toni che passano dal pixel più scuro a
quello più chiaro dell'immagine.
Immagini con diversa profondità di bit registrano un numero di grigi
differente,
cioè registrano una differente gamma tonale.
Le immagini fotografiche che siamo abituati a maneggiare con le nostre
fotocamere si dicono a 24 bit, o truecolor, capaci cioè di registrare una
gamma tonale molto elevata e prossima alla realtà. I 24 bit derivano dal fatto
che i tre colori primari RGB vengono registrati ognuno con 256 toni (o livelli)
possibili, cioè con 8 bit di informazione. Per cui 3 x 8 = 24 bit totali. I 256
livelli sui tre canali producono 256 × 256 × 256 = 16.777.216 = 16,7 milioni di
colori distinti.
Colore lab
Il colore è sempre stato un fattore importante in image editing e graphic
design. Quando si lavora in Photoshop, si possono scegliere diverse modalità
di colore. Le più comuni sono RGB e CMYK.
Senza dubbio, avrete notato che queste modalità di colore sono un po',
diciamo, approssimate. Per esempio, RGB consente di creare sorprendenti,
blu vibranti, verdi scuri e viola. Questo è ottimo sullo schermo, ma quando si
tenta di stampare questi colori su una stampante CMYK, appaiono come se la
cartuccia di inchiostro nero prevalesse su quelle del colore. Inoltre,
utilizzando RGB, è quasi impossibile creare gialli ricchi ed arancioni.
D'altra parte, anche CMYK è abbastanza limitato nella rappresentazione dei
colori. La dura verità, purtroppo, è che se devi stampare, devi farlo in CMYK.
Questo è solitamente il fattore determinante nel decidere quale modalità
colore utilizzare. Ma c'è un'altra opzione che offre una selezione infinita di
colori, la modalità Lab di Photoshop. In questo articolo esploreremo i
vantaggi di utilizzare la modalità Lab e vedremo come creare immagini con
colori più vivaci.
Origini del Colore Lab
Nel 1931 la Commission Internationale d'Eclairage (CIE) propose un modello
che visualizza ogni colore percepito dall'occhio umano. Nel 1976, questo
modello è stato aggiornato e raffinato, al fine di creare il sistema di colore CIE
Lab. A differenza dei colori RGB che dipendono dallo schermo e dai colori
CMYK che variano con le caratteristiche della stampante, inchiostro e carta, i
colori CIE Lab sono indipendenti dal dispositivo utilizzato.
Pertanto, le caratteristiche visive di questi colori rimangono coerenti su
monitor, stampanti e scanner.
Come funziona
In Photoshop, la modalità Lab consiste in tre canali di colore, come mostrato
nella figura A.
Il primo è Luminosità (L). E' la componente altrimenti nota come luminanza,
può variare da 0 a 100. Un valore di luminosità pari a 0 è uguale al nero e un
valore di 100 è uguale al bianco. Così, maggiore è il valore, più vivido il colore.
Gli altri due canali, a e b, rappresentano le gamme di colori. Il
canale a contiene colori che vanno dal verde al rosso e il canale b contiene
colori che vanno dal blu al giallo. La figura B mostra come la nostra immagine
originale è ripartita all'interno i canali.
- Figura A
La modalità Lab di Photoshop è costituita da tre canali: Luminosità
(Lightness), a e b.
- Figura B
Ogni canale rappresenta pixel specifici all'interno di un'immagine.
2.3 RGB, CMYK, LAB
I vantaggi di lavorare in modalità Lab
Uno dei vantaggi principali che si notano quando si lavora in modalità Lab è
che si ha la disponibilità di una vasta gamma di valori di colori tra cui
scegliere. La figura C Mostra i colori ad alta intensità disponibili in questa
modalità rispetto a quelli in RGB e CMYK. Il modello di colore Lab infatti
comprende tutti i colori che si possono creare in modalità RGB e CMYK.
Oltre ad avere la flessibilità massima sul colore, lavorare in modalità Lab
risulta più veloce rispetto alla modalità RGB o CMYK. Inoltre, tenete presente
che anche se si sta lavorando in modalità CMYK, il monitor è in RGB quindi
Photoshop deve continuamente convertire questi valori.
Poiché la modalità Lab è indipendente dal dispositivo usato, è possibile
utilizzarla per modificare qualsiasi immagine. I colori inoltre non subiscono
importanti cambiamenti tonali quando vengono convertiti in CMYK per
l'output finale. Questa è una delle ragioni per cui molti degli utenti di fascia
alta preferiscono lavorare in modalità Lab.
- Figura C
Il modello di colore Lab comprende tutti i colori disponibili in modalità RGB
e CMYK.
Stampa colori Lab
Se si lavora in modalità Lab, non ci sono davvero limitazioni quando si
selezionano o modificano i colori sullo schermo. Anche se uno qualsiasi dei
colori cade fuori della gamma CMYK, si può regolare. Ciò tende a verificarsi
quando si lavora con tonalità di blu e viola molto vivaci. Un modo per evitare
eventuali alterazioni di colore è quello di stampare su una stampante
PostScript livello 2 o livello 3. È possibile stampare un'immagine in modalità
Lab direttamente su una di queste stampanti per evitare eventuali modifiche
dei colori.
Divertirsi con i colori Lab
Ora che conoscete i fondamenti dei colori Lab, esploreremo il loro lato
creativo. Una delle caratteristiche più interessanti del funzionamento in
modalità Lab è che è possibile modificare i colori di un'immagine con estrema
facilità. Prendiamo, ad esempio, l'auto d'epoca, la Hot Road, illustrata nella
figura D. I colori sono divertenti, ma se serviva la stessa immagine con colori
più tenui, o se si volevano invertire le aree verdi e rosa? Si possono fare
entrambi con pochi clic del mouse. E quello che è ancora meglio, non ci si
deve preoccupare di perdere alcun dettaglio dall'immagine originale.
- Figura D
Vediamo in quanti modi possiamo colorare la nostra immagine originale.
Lo scambio di colore
Per iniziare, aprite un'immagine a colori in Photoshop e convertitela in
modalità Lab.
Per farlo, selezionate: Immagine > Modalità > Colore Lab. Poi cliccate sulla
palette dei canali (se è nascosta, scegliete finestra > visualizza canali) e
selezionate il canale a. Questo canale mappa i verdi e i magenta. Invertiamo
questi colori scegliendo Immagine > Adjust > Invertire, o premendo (Ctrl+I
in Windows-cmd + I col Mac). Dopo aver invertito il canale a, fate clic sul
canale più in alto, Lab, per vedere i risultati.
La figura E dimostra come i verdi sono stati sostituiti con sfumature magenta
e viceversa.
Ora, ripetete questi passaggi per il canale b. Si noti come il blu e il giallo siano
invertiti, come mostrato nella figura F.
- Figura E
Invertendo i colori del canale a siamo stati in grado di invertire i rosa e i
verdi.
- Figura F
Invertendo i colori trovati del canale b siamo stati in grado di invertire
azzurri e gialli,
dando alla nostro hot rod un nuovo look.
Sostituzione colore
Utilizzando i canali non solo si possono invertire i colori, ma si può anche
sostituire un colore. Aprite una nuova immagine in Photoshop e convertitela
in modalità Lab. Selezionate il canale a o il b e scegliete
Immagine > Adjust > Sostituisci colore.Nella finestra di dialogo Sostituisci
colore, mostrata nella figura G, selezionate il colore che si desidera sostituire.
È possibile farlo cliccando sulla finestra di anteprima con lo strumento
contagocce, oppure facendo clic su un'area di colore direttamente sulla vostra
immagine.
Impostate il cursore di tolleranza a 40 e scegliete il pulsante di opzione di
selezione. Quindi regolate il cursore di Luminosità (Lightness) per ottenere il
risultato desiderato. Fate clic su OK per applicare le modifiche. Ancora una
volta, selezionate il canale Lab, nella palette canali, per vedere i risultati finali.
Abbiamo selezionato il canale b e aumentato la Luminosità + 70 per creare gli
effetti mostrati in figura H.
- Figura G
Qui abbiamo sostituito un colore specifico nella nostra immagine all'interno
di un canale.
- Figura H
Modificando un colore all'interno della nostra immagine la nostra hot rod
ha cambiato carattere.
Unitevi alla comunità degli appassionati del colore
Questi sono solo due semplici esempi di come ci si può divertire con i colori
utilizzando i canali in modalità Lab. Sperimentando ulteriormente con i
comandi Livelli e Curve, vi stupirete dei risultati.
Lab Color quindi è utile, conveniente e divertente, allora perché limitarsi ai
colori RGB o CMYK quando si può avere il meglio dei due mondi? Provate,
magari vedrete che una volta sperimentato il Lab, non si torna indietro.
Nella maggioranza dei casi questo è un numero di sfumature più che
sufficiente ad approssimare la realtà.
Spazio colore
Lo spazio colore assegna una precisa gamma cromatica all'immagine. I più
comuni spazi oggi utilizzati sulle macchine fotografiche digitali e scanner
sono i seguenti:
sRGB, è l'unico spazio colore standard per i vari dispositivi video, di stampa
e internet, creato da HP e Microsoft; presenta alcune limitazioni nello spazio
del Ciano-Verde, per cui non riesce ad includere tutte le sfumature CMYK.
Le immagini acquisite in sRGB sembrano più sature di quelle Adobe RGB, ma
hanno un numero minore di sfumature.
ADOBE RGB (1998), spazio colore creato da Adobe in particolare per le
stampanti CMYK; produce immagini meno sature ma più ricche di sfumature
e più adatte al ritratto, anche se poi i monitor non sono in grado di mostrarlo.
La differenza principale fra gli spazi colore è quindi la diversa gamma
cromatica (gamut) che può essere registrata.
3 regole generali:
•
•
•
1. Se si scatta in RAW la fotocamera ignora lo spazio colore. Questo viene
applicato in postproduzione tramite il software usato per la conversione da
RAW a TIFF/JPEG, come Canon DPP, Adobe Camera Raw, Lightroom, etc.
Se invece si fotografa direttamente in JPEG, allora è determinante impostare
lo spazio colore nel menu della fotocamera.
2. In postproduzione è sempre possibile convertire un'immagine che ha
spazio colore Adobe RGB in un'immagine con spazio colore sRGB, ma non
viceversa.
3. Lo spazio sRGB è l'unico che consente di vedere a monitor l'immagine
come verrà a stampa o sul web. Di conseguenza, se la destinazione delle
proprie immagini è la stampa o il web, allora lo spazio colore delle
immagini finali deve essere sRGB, mentre quello di lavoro può anche essere
Adobe RGB o nessuno (nel caso del RAW).
Che cos'è la Profondità di Colore
Vediamo che cos'è la Profondità di Bit e di Colore di una immagine o di un
filmato video; vediamo inoltre cosa sono Gamma dinamica e Gamma di
densità.
La profondità di bit e di colore esprimono, in potenza al quadrato, il numero
massimo di livelli di grigi o di colori che uno scanner può riconoscere per ogni
pixel che campiona. Uno scanner a un bit (oppure uno scanner a colori o a
scala di grigi utilizzato nella modalità al tratto) riproduce le diverse tonalità di
un originale come punti bianchi o neri (2’ = 2 livelli).
Uno scanner in scala di grigi a 8 bit può teoricamente acquisire 28 o 256
differenti livelli di grigio. Uno scanner a colori a 24 bit campiona 8 bit per
pixel per ciascuno dei tre canali RGB, rosso, verde e blu, per un totale di 256 x
256 x 256 = 16.777.216 (224) possibili valori di colore.
Maggiore è la profondità di bit, più elevato è il dettaglio che una periferica per
scansioni teoricamente può riprodurre.
Il valore di 24 bit espresso per le immagini in modalità RGB, quindi 8 bit per
ciascuno dei tre canali è divenuto uno standard per le scansioni e per
l’elaborazione delle immagini: in parte ciò è dovuto al fatto che il numero 256
corrisponde al valore massimo di tonalità riproducibili per ogni colore dal
linguaggio PostScript, lo standard digitale utilizzato per il desktop
publishing.
Tuttavia quando si confrontano le diverse periferiche per scansioni non tutti i
bit sono uguali. Ad esempio, negli apparecchi basati su tecnologia CCD, i due
bit più alti che determinano la profondità di colore della periferica sono
generalmente di scarso valore in quanto non sono in grado di produrre
un’informazione dettagliata di colore.
Così solo i rimanenti 6 bit (64 colori per canale, o 262.144 colori) risultano
attendibili, ma con una perdita di 198 colori per canale. Le limitazioni
intrinseche di alcune tipologie di CCD sono la causa dei seguenti difetti:
I sensori CCD più economici sono sensibili ai rumori elettrici dell’ambiente,
che possono di- storcere e modificare la lettura dei colori. I CCD utilizzati
invece negli scanner a letto piano di fascia alta, in quelli per diapositive e nelle
macchine fotografiche digitali di buona qualità posseggono un più alto
rapporto segnale/rumore e quindi riescono a trasferire ai convertitori A/D dei
segnali più puliti.
Esiste una relazione tra la dimensione dei sensori CCD e la sensibilità alla
luce: si immagini ogni sensore come un piccolo secchiello: più piccolo è il
secchiello minore sarà la quantità di acqua che potrà contenere. Per ottenere
maggiori risoluzioni ottiche, i costruttori tendono a compattare un numero
molto alto di sensori in uno spazio molto ristretto: utilizzano di conseguenza
dei sensori di dimensioni sempre più esigue.
Ma riducendo la dimesione di ciascun sensore di limita il numero di livelli di
colore che ogni singolo elemento può riconoscere. Quando viene digitalizzato
un originale che contiene un’ampia gamma di tonalità dal bianco al nero,
viene compromessa la capacità di questi CCD di catturare i dettagli.
I sensori CCD sono anche soggetti alle interferenze. Per comprendere meglio
in che cosa consistono le interferenze, si immagini di uscire da una casa buia
verso un paesaggio innevato.
L’improvvisa luminosità crea un forte fastidio agli occhi di chiunque,
rendendolo temporaneamente incapace di vedere correttamente i colori del
paesaggio.
La stessa cosa avviene quando la luce satura i sensori CCD adiacenti tra loro,
distorcendo in tal modo la purezza del segnale che ogni singolo sensore
riuscirebbe a trasmettere ai convertitori A/D. Quando si verifica questo
difetto l’immagine digitalizzata che si ottiene conterrà dei pixel vicini tra di
loro che hanno tonalità sbagliate, specialmente nelle zone dove vi sono
repentini cambiamenti di luminosità.
Il risultato che si ottiene da dispositivi che adottano CCD economici, che
producono quindi bit “scadenti”, è uninsufficiente qualità nelle tonalità
continue, delle transizioni sfumate tra i vari livelli di luminosità
dell’immagine.
Tuttavia il numero di bit nominali potrebbe indurre a pensare che la qualità
ottenuta sarebbe stata superiore. I costruttori di scanner e fotocamere digitali
hanno cercato di risolvere questi problemi proponendo dei dispositivi a più
alta profondità di bit (10, 12, 14, 16 e oltre). I bit “scadenti” in questo modo
possono essere scartati, ottenendo le 256 tonalità per colore senza disturbi
indesiderati nell’immagine finale. Questo aspetto porta inevitabilmente ad
affrontare il concetto di gamma dinamica, un’altra variabile correlata alla
profondità di bit come fattore di qualità nelle scansioni.
L'area di analisi.
Le dimensioni massime degli originali che una periferica può digitalizzare
determinano la cosiddetta area di analisi della macchina, denominata anche
area di scansione. Gli scanner manuali rappresentano la fascia più economica
riferita a questo fattore, in quanto possiedono un’area di analisi molto
limitata. Gli scanner a letto piano possiedono aree di analisi che vanno dal
formato UNI A4, 21 x 29.7 cm fino al formato A3extra, circa 30 x 43 cm.
Gli scanner per diapositive e trasparenze possiedono aree di analisi fisse,
basate sulle dimensioni delle diapositive per le quali sono stati studiati;
tuttavia alcuni modelli hanno la possibilità di adattare l’area di analisi a
diverse dimensioni di originali. Le aree di analisi degli scanner a tamburo
variano da un minimo di 15 x 15 cm per i modelli da scrivania di fascia bassa,
fino a dimensioni superiori a 50 x 70 cm per i modelli di fascia alta.
Le macchine fotografiche digitali sono sostanzialmente degli scanner per
oggetti tridimensionali. Per queste apparecchiature è opportuno parlare di
sistema ottico piuttosto che di area di analisi.
L’insieme dell’area di analisi, la risoluzione ottica, e le dimensioni
dell’originale determinano il massimo numero di pixel che uno scanner può
acquisire e di conseguenza anche le dimensioni massime alle quali l’immagine
potrà essere stampata.
Gamma dinamica, gamma di densità.
La profondità di bit determina il numero complessivo di colori o di livelli di
grigi che un dispositivo per scansioni può rilevare, mentre la gamma
dinamica (talvolta denominata anche gamma di densità) determina la
“morbidezza” delle transizioni tra tonalità adiacenti in un’immagine digitale.
Questi termini possono essere applicati sia a originali che a dispositivi di
scansione. Quando si riferisce agli originali, la densità viene misurata con un
valore che va da O a 4D (densità ottica), che indica nei materiali trasparenti la
capacità di ostruire il passaggio di luce, mentre in quelli opachi la capacità di
assorbimento della luce.
Quando il termine gamma dinamica viene riferito a dispositivi di scansione,
esso indica la capacità della macchina di riprodurre minime variazioni di
tonalità e viene espresso con la differenza tra i toni più chiari (dmin) e i toni
più scuri (dmax) che quel dispositivo riesce a rilevare. Più è elevata la gamma
dinamica di uno scanner o di un’originale, maggiore sarà la gamma d livelli di
luce che potrà rilevare, oppure ostruire o assorbire. Un dispositivo per
scansioni che possiede un’ampia gamma dinamica è in grado quindi di
riprodurre maggiori dettagli.
Questo aspetto è visibile soprattutto nelle ombre (le zone più scure delle
immagini) dove è più difficile rilevare dettagli e differenziare i vari livelli di
luce, in quanto in queste zone esiste una debole energia luminosa che riflette
o trasmette i dettagli delle zone scure.
La gamma dinamica influenza il contenuto di un’immagine digitale. Con gli
scanner a letto piano più datati l'immagine acquisita da una stampa
fotografica presenta delle evidenti compressioni di tonalità nelle zone
d’ombra e altre compressioni nelle alte luci.
La stessa immagine, acquisita con uno scanner a letto piano più recente che
possiede una gamma dinamica più ampia, presenta maggiori dettagli nelle
zone di luce e d’ombra.
La gamma dinamica può variare anche tra dispositivi che presentano la stessa
profondità di bit nominale. Quindi nel caso di acquisto di uno scanner è
opportuno valutare con prudenza i dati descritti nei fogli illustrativi e cercare
di ottenere una scansione comparativa tra i vari modelli valutati.
È evidente comunque che la gamma dinamica non rappresenta la sola
variabile che influenza la qualità di una scansione; uno scanner che impiega
dei sensori CCD molto sensibili ai rumori di fondo può produrre scansioni
“sporche”, anche se presenta una gamma dinamica molto ampia.
I dispositivi di scansione e gli originali possiedono delle precise caratteristiche
di densità.
Generalmente gli scanner a tamburo presentano ampie gamme dinamiche e
valori di densità massima più alti di qualsiasi altro dispositivo per scansioni,
analogamente gli originali trasparenti (diapositive, pellicole, fotocolor)
possiedono ampie gamme dinamiche e più elevate densità rispetto agli
originali opachi, acquisiti in riflessione (bozzetti, stampe fotografiche).
Un altro fattore che influenza la gamma dinamica nelle scansioni è la natura
logaritmica (non lineare) della densità. Gli originali positivi (stampati,
diapositive, bozzetti e stampe fotografiche) tendono a presentare una
maggiore compressione tonale nelle ombre; gli originali negativi (pellicole e
negativi fotografici) invece tendono a presentcde questa compressione nelle
zone delle alte luci.
Non esiste un dispositivo per scansioni che riesca a compensare
completamente questa tendenza, ma una gamma dinamica molto ampia
certamente può ridurre tali compressioni.
Per ottenere la migliore qualità nelle scansioni, occorre scegliere un
dispositivo per scansioni che disponga di un’ampia gamma dinamica e rilevi
una densità massima superiore a quella che si presenta negli originali che
devono essere normalmente digitalizzati.
Ad esempio, uno scanner a letto piano di media qualità con una gamma
dinamica di 3.0 e una dmax di 3.2 può facilmente riprodurre tutte le tonalità
di stampe fotografiche in riflessione.
Lo stesso scanner, se equipaggiato con un adattatore per trasparenza, può
anche acquisire le informazioni tonali di molti tipi di diapositive in
commercio. Tuttavia per catturare tutte le informazioni di un duplicato di un
fotocolor oppure nel caso di lavorazioni in trasparenza di alto livello
qualitativo richieste per le grandi campagne pubblicitarie, è assolutamente
necessario disporre di uno scanner a tamburo oppure di uno a letto piano ma
di fascia alta.
Se non si devono digitalizzare immagini ad alto livello molto frequentemente,
non è necessario spendere inutilmente dei soldi per una periferica di alto
livello. Ciò è ancora più valido se normalmente le immagini acquisite
verranno stampate su carta non patinata o carta per quotidiani, che limitano
fortemente il livello di riproducibilità della gamma dei toni.
I costruttori dei dispositivi per scansioni di basso e medio livello spesso non
indicano la gamma dinamica e la densità massima delle loro macchine.
È importante richiedere questi dati nel caso si debba acquistare uno scanner,
e incoraggiare i costruttori a indicare la dmax, la dmin e la gamma dinamica
nei fogli che ne descrivono le caratteristiche.
Aumentare la gamma dinamica.
I recenti miglioramenti tecnici introdotti negli scanner e nelle macchine
fotografiche digitali hanno contribuito ad aumentare la gamma dinamica
disponibile. Alcuni di questi miglioramenti sono:
-Scanner con una più elevata profondità di bit I nuovi modelli di macchine
basate sulla tecnologie CCD possono catturare 10, 12, o anche 16 bit per
colore, grazie alla maggiore sensibilità di ciascun sensore. I convertitori A/O
possiedono la potenza di elaborazione necessaria per scartare i bit di livello
più alto (quelli “sporchi”) e campionare i livelli grezzi di tensione analogici
fino a ottenere solo gli 8 necessari, però di buona qualità e sufficientemente
“puliti” per riprodurre fedelmente le varie tonalità per ogni singolo canale.
-Sensori CCD con un più elevato rapporto segnale/rumore I sensori CCD
adottati negli scanner a letto piano di fascia alta, quelli per diapositive e nelle
macchine fotografiche digitali sono meno sensibili alle sorgenti di rumore
elettrico (scariche nell’impianto di illuminazione, onde radio, e così via).
Ciò riduce le interferenze e mantiene più puliti i segnali elettrici prodotti dai
CCD, che quindi vengono convertiti in dettagli tonali più fedeli.
Correzioni durante le scansioni Alcuni Processori di Segnale Digitale (DSP,
Digital Signal Processing) e i convertitori AID di alcuni scanner danno la
possibilità di ottimizzare le tonalità delle immagini prima che i segnali
analogici vengano trasformati in dati digitali.
Questi sistemi possono ridurre l’inevitabile perdita di informazioni che si
verifica quando viene eseguita una correzione cromatica dopo la scansione.
Controlli di esposizione regolabili Alcuni modelli di scanner a tamburo da
scrivania, scanner per diapositive e macchine fotografiche digitali consentono
di regolare i parametri di esposizione e di apertura. Se la profondità in termini
di bit dello scanner è sufficienla combinazione tra un’apertura inferiore e un
maggiore tempo di esposizione consentiranno di catturare maggiori dettagli
nelle zone d’ombra critiche.
Verificato che il programma di scansione le supporti, esistono delle tecniche
di correzione delle immagini che possono essere adottate durante le scansioni
per migliorare la gamma dinamica delle immagini.
È normale per un professionista cercare di ottenere la migliore qualità
possibile dalle immagini digitali che si realizzano. In questo capitolo sono
stati illustrati i fattori tecnologici che contribuiscono a migliorare la qualità di
entrata delle immagini digitali: la tecnologia di acquisizione, la risoluzione
ottica e di scansione, l’area di analisi, la profondità di bit e la gamma
dinamica.
RGB o CMYK, questo è il dilemma
Non scomodiamo il povero William per argomenti così banali e cominciamo a
dare qualche definizione per avere dei punti sicuri da cui partire.
RGB e CMYK sono i più comuni metodi colore usati nella grafica digitale,
dove per “metodo colore” si intende semplicemente un modo per
rappresentare un’immagine secondo colori primari, dalla cui fusione vengono
generati tutti i colori. Esistono altri metodi, come la scala di grigio, il Lab, e
così via. RGB e CMYK sono anche chiamati
rispettivamente tricromia e quadricromia; in linea generale il primo è
usato per l’elaborazione di immagini destinate agli schermi, monitor o TV, il
secondo si usa per le immagini da stampare.
RGB
È l’acronimo di Red, Green e Blue (rosso, verde e blu) ed è un metodo
a sintesi additiva, vale a dire che tutti i colori sono generati dalla somma
delle luminosità di questi tre colori primari. In Photoshop i colori primari
sono associati ciascuno ad un canale, per cui nelle immagini in RGB avremo
anche 3 canali che servono, appunto, a generare l’immagine finita. La
luminosità di ogni canale si esprime con valori da 0 a 255, che corrispondono
al minimo e massimo di intensità. Se ogni canale ha intensità 0 avremo come
risultato il nero, viceversa con i canali a 255 avremo il bianco. Quando il
valore delle tre componenti è uguale , il risultato è un grigio più o meno scuro,
ma sempre neutro.
CMYK
È l’acronimo di Cyan, Magenta, Yellow e Black (ciano, magenta, giallo e nero)
ed è un metodo a sintesi sottrattiva, ovvero gli altri colori si ottengono
sottraendo luminosità dai 4 colori primari. Essendo un metodo di colore
riservato esclusivamente alle immagini da stampare, in Photoshop i valori per
singolo canale si esprimono in percentuale da 0 a 100; per comodità possiamo
associare questi valori a quantità di inchiostro, perciò a 0 corrisponde “niente
inchiostro” e quindi il bianco (della carta, nel caso specifico).
Il nero è indicato con K anziché B per non confondersi con il blu. La fusione di
CMY al 100% genera un colore chiamato bistro, una tonalità di marrone,
perciò si usa aggiungere una certa percentuale di K per creare il nero vero e
proprio, oppure per aumentare il contrasto e ridurre difetti dovuti alle
impurità degli altri inchiostri. Viceversa, il K al 100% non è mai percepito
come nero assoluto, per cui vi si usa aggiungere gli altri tre colori secondo
diverse percentuali, e in base alla predominanza di ciascuno è possibile anche
ottenere neri caldi o freddi.
Dal punto di vista puramente tecnico le differenze tra i due metodi sono
quelle che avete appena letto. Ora passiamo a qualche aspetto pratico,
tentando, magari, di rispondere in modo chiaro ad alcune delle domande
più frequenti.
Mi hanno detto che se devo stampare devo lavorare in CMYK; è
giusto?
È giusto solo in parte. Si lavora in RGB dall’inizio alla fine e si manda in
stampa un file in RGB quando la stampante è un dispositivo di tipo
“casalingo” o generalmente digitale. In questa categoria rientrano le
stampanti e i multifunzione che ognuno di noi ha, oppure i plotter e le
stampanti a laser, anche quelle dei centri stampa. Mi immagino la vostra
incredulità, in parte fondata perché sappiamo che le macchine elencate hanno
cartucce o toner CMYK. Questo significa che in qualche punto del processo di
stampa viene effettuata una conversione dei colori, ma non siamo noi ad
occuparcene, bensì il software -il cosidetto driver- che gestisce il flusso di dati
dal computer alla stampante. L’unico caso in cui è opportuno convertire i
colori in CMYK è quando si stampa con macchine tradizionali da tipografia,
o offset, ma per ragioni più o meno complicate è meglio che sia il tipografo
stesso ad occuparsi di questa operazione.
Perché l’immagine stampata è così diversa da come la vedo sullo
schermo?
In questo caso la risposta è una diretta conseguenza di quanto detto per la
domanda precedente: la stampa converte i colori, è come se li traducesse in
un altra lingua, quindi è inevitabile che qualcosa cambi o si perda durante
questo processo.
RGB e CMYK sono metodi nati per finalità totalmente differenti e che mal si
conciliano tra di loro. RGB si esprime in luminosità e lo schermo emette luce;
CMYK è quantità di inchiostri su carta, quindi assorbimento di luce. Se in
Photoshop proviamo a convertire una foto da RGB a CMYK, il risultato sarà
un evidente impoverimento di saturazione e brillantezza dei colori.
Quindi è difficile avere una corrispondenza precisa dei colori.
Allora come fanno i grafici delle riviste, oppure i fotografi, a
controllare la stampa dei propri lavori?
La corrispondenza dei colori è impossibile, ma si può tentare di avvicinarsi al
meglio al risultato finale usando varie regole e strumenti.
Le variabili in gioco sono illimitate: basti pensare a quanti tipi di monitor,
stampanti, inchiostri, carte, stoffe, etc… esistono per farsene un’idea. Ogni
combinazione di monitor, inchiostro, stampante e carta produrrà un risultato
più o meno diverso. La soluzione consiste nel fare in modo che tutti questi
passaggi siano controllati. Il monitor deve esse calibrato per mostrare i colori
in modo neutro, senza dominanti; La stampante va profilata, ovvero va creato
un profilo colore che contenga le istruzioni da dare ai software -come
Photoshop- in modo che questi possa mostrare sullo schermo i colori come
usciranno sulla carta. Il profilo colore va creato per ogni tipo di carta, stoffa,
etc… proprio perché la resa sarà diversa in base al tipo di supporto su cui si
stampa.
2.4 .La calibrazione di monitor e periferiche
L’argomento è noto a tutti, ma non molti la applicano in maniera corretta. Vediamo ora
alcuni punti fondamentali.
1. Calibrazione monitor Il monitor viene calibrato con uno strumento chiamato
colorimetro oppure con uno spettrofotometro che funzioni anche da colorimetro.
Durante la calibrazione si dovranno controllare almeno questi parametri:
o il contrasto e la luminosità;
o la temperatura colore;
o geometria del monitor;
o le variabili dell’ambiente
2. Calibrazione stampante In molte aziende la stampante viene usata come prova
colore, purtroppo molte volte queste attrezzature sono in grado di fornire solo una
buona bozza di stampa. Le due cose sono completamente diverse. Nella calibrazione
della stampante intervengono molteplici fattori:
o la stampante non è idonea a svolgere quello che desidero
o la tipologia di software abbinata alla stampante
o la tipologia di prodotto da riprodurre (stampa di un tessuto, libro, scatola…)
o la tolleranza ammessa rispetto alla stampa finale
Solo dopo aver risposto a queste domande posso dare inizio alla calibrazione della
stampante mediante lo spettrofotometro.
Controllo e verifica delle impostazioni colore Tutti gli applicativi grafici e
software di varie tipologie hanno settaggi interni per gestire al meglio la gestione colore dei
files.
La mancata o errata impostazione di questi settaggi và ad escludere tutto il lavoro svolto
nei punti precedenti.
Creazione di profili icc personalizzati
Se l’azienda o lo studio esegue lavorazioni particolari, quali ad esempio:
serigrafia;
• stampa su ceramica;
• stampa offset di prodotti particolari
allora lo strumento migliore per creare un flusso di lavoro certo e ripetibile è quello di
creare un profilo icc abbinato alla lavorazione, mediante la stampa di test,
misurazioni e generazione del profilo icc dedicato.
Aggiornamento sulle procedure operative
Quando tutto il flusso di lavoro è controllato e calibrato, bisogna verificare come i vari
operatori svolgono le vari fasi lavorative. In molti casi l’azienda ha i software aggiornati,
ma lavora con la “mentalità” e le “tempistiche” di versioni precedenti degli applicativi in
uso.La formazione, anche in questo settore, è un processo continuo.
•
2.5 i profili colore Gestione Colore:
Siamo giunti finalmente ad un punto cruciale per chi vuole usare Photoshop per stampare.
O meglio per chi vuole usare Photoshop per trattare delle immagini da poter mandare in
stampa. Oggi l’argomento è rognoso, ma meno difficile di quello che sembra. Però è
importante saperlo, soprattutto prima di iniziare a trattare il colore nelle immagini.
Anche se siamo solo alle basi di Photoshop diventa fondamentale iniziare con il piede
giusto. Di cosa parleremo oggi?
1. Metodi di colore (Rgb, Cmyk, Lab)
2. Profili colore
3. Profili Icc
I metodi di colore
Rgb
RGB è il nome di un modello di colori le cui specifiche sono state descritte nel 1931 dalla
CIE (Commission internationale de l’éclairage). Tale modello di colori è di tipo additivo e si
basa sui tre colori rosso (Red), verde (Green) e blu (Blue), da cui appunto il nome RGB, da
non confondere con i colori primari sottrattivi giallo, ciano e magenta (popolarmente
chiamati anche giallo, blu e rosso).
Cmyk
CMYK è l’acronimo per Cyan, Magenta, Yellow, Key black; è un modello di colore detto
anche di quattricromia o quadricromia. La “K” in CMYK si riferisce a key (chiave), in
quanto i sistemi di stampa che utilizzano questo modello usano la tecnologia Computer to
plate (CTP), i quali mediante una “lastra chiave” (“key plate” in inglese) allineano
correttamente le lastre degli altri tre colori (il ciano, il magenta e il giallo appunto). A volte
si ritiene erroneamente che la lettera “k” derivi dall’ultima lettera della parola “blacK”, per
non creare confusione visto che “b” significa blu. Per quanto apparentemente plausibile, si
tratta di un errore.
Cosa ottengo dal Cmyk?
I colori ottenibili con la quadricromia (sintesi sottrattiva) sono un sottoinsieme della
gamma visibile, quindi non tutti i colori che vediamo possono essere realizzati con la
quadricromia, così come non tutti i colori realizzati con l’insieme RGB (RED GREEN
BLUE) cioè quelli che vediamo sui nostri monitor (sintesi additiva) hanno un
corrispondente nell’insieme CMYK.
CIE Lab
Il sistema Lab si propone di disporre tutti i colori in modo ordinato all’interno di uno
spazio a tre dimensioni e di definirlo usando le coordinate di questo spazio cromatico.
•
Il valore L è l’espressione della luminosità del colore. Cioè quanto il campione
misurato tende ad avvicinarsi al nero (L=0) o al bianco (L=100).
•
Il valore A stabilisce quanto un colore tende al rosso o al verde;
•
Il valore B stabilisce stabilisce quanto un colore tende al giallo o al blu
Puoi considerare quindi i valori A e B come le due coordinate che ci permettono di
identificare una precisa posizione all’interno di un “cassetto”, identificando quindi un
preciso colore.
Lo spazio Lab si può paragonare ad una cassettiera. In ogni cassetto ci sono posizionati i
colori della stessa luminosità:
•
Nel cassetto L=0 sarà presente solo il nero;
•
Nel cassetto L=50 saranno presenti i colori di media luminosità (ad esempio il
Rosso, il Ciano, il Verde ed il Grigio medio);
•
Nel cassetto L=80 saranno presenti solo colori chiari (il Giallo, il Rosa, l’Azzurro
ecc)
•
•
Che cos’è un profilo colore
Il profilo colore è la carta d’identità associata ad un file o ad una periferica. Se tutte le
periferiche che lo gestiscono hanno lo stesso profilo allora il file grafico si manterrà uguale
per tutto il suo percorso. Senza variare le sue caratteristiche cromatiche. Cosa vuol dire?
Che se io uso una corretta gestione del colore, includendo i profili all’interno del file, sarò
in grado di stampare il lavoro come lo ha voluto il grafico.
I programmi di grafica e il RIP, infatti, mettono in relazione i profili colore effettuando le
opportune conversioni di colore che permettono di mantenere il risultato il più costante
possibile.
Ricordatii inoltre che, sui moderni sistemi informatici, la gestione del colore non è mai
disattivabile. Un file senza profilo, infatti, eredita i profili settati nelle impostazioni colore
dei programmi che lo gestiscono. Allo stesso modo una periferica non può rimanere senza
un profilo colore perché rischia di ereditare un profilo generico che non è il suo, causando
risultati dalla cromia imprevedibile.
E se non uso questo profilo colore?
È importante che ogni immagine o file grafico venga salvato con il suo profilo incorporato.
Il motivo è semplice: in assenza di un profilo incorporato il file quando viene aperto o
elaborato assume il profilo impostato nelle preferenze colore del programma che lo
gestisce. Se non è uguale a quello impostato nel programma con cui il file è stato realizzato,
l’immagine e i colori appariranno e verranno stampati in maniera diversa.
I colori RGB o CMYK sono detti “device dependent”, hanno cioè un’apparenza che dipende
dalla periferica che li riproduce. Questo significa che un colore o un’immagine inviati a una
periferica senza che ci sia una gestione del colore, appariranno in maniera differente:
Per gestire il colore è perciò fondamentale che ogni periferica e ogni file che utilizziamo
abbia una profilo ICC unico e personale che ne dichiari le caratteristiche.
Ma che cos’è un profilo ICC?
Un sistema di gestione del colore deve disporre delle caratteristiche di ogni periferica
inserita nel processo di produzione, in pratica dei loro comportamenti cromatici. Ma a che
cosa mi serve? Un profilo della periferica permette al sistema di gestione del colore di
convertire lo spazio colore nativo ( ad esempio quello del monitor) in uno spazio colore
indipendente cioè il CIE LAB.
I profili più importanti
Coated FOGRA27
Questo profilo è diventato famoso in quanto è lo standard quando hai a che fare con la
stampa offset su carta patinata. Questo profilo è importante anche nel caso della stampa
digitale in quanto la maggior parte dei lavori di grafica professionali, realizzati ad esempio
dalle agenzie di comunicazione, è realizzata in base a questo profilo. Spesso i lavori di
grafica vengono creati per la stampa offset di volantini e brochure e in contemporanea
vengono preparati i file per la stampa digitale per fiere, espositori, adesivi, ecc…
A un file in modalità CMYK senza un profilo incorporato, è perciò utile sia assegnato il
profilo Coated FOGRA27.
sRGB
Lo spazio colore sRGB è stato introdotto da Microsoft e HP perché rappresentai colori
riproducibili con le più comuni periferiche digitali (monitor e stampanti consumer). Lo
spazio colore sRGB include però solo il 35% dei colori visibili dall’occhio umano e
solitamente è assegnato alle immagini realizzate con macchine fotografiche consumer. I
monitor standard hanno un profilo colore molto simile ad sRGB e non pemettono perciò
una corretta visualizzazione di tutti i colori riproducibili in stampa, in particolare i verdi e i
blu scuri. Rispetto ad Adobe RGB questo profilo è molto ridotto e non ci permette perciò di
ottenere dei risultati ottimali utilizzandolo come spazio di lavoro impostato nei programmi
di grafica.
Adobe RGB (1998)
È uno spazio colore progettato da Adobe nel 1998 per la visualizzazione a schermo dei
colori ottenibili con i sistemi di stampa CMYK professionali. Lo spazio colore Adobe RGB
contiene circa il 50% dei colori visibili dall’occhio umano ed ha un gamut più ampio
rispetto allo spazio sRGB. È lo spazio di editing consigliato per i file RGB e viene assegnato
alle immagini realizzate con macchine fotografiche professionali. Adobe RGB è un profilo
che, utilizzato nella realizzazione dei file di grafica, permette di ottenere i risultati migliori
in termini di colore riproducibile.
Ma dove sono questi profili colore su Photoshop?
Alle impostazioni colore dei programmi Adobe si accede andando su Modifica
>Impostazioni colore. Come profilo RGB scegli Adobe RGB. Come profilo CMYK scegli
Coated FOGRA27 oppure imposta il profilo che utilizzerai in fase di stampa per avere una
gestione del colore più accurata.
2.6 Informazioni sulla conversione del colore
Spesso è necessario convertire i colori quando vengono visualizzati su un monitor o inviati
a una stampante. La conversione è richiesta quando i modelli di colore non corrispondono
(ad esempio, quando si visualizza un colore CMYK su un monitor RGB o quando si invia a
una stampante un documento che contiene immagini in uno spazio colore RGB).
Acrobat utilizza gli spazi colore di origine degli oggetti di un PDF per determinare
l'eventuale tipo di conversione dei colori richiesta, ad esempio da RGB a CMYK. Se un PDF
contiene oggetti con profili di colore incorporati, i colori vengono gestiti utilizzando i
profili incorporati anziché gli spazi colore predefiniti. Per le immagini e gli altri oggetti del
PDF che contengono profili di colore incorporati, Acrobat utilizza le informazioni presenti
nel profilo per stabilire la modalità di gestione dell'aspetto del colore. Nel caso degli
oggetti con colori gestiti, ovvero quelli con profili di colore incorporati, questa conversione
viene facilmente riconosciuta. I colori non gestiti, tuttavia, non utilizzano i profili e
pertanto è necessario fare temporaneamente ricorso a uno di questi profili per la
conversione. Nel pannello Gestione colore della finestra di dialogo Preferenze vengono
forniti profili per la conversione dei colori non gestiti. È anche possibile selezionare profili
specifici in base alle condizioni di stampa locali.
2.7. bilanciamento del bianco Bilanciamento e correzione dei colori
Il bilanciamento del bianco è un concetto di cui spesso i fotografi principianti non
conoscono il significato e che, di conseguenza, non viene applicato.
Può essere però molto utile conoscerlo e sapere come impostarlo, per migliorare le nostre
foto ed eventualmente correggere errori avvenuti al momento dello scatto.
In parole povere, poverissime, il bilanciamento del bianco serve a far sì che i colori
di una foto compaiono così come li vedono i nostri occhi.
Dalla semplice osservazione degli ambienti in cui viviamo ogni giorno, si può notare che
diverse fonti luminose producono luci di colore diverso. Si dice, in maniera più tecnica che
queste luci hanno diverse temperature di colore.
Queste temperature si misurano in Kelvin (K) e possono variare dai 1000K di una candela
ai 10000K che si hanno all’ombra durante una giornata di Sole o sotto un cielo
completamente coperto, nelle ore centrali della giornata.
L’occhio umano si adatta automaticamente ai cambiamenti nella temperatura della
luce, a meno di casi estremi. Quindi, un foglio bianco sembra sempre bianco,
indipendentemente dal fatto che lo si osservi all’aperto oppure sotto una lampadina a
incandescenza.
Purtroppo, il sensore della macchina fotografica è molto meno “elastico” dell’occhio
umano, perciò può avere spesso bisogno che il fotografo gli suggerisca quale tipo di luce
illumina la scena inquadrata. Per fare ciò, quasi tutte le macchine fotografiche digitali
danno la possibilità di intervenire su un parametro che si chiama
appunto bilanciamento del bianco.
Generalmente, i valori di bilanciamento del bianco disponibili sono i seguenti:
•
•
•
•
•
•
automatico: la macchina fotografica calcola in maniera completamente automatica la
temperatura di colore, nelle fotocamere odierne è molto affidabile in buona parte delle
situazioni;
incandescenza: si usa quando il locale in cui ci troviamo è illuminato da lampadine a
incandescenza, quindi serve a raffreddare un po’ la temperatura di colore;
fluorescenza: si usa in presenza di un’illuminazione “tipo neon”, quindi serve a
riscaldare un po’ la temperatura di colore;
luce solare: si usa nella parte centrale della giornata, per foto all’aperto, quando il Sole
non è coperto da nuvole;
flash: si usa ovviamente quando viene impiegato flash;
nuvoloso: si usa quando si fanno foto all’aperto, durante il giorno, e il cielo è coperto;
•
•
ombra: si usa quando si fotografano, durante il giorno, soggetti che si trovano all’aperto
ma all’ombra, mentre il Sole non è coperto da nuvole;
misurazione manuale: si usa quando, impiegando i valori precedenti, non si ottengono
risultati soddisfacenti, oppure si vuole avere il pieno controllo sul bilanciamento del bianco
(ne parliamo in profondità nella prossima sezione).
Non tutti i valori appena elencati sono presenti in tutte le macchine fotografiche, ma la
lista serve a dare una panoramica completa.
Nella foto qui sotto, un esempio di come il bilanciamento del bianco influisce sull’aspetto
della foto:
•
•
•
al centro, la foto corretta, con bilanciamento “luce solare”,
a sinistra una foto con colori più caldi, a causa della bilanciamento impostato a “ombra”,
a destra una foto con colori eccessivamente “raffreddati”, dovuti al bilanciamento del
bianco “incandescenza”.
La stessa foto con diversi valori bilanciamento del bianco: ombra (sinistra), luce solare
(centro), incandescenza (destra)
Misurazione manuale del bilanciamento del bianco
In situazioni critiche, può accadere che il bilanciamento del bianco automatico fallisca e
nemmeno gli altri valori aiutino a ottenere una temperatura di colore corretta.
Questo fenomeno si può verificare, per esempio, in luoghi chiusi quando sono
presenti fonti luminose con caratteristiche diverse tra loro. Oppure, man mano che
diventiamo fotografi più esperti, potremmo trovarci in situazioni in cui vogliamo
controllare con precisione il bilanciamento del bianco.
In questi casi utilizziamo la misurazione manuale. Per fortuna si tratta di una
procedura per nulla complessa. Tra le macchine fotografiche digitali, le reflex
generalmente includono questa funzione. Tra le macchine di livello inferiore, può accadere
che essa non sia disponibile.
Come si usa la funzione di misurazione manuale del bilanciamento del bianco?
1. Sulla macchina fotografica, si seleziona la corretta voce di menù;
2. la macchina fotografica attenderà il prossimo scatto per misurare la temperatura di
colore,1
3. si riempie completamente l’inquadratura con un oggetto interamente bianco o grigio
chiaro,
4. senza bisogno di mettere a fuoco, si preme il pulsante di scatto.
Terminata con successo la procedura, la macchina fotografica utilizzerà il valore di
temperatura di colore appena impostato per tutte le prossime foto, finché non
ripeteremo la procedura o selezioneremo un altro valore tra quelli predefiniti.
Raccomandazioni
Finché usiamo il bilanciamento del bianco automatico, ad ogni foto la macchina
fotografica cercherà di adattarsi alla temperatura di colore attuale. Quando invece
impostiamo uno qualsiasi degli altri valori, compreso quello manuale, la macchina
fotografica continuerà a comportarsi come se la temperatura di colore fosse rimasta la
stessa di quando abbiamo impostato il bilanciamento del bianco l’ultima volta.
Quindi, se, per esempio, siamo in casa e impostiamo il bilanciamento del bianco su
incandescenza (perché abbiamo solo lampadine a incandescenza) e poi usciamo a scattare
delle foto in giardino e non ci ricordiamo di cambiare bilanciamento del bianco, otterremo
probabilmente delle foto1 con colori che tendono al blu/verde.
È importante quindi ricordarsi sempre di verificare il bilanciamento del bianco
prima di cominciare una sessione fotografica, a meno che non stiamo scattando in
modalità totalmente automatica (in cui la macchina fotografica decide sempre anche il
bilanciamento del bianco).
2.8 HDR (acronimo di High Dynamic Range)
Ma per realizzare veramente un HDR iniziamo dalle basi.
La fotografia HDR consiste nel superare i limiti fisici del sensore
aumentando la gamma dinamica estesa grazie alla possibilità di
combinare in post produzione o in fase di scatto 3 o più foto con diverse
esposizioni, questo comporta che le scene fotografate debbano essere statiche
ed è quindi necessario un treppiedi.
Molti sono convinti che questa tecnica porti ad avere foto molto contrastate
con colori super saturi, non c’è niente di più sbagliato, quello che vedete in
quel tipo di foto è solo un'orrenda post produzione che alle volte risulta
interessante se ben realizzata.
Ma da cosa è caratterizzata una vera foto in HDR? Da una gamma
dinamica superiore a quella del sensore, ovvero con ombre aperte ed alte luci
contenute anche in presenza di forti contrasti. Ottenendo una foto impossibile
da fare con un sensore normale, perché chiuderebbe le ombre oppure
brucerebbe le alte luci.
Da questa spiegazione si evince che non è possibile ottenere un HDR da
un singolo scatto perché non si supera alcun limite di gamma
dinamica del sensore, in un solo scatto non possono esistere le
informazioni che sono contenute in più scatti.
Ecco come fare le foto per realizzare un HDR:
•
La prima foto per esporre le alte luci
•
La seconda con un esposizione media
•
La terza esponendo per le ombre
L'unione di queste 3 foto forma un unica immagine con una ricchezza di
colori e dettagli superiore alla singola foto.
Una curiosità: La fotografia HDR dovrebbe apparirci più realistica di una foto
normale, poiché l’occhio umano è in grado di distinguere maggiori dettagli di
un sensore, sia nelle luci che nelle ombre!
Ora vi voglio parlare di qualcosa che non si trova normalmente nei tutorial
sulla fotografia HDR, l’ha scritta un’autrice del mio blog di nome Sabrina
Campagna.
Per ottenere immagini realmente pregnanti e degne di nota, la cosa che più conta è la
prima immagine, quella di partenza. Per ottenere il meglio, lo scatto deve essere compiuto
in
situazioni
di
luce
non
estreme.
Le regole base per il primo scatto sono le seguenti:
1.
No ai forti controluce.
2.
No ad un’eccessiva presenza di nero in foto (come nel caso di foto notturne
scattate con esposizioni non troppo lunghe).
3.
No a cieli grigi.
4.
No al troppo sole.
Nel primo e nel secondo caso, infatti, a causa dell’elaborazione, l’HDR risultante nella
maggior parte dei casi avrà un nero scolorito e rumoroso, a cui sopperire solo tramite un
elevato contrasto che riporterà l’immagine più o meno ai toni originari di silhouette o
notturno.
Nel terzo caso i cieli troppo slavati e grigi possono dar luogo a macchie bianche di colore,
laddove il programma non riesca a trovare toni adatti per la mappatura. Ciò capita
soprattutto in zone dove il colore tende verso il bianco, per cui la macchia di colore
risulterà di un bianco/grigio con contorni frastagliati (come si vede nell’immagine).
Nel quarto ed ultimo caso, succede qualcosa di analogo al precedente. Il sole a picco può
creare scompensi nello scatto originario, in quanto a meno di centrare bene la foto, il cielo
risulterà tendente al bianco, per poi “bruciarsi” completamente durante la mappatura.
L’eccessiva rifrazione dei raggi UV, inoltre, può creare scoloriture anche su altre aree della
foto, rendendo così l’HDR pressoché inutilizzabile.
I soggetti migliori da fotografare sono quelli architettonici o comunque ricchi di dettagli,
che verranno maggiormente evidenziati nella fusione HDR.
COME REALIZZARE UNA FOTO IN HDR - FASE DI POST
PRODUZIONE
In questo tutorial studieremo come creare un’immagine HDR tramite Photomatix e la
successiva ottimizzazione della stessa tramite Photoshop, il tutto partendo da tre scatti
effettuati in formato RAW.
Gli scatti di seguito utilizzati sono stati eseguiti con una reflex Canon 30D ed un obiettivo
Canon 10-22mm. Diaframma f/9 con tempi di 1/8s, 0.5s e 2s. Come potete notare i tempi
agli estremi sono esattamente a + e - 2 stop dal valore di riferimento di 0.5s.
Le foto sono state scattate al museo delle scienze di Londra, ambiente ideale per sfruttare
la tecnica hdr, sistemando la camera su di uno zaino in quanto da regolamento interno del
museo è vietato usare il cavalletto, in modalità bracketing e autoscatto inserito in maniera
da evitare qualsiasi movimento della camera al momento degli scatti.
1 - Creazione dell’HDR
Per la creazione dell'HDR utilizzeremo un ottimo programma chiamato Photomatix Pro,
facile da utilizzare ed abbastanza intuitivo (vi sono molti tutorial in rete per approfondirne
le caratteristiche). Lavorando con immagini TIFF a 16 bit il risultato sarà simile
all'immagine seguente (32 bit):
Dopo aver settato il vero motore di Photomatix, cioè il "Tone Mapping", otterremo
un'immagine TIFF a 16 bit per canale:
Configurare il Tone Mapping secondo il proprio gusto risulterà un'operazione piuttosto
semplice data l'interfaccia priva di fronzoli. La differenza fra le due foto è evidente ma
ancora non proprio soddisfacente...dominante giallognola e un po' slavata. Ciò che si
otterrà dopo aver lavorato con Photomatix sarà simile all’immagine seguente:
Ritocco dei dettagli
Passiamo alla fase di rifinitura per rendere l’immagine un po' più accattivante.
Principalmente andremo a lavorare sulle luci, sulle ombre, sui toni, sul contrasto e sulla
nitidezza.
Aperta l’immagine precedentemente salvata da Photomatix, duplichiamo il livello di
sfondo e modifichiamone l’esposizione (immagine > regolazioni > esposizione):
Proseguiamo desaturando il giallo (immagine > regolazioni > tonalità/saturazione)
Aumentiamo la nitidezza dell’immagine utilizzando una maschera di contrasto:
(In questo caso ho preferito aumentare subito la nitidezza invece che farlo alla fine del
lavoro), uniamo il tutto e duplichiamo il livello così creato.
Applichiamo il filtro controllo sfocatura/Gaussian Blur in modalità sovrapponi e bassa
opacità (14% può andare bene) così facendo andiamo a caricare maggiormente il colore
dell'immagine rendendola più corposa:
Uniamo nuovamente i livelli e duplichiamolo.
Immagine > regolazioni > luminosità/contrasto utilizzando i seguenti valori: luminosità: 3; contrasto: +3. Uniamo nuovamente il tutto e duplichiamo il livello.
Immagine > regolazioni > curve
Uniamo il tutto e duplichiamo il livello.
Si può vedere ancora una dominante giallognola che, personalmente, non trovo adeguata.
Ripetiamo quindi la desaturazione del giallo con valore -65 ed impostando, per il livello
superiore (modalità normale), un'opacità al 75%. Uniamo il tutto e duplichiamo
nuovamente.
Cerchiamo di aumentare la tridimensionalità del soggetto andando ad enfatizzare i punti di
luce con lo strumento pennello in modalità sovrapponi / overlay con opacità di circa il 18%
ed utilizzando come colore il bianco. Lo stesso procedimento dovrà essere eseguito per le
zone in ombra usando un pennello nero (in alternativa potremo utilizzare gli strumenti
brucia e scherma).
Le dimensioni del pennello varieranno a seconda della parte che andremo a trattare.
Uniamo il tutto ancora una volta e duplichiamo il livello.
Passiamo in modalità 8 bit ed utilizziamo il filtro Effetto pennellate / Paint Daubs:
Abbassiamo l’opacità del livello al 30% e nei punti dove l’effetto risulta essere troppo
accentuato (in questo caso sul radiatore del veicolo) utilizziamo lo strumento gomma per
rendere visibile il livello sottostante.
Direi che il lavoro è finito!
In conclusione
Come avrete intuito questo non è "IL" metodo ma un metodo che deve essere adattato alla
foto da elaborare. Per un buon risultato è importante partire da una fotografia discreta con
il più basso rumore possibile, dato che l’HDR tende ad enfatizzare questo rumore. Non
tutti i soggetti sono adatti a questo tipo di elaborazione, metalli e superfici riflettenti,
invece, daranno notevoli risultati. Partendo da un soggetto molto contrastato l’immagine
finale risulterà altrettanto ben esposta e gradevole ma si avrà necessità di più scatti…5, 7 o
addirittura 9.
Un effetto simile, sebbene più grossolano, si potrà ottenere partendo anche da un solo
scatto: sviluppando in maniera differente lo stesso file RAW variandone di volta in volta la
luminosità.
2-9 .l’elaborazione del formato RAW
Il formato RAW è uno strumento che apre molte possibilità creative e permette di fare
molto più facilmente foto “come i professionisti”. È importante quindi sapere cos’è e
quali vantaggi offre.
Andiamo allora ad analizzarlo nel resto dell’articolo.
Cos’è il formato RAW
RAW in inglese significa crudo, grezzo. Le foto in formato RAW sono appunto grezze,
contengono tutta quanta l’informazione registrata dal sensore della macchina
fotografica. Al contrario, se non lo sai, le foto in formato JPEG sono compresse e per
effettuare questa compressione vengono persi dei dati, delle informazioni.
I file RAW invece non sono compressi, per questo la loro dimensione è molto più elevata
rispetto alla loro controparte compressa.
La possibilità di scattare in formato RAW è offerta da tutte le fotocamere reflex digitali,
dalle bridge e da molte digitali compatte.
Inoltre, una cosa da sapere è che per qualche antipatico motivo, ciascun produttore di
macchine fotografiche adotta il suo formato RAW proprietario. Le informazioni
contenute nei file RAW generati da macchine di diverse marche sono per la maggior parte
simili, ma ci sono degli elementi che li contraddistinguono e che rendono necessari
software compatibili per poterli utilizzare.
Perché usare il formato RAW
Il formato RAW ha un unico grande vantaggio: siccome non è compresso esso mette
nelle mani del fotografo la massima quantità di informazione possibile su cui
lavorare per ottenere l’immagine che desidera.
Per questo una foto in formato RAW è detto negativo digitale, in quanto equivale al
rullino che viene prodotto dalle fotocamere analogiche.
Volendo fare un paragone non completamente appropriato con l’arredamento delle case,
un fotografo che può lavorare su una foto in RAW è come se avesse a disposizione una casa
appena costruita, completamente deserta, in cui è permesso dipingere le pareti,
aggiungere lampadari, scegliere completamente l’arredamento.
Un fotografo che invece ha a disposizione un file JPEG ha una casa in affitto in cui non può
bucare le pareti, non può dipingerle e non ha la possibilità di spostare i mobili già presenti.
La maggiore quantità di informazione disponibile in una foto in formato RAW ha diverse
conseguenze molto positive:
•
•
•
•
il bilanciamento del bianco può essere completamente rifatto via software, non è
necessario che sia corretto al momento dello scatto;
è molto più facile rimuovere il rumore (ad esempio dipende da un valore alto di ISO),
limitando la perdita di definizione la fotografia;
è possibile correggere l’esposizione, con gli appositi software (come ad
esempio Lightroom) è anche possibile correggere l’esposizione di singoli elementi
all’interno della foto;
c’è un maggiore spazio di azione per ogni tipo di elaborazione, dal contrasto, alla
nitidezza, alle curve di viraggio, al recupero degli elementi sottoesposti o sovraesposti, ecc.
Tutti questi aspetti rendono il formato RAW il prediletto dai fotografi. La stragrande
maggioranza dei fotografi professionisti scatta solamente in RAW.
Perché non usare il formato RAW
Ogni medaglia ha il suo rovescio. A fronte degli indiscutibili vantaggi del RAW, che ho
appena elencato, ci sono alcuni evidenti svantaggi.
•
•
•
Innanzitutto, l’elevata dimensione dei file ha diverse conseguenze negative:
le schede di memoria vengono riempite molto più velocemente,
se si è soliti fare raffiche di scatti, tenendo premuto il pulsante di scatto, talvolta usando il
formato RAW si riescono a fare a meno scatti al secondo,
il trasferimento dei file al computer è più lento.
In secondo luogo, i file RAW non possono essere visualizzati ed elaborati senza appositi
programmi. Questo rende molto più lenta la produzione delle foto.
Non è possibile, ad esempio, estrarre le foto dalla scheda di memoria e caricarle
direttamente su Internet, bisognerà almeno esportarle in JPEG.
Fortunatamente, la disponibilità di programmi in grado di leggere ed elaborare i file RAW
è molto vasta, sia per quanto riguarda i programmi a pagamento (tra tutti, Lightroom) che
quelli gratuiti (ad esempioRawTherapee). In futuro, con altri articoli, andremo a vederne
alcuni e a capire come si utilizzano.
Infine, quando apriremo la foto in formato RAW sul nostro computer, ci accorgeremo che
essa non apparirà come la vedevamo sullo schermo della macchina. Questo accade perché
la fotocamera normalmente applica delle elaborazioni che sono registrate nei JPEG e
nell’anteprima visibile sullo schermo ma non nei file RAW.
Fortunatamente, è molto facile trovare dei preset per i vari programmi di elaborazione che
permettono con un solo clic di applicare al RAW quelle elaborazioni che erano presenti
anche nella macchina fotografica.
Cosa scegliere, RAW o JPEG?
Come hai visto, il formato RAW non è perfetto, ha alcuni difetti.
Ci sono situazioni in cui abbiamo la necessità di produrre foto che siano direttamente
condivisibili oppure in cui dobbiamo fare molti scatti al secondo (ad esempio quando
fotografiamo eventi sportivi). In questi casi effettivamente il JPEG può essere
preferibile.
Comunque, al giorno d’oggi, la maggior parte delle fotocamere è in grado di creare ottime
foto in formato JPEG.
Tuttavia, molti fotografi professionisti suggeriscono accoratamente di passare il prima
possibile a scattare tutte le foto in formato RAW. Questo consiglio è valido
soprattutto per chi ambisce a diventare un’artista più che a raccogliere solamente i
ricordi degli eventi della propria vita.
Io mi trovo completamente d’accordo.
Infatti, il formato RAW ci dà un controllo infinitamente maggiore nella produzione della
foto, nel passaggio dall’acquisizione della luce da parte del sensore all’immagine finita in
cui, grazie all’elaborazione digitale,creiamo e sottolineiamo accuratamente il
messaggio che vogliamo trasmettere.
2-10
Filigrana e protezione del copyright
Filigrana e protezione del copyright Leggere una filigrana Digimarc
1. Scegliete Filtro > Digimarc > Leggi filigrana. Se viene rilevata una
filigrana, nella finestra di dialogo vengono visualizzati l’ID
Digimarc, le informazioni sull’autore e gli attributi dell’immagine.
2. Fate clic su OK oppure, per ulteriori informazioni, fate clic su
Consulta Web. Nel browser Web viene visualizzato il sito
Digimarc, con i dati di contatto relativi all’ID dell’autore..
Aggiungere informazioni digitali di copyright
Potete aggiungere informazioni di copyright alle immagini di Photoshop e
segnalare agli utenti, tramite una filigrana digitale basata sulla tecnologia
Digimarc ImageBridge, che un’immagine è protetta da copyright. La
filigrana (codice digitale aggiunto all’immagine come disturbo) è
praticamente invisibile a occhio nudo. La filigrana Digimarc è durevole sia in
forma digitale che stampata e si conserva anche se modificate l’immagine e
la convertite in un altro formato.
Una filigrana digitale incorporata in un’immagine permette di visualizzare
informazioni circa il suo autore. Questo aspetto è particolarmente
significativo quando gli autori di immagini cedono in licenza le loro opere.
Quando copiate un’immagine con filigrana incorporata, copiate anche la
filigrana e tutte le informazioni corrispondenti.
Per ulteriori informazioni su come incorporare filigrane digitali Digimarc,
consultate il sito Web Digimarc, all’indirizzo www.digimarc.com.
Prima di aggiungere una filigrana digitale
Prima di incorporare nelle immagini una filigrana digitale, tenete presente
quanto segue:
Variazione del colore
L’immagine deve presentare una certa variazione o casualità del colore affinché sia
possibile incorporare la filigrana digitale al meglio e in modo impercettibile.
L’immagine non deve essere composta, né per la maggior parte né interamente, da
un unico colore piatto.
Dimensioni in pixel
La tecnologia Digimarc richiede un numero minimo di pixel per poter funzionare.
Digimarc consiglia di inserire una filigrana solo in immagini con le seguenti
dimensioni minime in pixel:
•
100 x 100 pixel, se non prevedete di modificare o
di comprimere l’immagine prima di usarla.
•
256 x 256 pixel, se prevedete di tagliare, ruotare,
comprimere o modificare in altro modo
l’immagine dopo averle applicato la filigrana.
•
750 x 750 pixel, se prevedete che l’immagine
venga stampata a 300 dpi o risoluzione
maggiore.
Non esiste invece alcun limite massimo delle
dimensioni.
Compressione dei file
Sebbene, in genere, una filigrana Digimarc resiste ai metodi di compressione con
perdita di dati come il JPEG, è consigliabile preferire la qualità dell’immagine alla
dimensione del file scegliendo un’impostazione di compressione JPEG 4 o
superiore. Inoltre, maggiore è l’impostazione di Durata filigrana che scegliete
quando la incorporate, maggiori sono le probabilità di ritenere la filigrana digitale
dopo la compressione.
Flusso di lavoro
La creazione di una filigrana digitale deve essere una delle ultime operazioni da
eseguire, prima dell’eventuale compressione del file.
Il flusso di lavoro consigliato è il seguente:
•
Apportate all’immagine tutte le modifiche del
caso (ridimensionamento, correzione del colore,
ecc.) fino ad ottenere il risultato desiderato.
•
Incorporate la filigrana Digimarc.
•
Se necessario, comprimete l’immagine
salvandola in formato JPEG o GIF.
•
Se l’immagine è destinata alla stampa, effettuate
la selezione colore.
•
Leggete la filigrana e usate il misuratore
dell’intensità del segnale per assicurarvi che
l’immagine contenga una filigrana di intensità
adeguata alle vostre esigenze.
•
Pubblicate l’immagine con la filigrana digitale.
Incorporare una filigrana
Per incorporare una filigrana digitale, dovete prima registrarvi presso
Digimarc Corporation per ottenere un ID Digimarc univoco ed essere inseriti
in un database di artisti, designer e fotografi con relative informazioni di
contatto. Potrete quindi incorporare nelle immagini l’ID Digimarc e
informazioni quali l’anno del copyright o un identificatore di uso limitato.
1. Aprite l’immagine a cui volete applicare la filigrana. Potete
incorporare una sola filigrana digitale per immagine. Il filtro Includi
filigrana non funziona con un’immagine che ne contiene già una.
Se lavorate con un’immagine a più livelli, dovete unirli
in un unico livello prima di inserire la filigrana, per
evitare che questa riguardi solo il livello attivo.
Nota: per aggiungere una filigrana digitale a un’immagine in scala di
colore, convertitela prima in un’immagine RGB, incorporate la
filigrana, quindi riconvertire l’immagine in scala di colore. Tuttavia,
l’aspetto potrebbe risultare diverso da quello iniziale. Per assicurarvi
di avere incorporato la filigrana, attivate il filtro Leggi filigrana.
2. Scegliete Filtro > Digimarc > Includi filigrana.
3. Se usate il filtro per la prima volta, fate clic su Personalizza. Per
ottenere un ID Digimarc, fate clic su Info per avviare il browser Web e
visitare il sito Web di Digimarc all’indirizzo www.digimarc.com.
Immettete il PIN e l’ID nella casella di testo ID Digimarc e fate clic
su OK.
Una volta inserito l’ID, il pulsante Personalizza diventa
Cambia, per consentirvi all’occasione di inserire un
nuovo ID Digimarc.
4. Digitate l’anno del copyright, l’ID di transazione o l’ID immagine.
5. Selezionate uno dei seguenti attributi:
Uso riservato
Limita l’uso dell’immagine.
Non copiare
Specifica che l’immagine non deve essere copiata.
Contenuto per adulti
Indica che il contenuto dell’immagine è riservato a un pubblico di soli
adulti. In Photoshop, questa opzione non limita l’accesso alle
immagini per adulti; tuttavia potrebbe esserne limitata la
visualizzazione in versioni future di altre applicazioni.
6. Per Durata filigrana, trascinate il cursore o inserite un valore, come
descritto nella sezione successiva.
7. Selezionate Verifica per valutare la durata della filigrana dopo
l’incorporamento.
8. Fate clic su OK.
L’impostazione predefinita Durata filigrana consente di stabilire un
equilibrio tra la durata della filigrana e la relativa visibilità nella maggior
parte delle immagini. Potete tuttavia regolare questa impostazione in base
alle vostre esigenze. I valori bassi rendono la filigrana meno visibile in
un’immagine, ma anche meno durevole; potrebbe danneggiarsi se applicate
filtri o eseguite operazioni di modifica, stampa o digitalizzazione. I valori alti
rendono la filigrana più durevole, ma possono compromettere la
visualizzazione dell’immagine.
L’impostazione dipende dall’uso a cui è destinata l’immagine e dal ruolo
delle filigrane. Ad esempio, una Durata filigrana più elevata potrebbe essere
indicata per immagini JPEG destinate a un sito Web. Una durata maggiore
assicura la resistenza della filigrana; la maggiore visibilità non incide molto
sulle immagini JPEG a media risoluzione. Digimarc consiglia di provare
diverse impostazioni fino a determinare quella che meglio si adatta alla
maggior parte delle vostre immagini.
Usare il misuratore dell’intensità del segnale
Il misuratore dell’intensità del segnale verifica se una filigrana è
sufficientemente durevole per persistere nell’immagine secondo l’uso a cui è
destinata.
Scegliete Filtro > Digimarc > Leggi filigrana. Il misuratore dell’intensità del segnale
compare in fondo alla finestra di dialogo. Potete anche visualizzare il misuratore in
automatico, selezionando Verifica quando incorporate la filigrana.
Il misuratore è disponibile solo per le immagini contenenti filigrane digitali
da voi incorporate.
Digimarc consiglia di controllare il misuratore prima di pubblicare le
immagini (ad esempio, se comprimete immagini con filigrana da includere
in un sito Web). Il misuratore dell’intensità del segnale è inoltre utile per
confrontare l’efficacia di diverse impostazioni di Durata filigrana.