MANUALE DI FOTOGRFAUI DIGITALE corretto
Transcript
MANUALE DI FOTOGRFAUI DIGITALE corretto
MANUALE DEL CORSO DI FOTOGRAFIA DIGITALE PROGRAMMA DIDATTICO DEL CORSO DI “FOTOGRAFIA DIGITALE” prof. Antonio Ruggieri La fotocamera digitale 1-1 Sensori CCD e CMOS 1-2 Risoluzione e megapixel 1-3 Interpolazioni 1-4 Memorie di immagazzinamento 1-5 Formati di salvataggio immagini: jpg, tiff, raw 1-6 Exif e metadati 1-7 Le ottiche e il fattore di conversione 2.0 La gestione digitale delle immagini 2.1 Spazi colore 2.2 Profondità Bit e Gamma 2.3 RGB, CMYK, LAB 2-4 La calibrazione di monitor e periferiche 2-5 I profili colore 2-6 Conversione del colore 2-7 Bilanciamento e correzione dei colori 2-8 HDR 2-9 l’elaborazione del formato RAW 2-10 Filigrana e protezione del copyright 3.0 Fotografia multimediale 3.1Creare fotografie panoramiche 4.0 Presentazioni fotografiche multimediali 4.1 Creare una presentazione in pdf 1.0 La fotocamera digitale Introduzione Negli ultimi anni abbiamo assistito gradualmente ad un abbandono del formato analogico a favore di quello digitale. Questa rivoluzione ha coinvolto la musica (Il CD ha praticamento soppiantato le cassette), il cinema (le videocassette sono state sostituite dai DVD) e naturalmente anche la fotografia con l'avvento delle nuove macchine fotografiche digitali. Proprio questo tipo di apparecchi hanno subito forse il più grande cambiamento tecnologico. Si è passati infatti da un processo meccanico e chimico delle vecchie macchine fotografiche ad un processo di digitalizzazione dell'immagine realizzabile mediante microprocessori e sensori. Nelle pagine successive vediamo di conoscere meglio le macchine fotografiche digitali La più grande differenza tra una vecchia macchina fotografica ed una digitale è sicuramente la mancanza della pellicola. Nella camere digitali, essa è sostituita da un sensore che converte la luce in cariche elettriche. Attualmente ci sono due tipi di sensori in commercio, i CCD (Charge Coupled Device) ed iCMOS (Complementary Metal Oxide Semiconductor). I CCD sono quelli attualmente più usati e sono costituiti da una serie di diodi (detti photosites) sensibili alla luce che convertono ogni fotone di luce ricevuto in una carica elettrica. A seconda dell'intensità della luce quindi avremo dei photosites più o meno carichi di elettroni. Il processo successivo sarà quello di convertire la carica di ogni photosites (ovvero di ogni pixel della futura foto) in un formato digitale mediante un ADC (Analog to Digital Converter). Il processo per i sensori CMOS è praticamente identico ma con alcune differenze riguardo alla qualità. I sensori CMOS sono infatti molto più sensibili alle interferenze e qundi producono un immagine qualitativamente inferiore rispetto ai sensori CCD. D'altra parte sono comunque più flessibili in termini tecnologici e consumano 100 volte meno dei CCD! Ovviamente però in una fotografia la qualità è uno degli elementi imprenscindibili per cui i CCD vengono preferiti ai CMOS. I sensori sono uno dei miracoli tecnologici che hanno permesso la creazione delle camere digitali e si distinguono per le loro dimensioni incredibilmente piccole. In una camera da 1.3 megapixels un sensore CCD misura circa 4.4mm x 6.6mm! Megapixels Una delle caratteristiche più pubblicizzate di una camera digitale è il numero di megapixelche essa possiede, ovvero il numero di puntini (pixels) espresso in milioni che può catturare in una singola foto. Ovviamente più è alto il numero dei megaPixel e più la qualità della foto è alta. In commercio attualmente ci sono camere digitali che vanno da 1 fino a 5 Megapixel anche se a prezzi molto più alti, e riservate ai veri professionisti della foto è possibile trovarne anche con più di 10 Megapixel! Il numero dei Megapixel è comunque indicativo e non indica realmente il numero dei pixel che vengono catturati in un singolo scatto. Una camera a 2.1 Megapixel ha una risoluzione massima di 1600x1200 pixels, ovvero di 1.920.000 pixels, quindi circa 200.000 pixels in meno di quanto atteso. La spiegazione sta nel fatto che 2.1 Megapixel indica in realtà la presenza di circa 2.100.000 photosites sul sensore. Questi non sempre vengono usati per mappare dei pixels ma una piccola percentuale viene usata per altre operazioni quali ad esempio la conversione da analogico a digitale. I photosites dedicati a queste operazioni sono ovviamente posizionati agli estremi della matrice del sensore e sono coperti da uno strato nero che non fa filtrare la luce e non gli permette quindi di caricarsdi elettronicamente come gli altri. Processo di una foto Nei prossimi 9 punti vediamo quello che succede quando scattiamo una semplice foto con una macchina fotografica digitale: • 1.Quando il pulsante di scatto è a metà, il fuoco e l'esposizione vengono regolati automaticamente per produrre una foto ben fatta. Quando avviene lo scatto vero e proprio, l'otturatore si apre, la luce passa attraverso lenti e filtri e raggiunge il sensore CCD. • 2. Il sensore ha una serie di photosites (il numero è equivalente ai megapixels della camera) organizzati in una matrice detta Bayer Mosaic, che catturano la quantità di fotoni passata e li trasformano in cariche elettriche. Bayer Mosaic In questa matrice (o mosaico) viene alternata una riga di rossi e verdi ad una di blue e verdi. Il motivo per cui il verde compare più degli altri due colori è che l'occhio umano non ha la stessa sensibilità a tutti e tre i colori, quindi per ottenere un immagine reale abbiamo bisogno di più informazioni sul verde. • 3.Ogni photosite è coperto da un filtro blue, rosso o verde in modo da catturare solamente uno di questi colori. L'informazione del colore viene trasmessa ad un diodo fotosensibile che assorbe la luce e genera elettroni a seconda dell'intensità della luce stessa. • 4. Alla fine della foto (alla chiusura dell'otturatore), le informazioni (le cariche elettriche) vengono inviate una riga alla volta ad un registro. • 5. A questo punto le cariche elettriche vengono amplificate e convertite mediante dei circuiti integrati (Analog to Digital Converter) in informazioni digitali. • 6. L'immagine ottenuta viene elaborata, memorizzata in una memoria temporanea(DRAM) e mostrata in formato ridotto sul display LCD della camera. A questo punto è possibile decidere se tenere o cancellare la foto. Se si decide di essa sarà cancellata immediatamente dalla memoria temporanea. • 7. Nel caso la foto venga tenuta, essa viene elaborata con alcuni sofisticati processi che servono a produrre una foto di alta qualità. Il De-Mosaicing serve ad elaborare i colori della foto e a produrre le gradazioni mancanti. Il Color correction aggiusta l'intensità del blue e del rosso per raggiungere un corretto bilanciamento con il verde (e produrre quindi un bianco "pulito"). Il processo di Enhancement infine serve ad adattare i colori catturati dal CCD a quelli tipici percepiti dall'occhio umano. • 8. Una volta che l'immagine è stata costruita, essa deve essere compressa. Considerando che una foto fatta a 3.1 Megapixel occupa circa 9 megabytes, è impensbile usare il formato originale. Solitamente viene adottata una compressione JPEG con cui si riduce la foto a circa 900 K mantenendo comunque un altissima qualità. • 9. L'immagine finalmente può essere salvata sulla memoria della camera e successivamente esportata su un computer, un PDA o direttamente su una stampante. Memorizzare foto Per salvare le foto scattate, una camera digitale può essere dotata di una delle seguenti unità di memorizzazione: • • • • • SmartMedia Cards e CompactFlash - Due tipi molto simili di memorie Flash Memory Stick - Un altro tipo di memoria Flash proprietaria della Sony Floppy disk Hard disk CD e DVD In pratica questi dispositivi di salvataggio hanno sostituito la pellicola delle vecchie macchine fotografiche. Il grande vantaggio è però che esse possono essere svuotate (su un PC ad esempio) e riscritte all'infinito. La maggiore differenza tra i tipi di supporto visti sopra è ovviamente la loro capacità. Nella tabella seguente vediamo lo spazio occupato da una singola foto in relazione al suo formato e alla compressione usata. Risoluzione TIFF non compresso JPEG alta qualità JPEG media qualità 640x480 1 Mbytes 300 Kbytes 90 Kbytes 800x600 1.5 Mbytes 500 Kbytes 130 Kbytes 1024x768 2.5 Mbytes 800 Kbytes 200 Kbytes 1600x1200 6 Mbytes 1.7 Mbytes 420 Kbytes Da questa tabella si evince che il supporto peggiore in termini di capacità è sicuramente ilfloppy disk che con appena 1.4 Megabytes può contenere al massimo qualche foto (addirittura nessuna se si usa il formato TIFF non compresso). Il massimo in termini di capacità è sicuramente dalle Flash Memory a 128/256 Megabytes che possono contenere centinaia di foto anche ad altissima qualità. Ecco alcuni consigli sull'acquisto di una camera digitale. Scegliere la risoluzione in base all'uso della macchina Se dovete fare delle foto da pubblicare su Internet o con una qualità medio-bassa, potete accontentarvi di una risoluzione 640x480. Se invece avete intenzione di stampare le vostre foto come facevate prima con la vostra Reflex, il consiglio è quello di acquistare un modello da almeno 3 o 5 Megapixel. Verificate come la camera memorizza le foto Abbiamo visto che ci sono differenti supporti per salvare le foto. Se acquistiamo una camera con un supporto a bassa capacità (come ad esempio un floppy disc), dovremo effettuare loscarico delle foto sul PC molto frequentemente ed avremo problemi nel caso volessimo portare la nostra camera in vacanza qualora non avessimo un PC al seguito !!! Non confondere lo zoom digitale da quello ottico Tutte le camere hanno l'indicazione dello Zoom che riescono a raggiungere. Ricordatevi però che il vero zoom è quello ottico mentre quello digitale non è altro che un processo di elaborazione della foto che viene interpolata per raggiungere dimensioni maggiori di quella originale. Lo zoom digitale è quello che potete effettuare anche manualmente con un programma di grafica. Verificare la durata della batteria in dotazione Come visto in precedenza, le camere digitali assorbono potenza per alimentare il sensore, il display LCD ed il microprocessore. Se non abbiamo una batteria più che cpace, saremo costretti a fare i conti con continue ricariche. Non confondere la risoluzione vera da quella interpolata Alcuni produttori di camere pubblicizzano il loro prodotto con frasi del tipo "risoluzione 1000X800 e 1600x1200 interpolata". La risoluzione interpolata in realtà non è altro che un processo che elabora la foto nel formato originale (nel nostro esempio 1000x800) e la ingrandisce (per interpolazione) fino ad arrivare ad un altro formato (nel nostro esempio 1600x1200). E' lo stesso processo che avviene nello zoom digitale ed in pratica si tratta solo di un "ingrandimento" della foto originale a cui vengono adattate nuove dimensioni. 1-1 .Sensori CCD e CMOS CCD = Charge Coupled Device CMOS = Complementary Metal Oxide Semiconductor Il CCD è un sensore che produce una qualità d’immagine piuttosto buona, e che viene per questo impiegato in applicazioni scientifiche dove il costo non è rilevante (ad esempio, viene usato per i telescopi spaziali) o professionali (es. per le migliori macchine fotografiche). Si tratta comunque di un dispositivo molto complesso, che ha bisogno di generatori di frequenze di temporizzazione diverse (es. per la lettura orizzontale e per quella verticale…) e che quindi necessita di una circuitazione e componenti supplementari particolari. Rispetto alla tecnologia un po’ più recente e più economica dei CMOS, i CCD hanno il vantaggio di avere un rapporto tra segnale e rumore migliore, di permettere una sensibilità maggiore da parte del dispositivo di acquisizione, di permettere la costruzione si elementi di base (pixel) più piccoli. Dal canto loro i CMOS hanno il vantaggio di essere più economici, di integrarsi più facilmente nei circuiti degli apparecchi che li ospitano, di consumare meno corrente (e in questo senso sono molto interessanti a causa della durata critica delle batterie) e di consentire la costruzione di dispositivi più compatti. Questo non tanto per le dimensioni del sensore, ma perché non richiedono quei dispositivi supplementari (es. generatori di frequenze diverse) tipici del CCD. E’ ora evidente il motivo per cui vengono impiegati i CCD per le applicazioni in cui serve la qualità d’immagine a qualunque costo. Dove per “costo” non si deve intendere solo il costo fisico del sensore, ma anche in termini di svantaggio, come il consumo di corrente o l’ingombro. In particolare la produzione di una immagine con un elevato rapporto tra segnale e rumore comporta fotografie più nitide, senza la granulosità di fondo che la rende “sporca” e priva della dovuta limpidezza 1-2 Risoluzione e megapixel Introduzione In questo capitolo cercheremo di capire, prima di tutto, la terminologia adottata per definire le dimensioni e le caratteristiche principale di un'immagine e in secondo luogo vedremo cosa hanno a che fare sigle come dpi, ppi, o megapixel con una fotografia stampata. Mini Glossario Per cominciare riporto alcuni dei termini base usati con maggior frequenza dandone una breve spiegazione: - dpi: ( Dots Per Inch ) Unità di misura utilizzata per indicare la risoluzione grafica che può essere riprodotta ad esempio da una stampante. - MegaPixel: Unità di misura corrispondente a 1 milione di pixel. Molto usata per definire la risoluzione di una immagine prodotta da una macchina digitale. - bit: Un bit è la più piccola quantità di informazione memorizzabile. - byte: Unità di misura corrispondente a 8 bit. - Kilobyte: 1024 byte. - Megabyte: 1 milione di byte. - pixel: ( Picture Element ) Il più piccolo tra gli elementi che vengono visualizzati su uno schermo. La più piccola area dello schermo che possa accendersi e spegnersi e variare d'intensità indipendentemente dalle altre. - ppi: (pixel per inch) Unità di misura concettualmente simile a dpi ma utilizzata per definire la risoluzione di monitor, scanner e macchine fotografiche digitali. Le immagini digitali Quando scattiamo una fotografia la nostra macchina digitale svolge, in rapidissima successione una serie di passi. Prima di tutto viene impostato il diaframma al valore scelto. Successivamente l'otturatore si apre e lascia passare luce in modo da impressionare il sensore digitale. Quest'ultimo trasforma le informazioni luminose in impulsi elettrici e li invia ai circuiti dedicati all'elaborazione dell'immagine. Qui i dati verranno adeguatamente manipolati e infine salvati come file digitale. A questo punto nella nostra scheda di memoria abbiamo archiviata sotto forma di bit una fotogradia digitale. La stampa Dopo questa lunga, ma credo abbastanza interessante, introduzione, veniamo al dunque cercando di capire come si passa dal file memorizzato sull'hard disk ad una bella fotografia appesa al muro del nostro soggiorno. In questi casi non è raro sentirsi porre domande del tipo: ...quanto grande posso stampare questa immagine ? o ancora ...ho stampato questa fotografia in formato A4 ma i risultati sono pessimi ...perchè ? Il nocciolo della questione è quindi capire quale relazione esista tra risoluzione di un'immagine digitale e dimensione finale della stampa. Prima di tutto cerchiamo di fare luce sul concetto di dpi. Un'immagine digitale è composta essenzialmente da un certo numero di punti colorati, i pixel, disposti ordinatamente in una griglia di dimensioni fissate. Ad esempio una foto da due megapixel sarà composta da circa 2 milioni di pixel disposti in un rettagolo di dimensioni 1600x1200 pixel per lato circa. Stampare una foto significa riportare su carta tutti i punti costituenti l'immagine. Qui interviene il concetto di dpi. Un certo valore di dpi ( dots per inch ) infatti ci dice quanti punti (dots) vengono stampati per ogni pollice (inch). Valori più alti significheranno che i punti saranno più fitti, più vicini tra loro. Al contrario valori bassi indicheranno che i punti avranno una densità, una distanza tra di loro più elevata. Punti troppo distanti tra loro daranno luogo ad un'immagine poco definita, granosa in cui i punti stessi saranno visibili ad occhio nudo con conseguente degrado della qualità della stampa. Aumentando la densità dei punti si ottengono immagini migliori, in cui non è presente alcun effeto grana e in cui i passaggi tonali sono più graduali e delicati. A causa della struttura stessa dei nostri occhi però è inutile superare una cera soglia di definizione. Il nostro apparato visivo infatti è in grado di distinguere dettagli fino alla risoluzione di circa 300dpi. Oltre questo valore, ogni informazione aggiuntiva verrebbe confusa con le altre e non sarebbe rilevabile. Per questo motivo si è stabilito che la risoluzione ottimale per un'immagine fotografica sarà di circa 300dpi (massima qualità) con un minimo di 200-240dpi in casi particolari. Utilizzi diversi dalla stampa prevedono tuttavia valori acnhe molto più bassi. Vedi tabella. DESTINAZIONE Esposizioni, Libri, Riviste di Qualità Stampe di grandi dimensioni Quotidiani Web - Monitor VALORE dpi CONSIGLIATO 300dpi 200dpi 100dpi 72dpi Conclusioni Una volta compreso il concetto di dpi basta tenere a mente quanto segue: 1. Un'immagine digitale è definita da una dimensione, espressa in pixel, per il lato maggiore e una per il lato minore. 2. Un'immagine digitale NON ha dimensioni ASSOLUTE di stampa. 3. La relazione tra dimesioni in pixel e dimensioni in cm della stampa passa SOLO ed ESCLUSIVAMENTEattraverso il concetto di dpi. Riporto una piccola tabella che mette in evidenza il rapporto esistente tra il numero di megapixel, la risoluzione e la dimensione massima stampabile a 72, 150 e 300dpi. MEGAPIXEL RISOLUZIONE 1 Megapixel 2 Megapixel 3 Megapixel 4 Megapixel 5 Megapixel 6 Megapixel 11 Megapixel 1280x768 1600x1200 2048x1536 2272 x 1704 2560 x 1920 3072x2048 4064 x 2704 STAMPA a STAMPA a 150 STAMPA a 300 72dpi dpi dpi 45x27 21x13 10x6 56x42 27x20 13x10 72x54 34x26 17x13 80x60 38x28 19x14 90x67 43x32 21x16 108x72 52x34 26x17 143x95 68x45 34x22 Esempi L'immagine presentata all'inizio dell'articolo è stata realizzata come Risoluzione & Dimensioni di circa 6 scatti provenienti da una reflex digitale Canon EOS 10D da circa 6 megapixel. Il risultato finale è una stampa 60x15cm. Per chiarire i concetti fin qui esposti riporto la schermata delle dimensioni dell'immagine relative a Photoshop. Come potete vedere una fotografia di circa 60cm di lato richiede ben 7195 pixel per essere stampa alla massima qualità di 300dpi. Modificare le dimensioni di un'immagine A volte può essere necessario modificare le dimensioni di un'immagine per adattarla a scopi specifici. Esisto 2 modi di procedere. 1. Risoluzione fissa Modificare le dimensioni in pixel dell'immagine lasciando invariato la risoluzione in dpi. Questo approccio è "indolore" nel caso l'immagine venga rimpicciolita mente può creare un degrado di qualità nel caso in cui le dimensioni finali siano maggiori di quelle iniziali. Riducendo le dimensioni di un'immagine infatti non si fa altro che scartare dati non più necessari. Ingrandendo invece, il programma di fotoritocco dovrà interpolare i dati esistenti per crearne di nuovi. Questo processo, sebbene venga realizzato tramite algoritmi molto sofisticati, ha dei limiti e da risultati accettabili solo se usato con moderazione. Per compiete questa operazione nella casella delle dimensioni immagine di photoshop, assicurarsi che la voce "Resample image - Ricampiona Immagine" sia SELEZIONATA. Successivamente modificare dimensioni a piacere. Notate come anche le dimensioni dell'immagine siano variate. Il file, prima di 37 MB è diventato ora di 101 MB. Questa è conseguenza dei nuovi dati, generati dal programma di fotoritocco, che sono serviti per passare dalla risoluzione di 7.195 pixel alla nuova di 11.811 pixel. Allo stesso tempo notate come i dpi siano rimasti fissi a 300. 2. Dimensioni in pixel fisse Questo secondo approccio prevede di modifcare la risoluzione dell'immagine cambiando il valore di dpi. Anche in questo caso rimpicciolendo l'immagine non si hanno particolari controindicazioni. Ingrandendo invece il problema risiede nel fatto che si tenta di disporre su una superficie più ampia lo stesso numero di pixel che dostituivano l'immagine iniziale. Per forti ingrandimenti il livello qualitativo della stampa potrebbe non essere accettabile. Per compiete questa operazione nella casella delle dimensioni immagine di photoshop, assicurarsi che la voce "Resample image - Ricampiona Immagine" NON sia SELEZIONATA. Successivamente modificare dimensioni a piacere. Noterete che il valore dpi diminuirà se ingrandirete l'immagine e aumenterà se la rimpicciolirete. La dimensione im MB dell'immagine è rimasta costante come i valori in pixel. Avendo DESELEZIONATO il ricampionamento immagine, modificando le dimensioni cambia solo la risoluzione. 1.3 Interpolazione digitale delle immagini L’interpolazione digitale delle immagini si verifica in tutte le foto digitali che vengono, in un qualche modo, manipolate, sia che si applichi un riduzione, un ingrandimento o una rimappatura sull’immagine stessa. Il ridimensionamento delle immagini, tanto per fare un esempio, è praticato quando è necessario aumentare o diminuire il numero totale di pixel mentre la rimappatura accade quando è necessario intervenire sulla fotografia per apportare una correzione per la distorsione della lente, un cambio di prospettiva o la rotazione di un’immagine. L’interpolazione di un’immagine non è univoca ma varia da programma a programma, o meglio da algoritmo ad algoritmo, impiegato per realizzarla. L’interpolazione va, in poche parole, considerata come un’approssimazione dell’immagine originale e, per giungere a quest’approssimazione, esistono differenti strade che possono essere seguite. Il concetto base dell’interpolazione digitale delle immagini L’interpolazione funziona utilizzando dati noti per stimare valori in punti sconosciuti . Ad esempio, se si vuole conoscere la temperatura a mezzogiorno ma si conosce solo la temperatura misurata alle 11:00 ed alle 13:00, è possibile stimare il valore a mezzogiorno eseguendo un’interpolazione lineare : L’interpolazione diviene più complessa (polinomiale)nel caso fosse presente un ulteriore valore di temperatura, per esempio alle 11:30. La seconda interpolazione porta ad un risultato più preciso ma richiede una maggiore potenza di elaborazione. Nell’ambito dell’interpolazione delle immagini avviene più o meno la stessa cosa cercando, per ogni pixel, di ottenere la migliore approssimazione possibile del colore e dell’intensità leggendo i valori dei pixel limitrofi. Nel disegno qui sopra l’esempio di un ingrandimento al 183%. Il colore e l’intensità di ogni pixel “blu” viene calcolato facendo una media dei quattro pixel limitrofi ed il risultato è l’immagine interpolata in alto. Al contrario, se non si facesse l’interpolazione, il pixel aggiuntivo blu avrebbe il colore e l’intensità del pixel alla sia sinistra (una specie di copia, insomma) ed il risultato sarebbe l’immagine non interpolata in basso. Come si evince, l’immagine interpolata ha una risoluzione (in termini di dettagli) decisamente superiore. Ovviamente più l’immagine si allarga, meno preciso sarà il risultato finale. La Rotazione e l’interpolazione digitale delle immagini L’interpolazione si verifica anche ogni volta che si ruota o distorce un’immagine. Una rotazione di 90° non comporta alcun tipo di perdita di dati in quanto i pixel vengono risistemati in uno schema identico a quello originale. Quando però si effettua una rotazione da 45°, per esempio, è necessario “ricreare” il pixel “mancante” tra due ch vengono riposizionati. E questo problema si ha ogni qual volta si effettua una successiva rotazione, il che porta alla perdita di informazione per ogni rotazione che viene effettuata. Ecco perché bisogna evitare di ruotare le foto quando è possibile. I risultati di cui sopra utilizzano quello che è chiamato un algoritmo “Bicubic” e mostrano alterazioni significative. Si noti la diminuzione complessiva del contrasto con aloni scuri che si vanno a formare vicino ai pixel azzurri (questo perché la media tra azzurro e nero è un azzurro più scuro). Cambiando interpolazione ed impiegando degli algoritmi più evoluti è possibile migliorare il risultato. Vediamo addesso quali sono gli algoritmi più importanti. Gli Algoritmi di interpolazione digitale delle immagini Gli algoritmi di interpolazione possono essere raggruppati in due categorie: adattativi e non adattativi. I metodi adattivi cambiano a seconda di ciò che stanno interpolando (spigoli vivi oppure linee morbide), mentre i metodi non-adattivi trattano tutti i pixel allo stesso modo. Gli algoritmi non adattativi includono: nearest neighbor, bilinear, bicubic, spline, sinc, lanczos ed altri. A seconda della loro complessità, questi algoritmi usano ovunque 0-256 (o più) pixel adiacenti per ottenere l’interpolazione. Più pixel adiacenti vengono inclusi, più accurata sarà l’interpolazione finale, a scapito ovviamente del tempo di elaborazione. Questi algoritmi possono essere utilizzati sia per distorcere che per ridimensionare una foto. Gli algoritmi adattativi includono molti algoritmi proprietari, inclusi quindi in alcune suite grafiche, come: Qimage, PhotoZoom Pro, Genuine Fractals e altri. Molti di questi algoritmi applicano una versione differente dello stesso algoritmo in funzione dell’area che si sta interpolando, al fine di minimizzare gli artefatti. In pratica l’algoritmo usato su un’area sarà differente da quello impiegato in presenza di un bordo o di una linea. Gli algoritmi adattativi sono progettati principalmente per massimizzare i dettagli privi di artefatti nelle foto ingrandite il che li rende non utilizzabili nell’ambito delle distorsioni o delle rotazioni delle immagini. L’algoritmo nearest neighbor L’algoritmo nearest neighbor è l’algoritmo base e richiede minor tempo di elaborazione rispetto a tutti gli altri algoritmi di interpolazione perché considera solo un pixel , il più vicino al punto interpolato. Questo ha l’effetto di rendere “semplice” ogni pixel più grande. L’algoritmo di interpolazione bilinear L’algoritmo di interpolazione bilineare considera quattro pixel limitrofi presi da una matrice 3×3 dove il punto centrale è quello da interpolare. L’algoritmo di interpolazione bicubica L’algoritmo di interpolazione bicubica va un passo oltre quello bilineare, considerando una matrice 7×7. I pixel che vengono presi in considerazione sono ben 16. Poiché questi pixel sono a varie distanze dal pixel sconosciuto, ai pixel più vicini viene dato un peso maggiore nel calcolo. L’interpolazione bicubica produce immagini notevolmente nitide rispetto ai due metodi precedenti ed è forse la combinazione ideale tra il tempo di elaborazione e qualità finale, tanto che è uno standard in molti programmi di editing di immagini ( tra cui Adobe Photoshop). Gli algoritmi d’interpolazione complessi: SPLINE e SINC. Ci sono molti altri interpolatori che prendono in considerazione più pixel circostanti e quindi sono anche molto più avidi di tempo e di potenza computazionale . Questi algoritmi sono chiamati spline e sinc e la loro caratteristica principale è di conservare un maggior numero di informazioni nell’immagine interpolata rispetto agli altri algoritmi elencati prima. Questi due algoritmi sono quindi estremamente utili quando l’immagine richiede più distorsioni o più rotazioni in fasi successive. Tuttavia, per ingrandimenti o per singole rotazioni, questi due algoritmi forniscono un risultato visivamente meno piacevole degli altri. Gli Artefatti dovuti all’interpolazione Tutti gli algoritmi di interpolazione non adattativi tentano di trovare un equilibrio ottimale tra tre artefatti indesiderati : aloni sui bordi, sfocature ed aliasing. Anche gli interpolatori non adattativi più avanzati restituiranno un’immagine dove uno dei tre artefatti è predominante: non esiste un algoritmo in grado di ridurli tutti e tre del medesimo valore. Gli algoritmi di interpolazione adattativi, invece, possono o non possono produrre gli artefatti elencati sopra, ma possono anche introdurre delle texture estranee all’immagine originale o dei pixel che nulla c’entrano con la stessa immagine. Anti-Aliasing L’ anti-aliasing è un processo il cui scopo è minimizzare la comparsa di frastagliature sui bordi diagonali. Nelle immagini seguenti viene visualizzata la differenza: L’immagine “aliased” è scalinata, mente nell’immagine anti-aliased la scalinatura viene ammorbidita grazie alla presenza di pixel il cui colore è un mix tra il nero a destra ed il grigio a sinistra. Riportando l’immagine a dimensioni non così ingrandite, la linea derivata dall’immagine di destra sarà molto più piacevole da vedere. L’anti- aliasing, in pratica, rimuove i bordi frastagliati e fornisce all’immagine dei bordi dall’aspetto più regolare. Questo processo si ottiene considerando per ogni pixel del bordo e per i suoi adiacenti un valore intermedio: in questo modo si va ad aggiungere una sorta di “ombra” al bordo, ombra che, all’occhio umano, renderà più piacevole il bordo stesso. L’antialiasing, in pratica, non è un incremento delle informazioni presenti nell’immagini ma al contrario riduce le informazioni stesse. 1.4schede di memoria Una scheda di memoria (in inglese memory card[1]), è un dispositivo elettronico portatile di ridotte dimensioni in grado di immagazzinare dati in forma digitale e di mantenerli in memoria anche in assenza di alimentazione elettrica. A tale scopo utilizza una memoria flash (memoria non volatile) contenuta al suo interno. Descrizione Le schede di memoria vengono utilizzate per due fini: per il salvataggio di dati di gioco nelle console e per memorizzare files (musica, immagini, filmati o altro) su periferiche portatili. Ne esistono vari tipi: alcuni sono "proprietari", ovvero funzionano solo sui dispositivi elettronici per i quali sono stati progettati (come ad esempio le memory card per le PlayStation), mentre altri sono compatibili con una grande varietà di dispositivi elettronici, rendendo così possibile lo scambio di dati tra di essi. Le schede di memoria sono da considerarsi un'evoluzione dei classici dischetti utilizzati in passato per trasferire dati da un computer all'altro, rispetto ai quali hanno due fondamentali vantaggi: la non influenzabilità da parte dei campi magnetici, e l'enorme capacità di memoria rispetto ai floppy. Anche la più piccola tra le schede oggi in commercio, infatti, con una capacità di appena 128 o 256 MB, può contenere l'equivalente dei dati contenuti rispettivamente in 89 o 178 classici dischetti, con un ingombro notevolmente inferiore. L'utilizzo delle schede di memoria riduce anche considerevolmente il costo per megabyte: un dischetto da 1,44 MB che costi 50 centesimi di euro ha un costo per MB di 35 centesimi, contro gli 0,0625 centesimi di una scheda da 8 GB (costo intorno ai 4/5 euro, capacità pari a 5960 floppy). Standard delle schede di memoria Attualmente esistono modelli di varie dimensioni, capacità e caratteristiche tecniche, le più capienti per ora raggiungono 512 GB (CompactFlash), ma non sono ancora molto diffuse per via del prezzo; modelli da 8 GB o 16 GB sono invece di uso molto comune. La veloce diffusione e l'elevato numero di produttori e gli interessi commerciali ad essi legati, hanno fatto sì che non si sia ancora giunti ad uno standard per questi dispositivi di archiviazione portatili. Esistono molti tipi diversi di schede di memoria, differenti per dimensione, forma e interfaccia. Nome PC Card CompactFlash I Acronimo Dimensione PCMCIA CF-I DRM 85.6 × 54 × 3.3 mm Nessuno 43 × 36 × 3.3 mm Nessuno Capacità massima 128 GB CompactFlash II SmartMedia CF-II 43 × 36 × 5.5 mm Nessuno 128 GB SM / SMC 45 × 37 × 0.76 mm Nessuno 128 MB Memory Stick MS 50.0 × 21.5 × MagicGate 2.8 mm 1 GB Memory Stick Duo MSD 31.0 × 20.0 × MagicGate 1.6 mm 16 GB Memory Stick Micro M2 M2 15.0 × 12.5 × 1.2 mm MagicGate 8 GB MMC 32 × 24 × 1.5 mm Nessuno 8 GB RS-MMC 16 × 24 × 1.5 mm Nessuno MMCmicro 12 × 14 × 1.1 mm Nessuno SD 32 × 24 × 2.1 mm MultiMediaCard Reduced Size Multi Media Card MMCmicro Card 2 GB(SD) Secure Digital CPRM 32GB(SDHC) 2TB(SDXC) miniSD miniSD 21.5 × 20 × 1.4 mm CPRM 32 GB microSD microSD 11 × 15 × 1 mm CPRM 2 TB xD-Picture Card xD 20 × 25 × 1.7 mm Nessuno 8 GB Intelligent Stick iStick 24 x 18 x 2.8 mm Nessuno µ card µcard 32 x 24 x 1 mm Sconosciuto CompactFlash Questo tipo di supporto venne realizzato nel 1994 dalla SanDisk. La scheda si basa sullo standard PCMCIA (Personal Computer Memory Card International Association) e può essere utilizzata attraverso un adattatore meccanico negli slot di PC Card presenti su buona parte dei computer portatili. Hanno una dimensione di 43 × 36 mm e sono state prodotte secondo due fattori di forma: tipo I con spessore di 3,3 mm e tipo II con spessore di 5 mm. Hanno un peso che varia tra gli 8 ed i 12 grammi. Le capacità iniziali non superavano i 200 MB per le tipo I e i 300 MB per le II, ma ora possono raggiungere i 16 GB. Utilizzano una connessione a 50 pin ad inserimento meccanico. Nel corso degli anni a queste due tipologie se ne è aggiunta una terza chiamata Ultra Compact Flash (attualmente Ultra II e Ultra III con capacità fino a 16 GB), che ha un transfer-rate doppio rispetto alle tradizionali card (10 MB/s per le Ultra II e 20 MB/s per le Ultra III). Quest'ultimo supporto venne creato principalmente per la registrazione di sequenze fotografiche ad alta risoluzione, ed ha rappresentato un ottimo compromesso fino all'entrata sul campo di formati più innovativi. Inoltre, per aumentarne la diffusione sono stati introdotti una serie di lettori/adattatori che permettono l'utilizzo su porta USB o direttamente attraverso un lettore di dischetti. SmartMedia Una SmartMedia da 32 Mb Supporto inizialmente chiamato SSFDC (solid-state floppy disk card), sviluppato da Toshiba. Dimensionalmente è simile alle CompactFlash (45 × 37 mm), ma risulta essere decisamente più sottile raggiungendo lo spessore di circa 1 mm (0,76 mm per la precisione). Sono anche più leggere visto che il loro peso arriva a circa 2 grammi. Utilizzano una connessione a 22 pin ad inserimento meccanico. A differenza delle Compact Flash non contengono un controller integrato; infatti alcuni dispositivi non sono in grado di gestire SmartMedia con capacità superiori ai 16 o 32 MB, anche se il limite architetturale effettivo di queste card è di 128 MB. La mancanza del controller permetteva costi di produzione contenuti. MultiMediaCard e TwinMOS-MMC L'arrivo di questo tipo di scheda di memoria rappresentò una vera svolta. Nacque nel 1997 da una collaborazione tra SanDisk e Samsung, le quali puntarono ad un supporto poco ingombrante e sottile. In effetti il risultato è di tutto rispetto visto che le dimensioni sono simili a quelle di un francobollo (24 × 32 mm) per uno spessore di soli 1,4 mm. Pesano meno di 2 grammi. La velocità di lettura e scrittura è doppia rispetto alle CF e già nel 2002 offrivano capacità fino a 128 MB. Un'altra novità è il tipo di collegamento che non è più a pin ma è costituito da contatti meccanici (7 linee) decisamente più versatili e meno inclini a danneggiarsi. Infine presentano la possibilità di cifrare il contenuto informativo, cosa che risulta particolarmente interessante tant'è che nasce una associazione chiamata MMCA (MultiMedia Card Association) di cui fanno parte importanti produttori come HP, Siemens, Palm per promuovere l'utilizzo di questo supporto nella distribuzione di materiale protetto da copyright. In genere raggiungono un velocità di trasferimento di circa 2,5 MB/s. Memory Stick Rappresentano una soluzione completamente proprietaria nata in casa Sony. Anche questo tipo di memoria utilizza, come per i precedenti dispositivi di tipo flash, un contenitore fatto di materiale plastico particolarmente resistente agli urti. La novità rispetto agli altri supporti è che presentano un selettore per evitare la cancellazione accidentale del dispositivo. Hanno dimensioni di 21,5 × 50 mm con spessore di poco inferiore ai 3 mm. Pesano circa 4 grammi e utilizzano una contattiera a 10 linee. Hanno subito un'evoluzione prettamente dimensionale che ha portato alla nascita di un nuovo supporto chiamato MemoryStick Duo. Le dimensioni si riducono raggiungendo i 20 x 32 mm con uno spessore di 1,6 mm. Funzionalmente però rimangono praticamente identiche al formato precedente. Teoricamente secondo il progetto di Sony potrebbero raggiungere capacità di 32 GB, ma sul mercato sono reperibili quelle che arrivano a 16 GB. La velocità di trasferimento va da 15 MB/s a 30 MB/s (sustained, MS HG). SD Una Secure Digital da 512 MB Questa tecnologia nasce nel 1999 e viene sviluppata in un progetto congiunto da Panasonic Corporation, Toshiba e SanDisk. Fondamentalmente concentra le migliori caratteristiche di tutti gli altri supporti. Hanno un velocità di trasferimento molto elevata ed un consumo energetico ridotto (in sleep = 250 uA, Lettura / Scrittura = 80 mA). Sono di dimensioni molto contenute (32 × 24 mm per 2,1 mm di spessore), hanno un collegamento a contatti metallici (9 linee) e pesano circa 2 grammi. Offrono capacità di memorizzazione elevate (attualmente sono disponibili i tagli da 128 GB) e funzionalità di cifratura del contenuto, con una velocità di trasferimento che raggiunge i 22,5 Mb/s nelle nuove 150x. Presentano, inoltre, un selettore per renderle read-only al fine di evitare la cancellazione accidentale dei dati. Sul mercato è stata presentata anche una scheda con un fattore di forma ridotto chiamato MiniSD messa a punto per venire incontro alle esigenze del mercato della telefonia cellulare. Queste schede hanno dimensioni pari a 21,5 x 20 mm per uno spessore di 1,4 mm ed un peso di 1 grammo. Permettono di raggiungere degli ottimi livelli di risparmio energetico arrivando a consumare appena 150 µA in sleep mode, 40 mA in lettura e 50 mA in scrittura. I tagli attualmente disponibili arrivano a 2 GB. Raggiungono una velocità di trasferimento massimo di 10 Mb/s. Esistono anche schede di tipo microSD o TransFlash (dimensioni di 15 per 11 per 1 mm). Ultra II SD è disponibile fino alla capacità di 4 GB ed è dotata di un'interfaccia Universal Serial Bus. È possibile connettere la memoria direttamente a una porta USB senza la necessità di un lettore di schede. MicroSD La MicroSD (precedentemente TransFlash) è un memoria flash dalle dimensioni ridottissime (15 × 11 × 1 mm), semi-rimovibile basata sullo standard delle miniSD, questo nuovo tipo di scheda viene utilizzata da molti telefoni di recente uscita. Esiste con capienza fino a 128 GB. Per le difficoltà di gestione date le ridottissime dimensioni la TransFlash è un prodotto che molto probabilmente sarà supportato solo da produttori di telefonia mobile, ma dato l'incremento di capacità molto probabilmente sarà adottato anche nei palmari. Nel luglio 2005 le TransFlash sono state adottate ufficialmente dalla SDA (SD Card Association) diventando le microSD. xD-Picture Card Una xD-Picture Card da 16 MB Le xD-Picture Card hanno un peso di soli 2 grammi ed insieme alle transFlash risultano le memorie flash più piccole disponibili oggi sul mercato, grazie alle sue dimensioni 20 × 25 × 1,7 mm. La xD Picture Card e stata sviluppata dalla Olympus e prodotta da Toshiba per rimpiazzare l'oramai datato formato delle SmartMedia. Il formato xD è stato creato pensando alla futura generazione di macchine fotografiche, che hanno sempre più bisogno di maggiori capacità di trasferimento dati e capacità di memorizzazione, tutto in formati sempre più piccoli. Questo formato ha avuto un rapidissimo processo di evoluzione; agli inizi, le xDpicture Card avevano dimensioni di 16 MB, attualmente arrivano anche a 2 GB e in futuro potranno raggiungere dimensioni di 8 GB. Read/Write Speeds: agli inizi con le schede da 16/32 MB avevano una velocità di trasferimento di 1,3 MB/sec oramai sono arrivati a velocità come 5 MB/s. 1.5 Introduzione ai formati di salvataggio delle fotografie Immagini RAW, S-RAW, M-RAW e JPEG Il formato di un'immagine digitale dipende dall'algoritmo utilizzato per registrarla. Un'immagine di tipo RAW è quella più ricca di informazioni digitali, cioè è l'insieme completo di dati acquisiti dal sensore digitale. E' detto anche negativo digitale, dal momento che l'output finale (immagine JPEG o TIFF, stampa, wallpaper, etc.) può essere vario e differenziato. E' il formato che consente la massima variazione dei parametri di scatto in postproduzione, fra cui l'esposizione, il bilanciamento del bianco, etc. Il formato S-RAW pesa circa la metà del RAW e contiene meno informazioni (la risoluzione è di circa 1/4 rispetto al RAW), pur mantenendo le potenzialità del formato RAW. E' un formato utile nei casi in cui la piena risoluzione non è fondamentale. Il formato M-RAW pesa circa 2/3 del RAW e contiene meno informazioni (la risoluzione è di circa il 55-60% rispetto al RAW), pur mantenendo le potenzialità del formato RAW. E' un formato utile nei casi in cui la piena risoluzione non è fondamentale e nella fotografia sportiva, in cui vi sia un consumo critico di spazio di memorizzazione a causa delle molte immagini acquisite a raffica. Non adatto a stampe superiori al formato A3. Il formato JPEG è un formato compresso rispetto al RAW e contiene meno informazioni digitali, per cui non è consigliabile per stampe superiori al formato A4. Il suo vantaggio sta nel fatto di essere immediatamente usufruibile nei vari media e dispositivi: pc, iphone, ipad, web, etc. Formato PRO RAW Possibilità di postprocessing elevate. Ampiezza cromatica e tonale massime (12-14 bit). S-RAW1 Possibilità di postprocessing elevate. Ampiezza cromatica e tonale massime (12-14 bit). Produce file più piccoli rispetto al RAW (~ 1/2). M-RAW2 Possibilità di postprocessing elevate. Ampiezza cromatica e tonale massime (12-14 bit). Produce file più piccoli rispetto al RAW (~ 2/3). JPEG Immediatamente usufruibile in tutti i dispositivi. Produce file più piccoli rispetto al RAW. TIFF formato introdotto dalla Canon EOS-1D Mark III in poi; 2 formato introdotto dalla Canon EOS 7D in poi. 1 I dati Exif I dati EXIF (Exchangeable image file format) di un'immagine sono informazioni che vengono registrate dalla fotocamera nel file immagine di tipo RAW, TIFF o JPEG. I dati Exif principali sono di questo tipo: data e ora di scatto, modello della fotocamera e dell'obiettivo, parametri di scatto (ISO, diaframma, tempo, lunghezza focale, compensazione dell'esposizione, bilanciamento del bianco, etc.), Copyright, geolocalizzazione in formato GPX se è presente un ricevitore GPS. uando si scatta una fotografia, l’immagine viene memorizzata sulla scheda di memoria. Ilsalvataggio delle fotografie sulla scheda di memoria avviene tramite il processo di codifica, ovvero la macchina fotografica segue un particolare schema (un codice, appunto) relativo ad un particolare formato di salvataggio. Questo schema è atto principalmente a ridurre la dimensione finale dell’immagine, ovvero per comprimerla. Nella maggior parte delle fotocamere compatte, le foto sono codificate in formato JPEG quale impostazione predefinita. Molte fotocamere, comunque (ed in particolare le reflex), possono essere impostate per codificare le foto in differenti modi, ognuno con i suoi pro e contro. Generalmente, le compatte salvano in Jpeg mentre, salendo di prezzo e di qualità, si aggiungono il formato TIFF nonché il formato RAW (nell’articolo RAW vs JPEG ho già introdotto due dei formati elencati). Pro e Contro dei formati di salvataggio delle fotografie JPEG (Joint Photographic Experts Group) JPEG è sicuramente il più famoso e diffuso formato per il salvataggio delle fotografie. Utilizzato da tutte le fotocamere digitali, JPEG è un formato lossy, il che significa che sacrifica la qualità dell’immagine per garantire una piccola dimensione del file. I vantaggi di JPEG: • File di piccole dimensioni: si possono inserire più immagini nella scheda di memoria e trasferire le immagini al vostro computer più velocemente. • Salvataggio delle foto più veloce. Le raffiche fotografiche sono più rapide. • I file JPEG possono essere visualizzati su qualsiasi computer senza software di terze parti. Gli svantaggi di JPEG: • Quando si cattura un’immagine in formato JPEG, il rumore è ammorbidito e l’immagine è generalmente nitida . La fotocamera generalmente riduce la profondità dell’immagine da 12 a 8 bit il che si traduce in una perdita di dettaglio e qualità. Utilizzo consigliato per JPEG • JPEG è il formato migliore per l’uso fotografico in generale, quali feste ed eventi sociali in cui è necessario scattare le foto in modo rapido. • JPEG generalmente non necessita di alcun passaggio di conversione al computer, ovvero l’immagine è immediatamente fruibile ovunque. RAW I file RAW non sono compressi e non sono trasformati. I file RAW devono in primo luogo essere elaborati utilizzando il software di terze parti (di solito fornito dal produttore dalla macchina fotografica prima che possano essere stampati o modificati. I software più blasonati (quali Photoshop, LightRoom o Aperture) hanno in dotazione un convertitore (come Camera RAW) il cui scopo è quello di decodificare l’immagine RAW, differente da macchina fotografica a macchina fotografica (vi rimando all’articolo linkato in precedenza). I vantaggi di usare RAW • Il vantaggio principale è che l’elaborazione delle immagini viene eseguita sul computer. Questo significa che se siete in procinto di scattare una foto e non siete sicuri che il bilanciamento del bianco o le impostazioni di esposizione sono quelle ottimali, potete (di pochi stop!) elaborare l’immagine al computer correggendo appunto i parametri di scatto. • Un altro vantaggio di RAW è che è un formato senza perdita. Ciò significa che l’immagine non perde qualità o informazioni (a differenza JPEG). Di conseguenza, i file RAW sono molto più grandi rispetto ai loro omologhi JPEG. Gli svantaggi di usare RAW • File più grandi significa meno immagini salvate sulla scheda di memoria. I file RAW sono tipicamente quattro volte più grandi della stessa immagine codificata in formato JPEG. • I file RAW richiedono più tempo per il salvataggio delle fotografie sulla scheda di memoria ed il buffer della fotocamera si satura prima. • Le raffiche fotografiche non sono veloci come in JPEG • L’elaborazione di più foto in formato RAW può essere noiosa e richiede tempo. • Non esiste un unico formato RAW. Ogni produttore ha la propria variante di RAW. Utilizzo consigliato per RAW RAW è consigliato a tutti coloro che hanno la necessità di un’immagine di massima qualità, utilizzare. Ma è consigliato anche a chi non sa decidersi al momento su quale sia il miglior bilanciamento del bianco e / o le impostazioni di esposizione da utilizzare (ad esempio, quando si scattano foto di bambini / animali domestici che non vogliono stare fermi. In questi casi è fondamentale poter agire in post-produzione sull’immagine). TIFF (Tagged Image File Format) TIFF è un formato che si trova nelle reflex. Si tratta di un formato non compresso. Tuttavia, quando si scatta una foto utilizzando il formato TIFF, è necessario definire a priori i parametri di scatto in quanto non potranno essere modificati inseguito: TIFF è paragonabile ad un JPEG non compresso. Utilizzo consigliato per TIFF Il formato TIFF dovrebbe essere usato quando si ha bisogno di un’immagine alla massima qualità e si ha la certezza di usare il giusto bilanciamento del bianco nonché le impostazioni di esposizione. RAW + JPEG Quando si scatta una foto con RAW + JPEG, la fotocamera fa due copie della foto: una RAW e una JPEG. Utilizzare la modalità RAW + JPEG porta i vantaggi combinati dei due formati. L’unico problema è la scheda di memoria che si riempie molto più velocemente e la fotocamera potrebbe richiedere un po ‘di tempo per scrivere entrambe le immagini nella scheda di memoria, limitando ulteriormente (rispetto al RAW) le raffiche di foto. Modo d’uso per RAW + JPEG Questo formato va bene quando siamo abbastanza sicuri di impostare il bilanciamento del bianco e l’esposizione, ma si può incorrere in errori. In fase di post processing, potremo prendere le foto JPEG “buone” e andare a modificare manualmente quelle che al contrario non ci soddisfano, operando sulle RAW. Formati file e flussi di lavoro Si consideri la seguente situazione: Ci è stato chiesto di creare un panorama di una spiaggia. Si va in spiaggia, si scattano tutte le foto in formato JPEG della spiaggia e si torna a casa. A casa, si caricano tutti i file sul computer. Si modifica ogni foto in Photoshop, (ad esempio luminosità o contrasto). Si salva quindi ogni immagine in formato JPEG. Successivamente si passa ad unire tutte le immagini modificate in Photoshop per creare il panorama. Finito il lavoro, si salva il panorama in JPEG. Una volta osservata la foto, ci si rende conto che i colori sono troppo brillanti, per cui un ulteriore passaggio in Photoshop è necessario, con ulteriore salvataggio delle fotografie in JPEG. Alla fine, il risultato finale sarà da “buttare”. Perché? Ogni volta che si salva un’immagine in formato JPEG si perde qualità. Diciamo che (ipoteticamente) ogni volta che l’immagine viene salvata in formato JPEGsi perde in qualità un 5%, per cui: 1. 2. 3. 4. Scatto foto 100%-5% -> 95% Editing singole foto: 95%-5% -> 90.25% Creazione del panorama e salvataggio: 90.25%-5% -> 85.74% Ulteriore correzioni sulla foto panoramica: 85.74%-5% -> 81.64% Come si può vedere, in tutto il flusso di lavoro l’immagine continua a perdere la qualità. 5% ogni passaggio può non sembrare molto, ma se si considerano i vari passaggi il risultato è allarmante. Il modo migliore per risolvere questo problema è quello di usare file non compressi, partendo da un RAW o da un TIFF: • • • • • Scattate le foto in formato RAW o TIFF. Se si sceglie il formato RAW, elaborate l’immagine e quindi salvatela come TIFF (o PSD, il formato lossless di photoshop). Aprite il vostro software di editing delle immagini e modificate le immagini. Una volta terminata la modifica, salvate come TIFF o PSD. Create il vostro panorama e salvatelo ancora una volta come TIFF o PSD. • Editatelo quante volte volete e salvate il TIFF finale. Il questo modo l’immagine conserva il 100% di qualità (utilizzando questo metodo, ovviamente le dimensioni dei file sono molto più grandi rispetto al formato JPEG). Salvataggio delle fotografie: Condivisione Una volta che avete la vostra fotografia definitiva in formato TIFF, potete pensare a come consividerla o conservarla (se avete problemi di spazio). La cosa più semplice da fare è creare, partendo dal TIFF di cui sopra, un JPEG: questo sarà ovviamente molto più piccolo a scapito di una perdita di qualità, come ipotizzato in precedenza, del 5%. Si tratta di un valore tutto sommato accettabile, soprattutto se l’intento è porre queste immagini sul web o se vanno inviate tramite posta elettronica. JPEG, ricordo, permette in fase di salvataggio, di definire la qualità finale dell’immagine. Selezionando il valore compreso tra 10 e 100 sarà possibile definire la quantità di informazione che si accetta venga perduta (100 è molto limitata, 10 indica una qualità molto scarsa) a vantaggio della qualità: sta a voi decidere quale valore impiegare in funzione dell’uso finale dell’immagine 1.6Metadati EXIF La Japan Electronic Industry Development Association (JEIDA) ha compilato le specifiche per i metadati di una immagine digitale scattata mediante una fotocamera digitale. Le specifiche si chiamano Exif e sono supportate dai formati JPEG (non da JPEG 2000), TIFF Rev. 6 e RIFF WAVE audio file oltre che dalla gran parte dei formati Raw. Lo standard Exif Tutti i fotografi sanno che Exif sono quelle informazioni (come la data, tempo di esposizione, lunghezza focale e molte altre) che vengono inserite come metadati (cioè dati che si riferiscono ad altri dati, quelli dell’immagine) in uno scatto fotografico. Questi dati sono molto importanti, e anche le più semplici tra le operazioni delle fotocamere non sarebbero fattibili senza le informazioni Exif. Una applicazione può decidere, per esempio, di ruotare l’immagine oppure di mantenere, durante il trasferimento dalla fotocamera al computer la data di scatto separata dalla data di trasferimento. Un software di visualizzazione può leggere l’informazione sul bilanciamento del bianco e operare le regolazioni appropriate. Exif, tuttavia, non consiste solo di informazioni aggiunte all’immagine scattata, ma è un sistema più complesso di quanto normalmente si pensi. Vediamo come stanno le cose. Breve storia di Exif e DCF Exif, come dice il nome (Exchangeable Image File Format), è un formato grafico progettato per le fotocamere digitali (DSC, digital still camera) dalla Japan Electronics and Information Technology Industries Association. Il formato Exif è nato nel 1995 per standardizzare i precedenti sistemi di informazione e per facilitare l’interscambio dei dati. Prima del 1995 c’erano i formati JPEG e TIFF che costituiscono ancora oggi la struttura di base per la memorizzazione e compressione dei dati raster. Infatti Exif si basa sui formati JPEG e TIFF ai quali aggiunge i metadati. Nel 1999 è stato pubblicato un secondo standard, il DCF (Design Rule for Camera File Systems). Si tratta del file system cioè del metodo per memorizzare e organizzare i file Exif sui supporti di registrazione, in modo che siano leggibili da computer e periferiche (fotocamere, stampanti, dischi) diverse. Oggi questo file system viene usato praticamente da tutte le fotocamere digitali. Altri esempi di file system sono quelli usati su Mac OS X (HFS+), Windows NT (NTFS), e sui CD e DVD (UTF). Dal 1999 Exif e DCF viaggiano in coppia. Dopo l’uscita di DCF, Exif è stato aggiornato alla versione 2.2 all’inizio del 2002. Questa versione è nota anche come ExifPrint. All’uscita di DCF 2, Exif è stato aggiornato alla versione 2.2.1 alla fine del 2003. L’ultima versione è la 2.3 di aprile 2010. VERSIONE DATA Exif 1.0 ottobre 1995 Exif 1.1 maggio 1997 Exif 2.0 novembre 1997 Exif 2.1 giugno 1998 DCF 1 gennaio 1999 Exif 2.2 (aka ExifPrint) febbraio 2002 DCF 2 settembre 2003 Exif 2.2.1 settembre 2003 Exif 2.3 aprile 2010 Scrittura dei tag Exif I metadati EXIF si suddividono in tre gruppi: • • • metadati che riguardano la fotocamera; metadati che riguardano l’immagine; altri metadati. La registrazione di informazioni specifiche che riguardano la fotocamera comprendono marca, modello, numero di serie, disposizione dei filtri, tipo di sensore, apertura massima, versione del software e molto altro. Ecco un breve estratto: Make : NIKON CORPORATION Camera Model Name : NIKON D100 Software : Ver.2.00 Bits Per Sample : 12 CFA Pattern : [Blue,Green][Green,Red] Compression : Nikon NEF Compressed Le informazioni specifiche dell’immagine scattata riguardano per esempio la data di scatto, tempo, otturatore, uso del flash, lunghezza focale e possono comprendere anche una immagine di preview othumbnail di 160 x 120 pixel. Ecco un breve estratto: Image Width : 3034 Image Height : 2024 Exposure Time : 1/60 F Number : 5.6 Exposure Program : Program AE Create Date : 2004:10:17 11:03:36 Exposure Compensation :0 Metering Mode : Multi-segment Flash : Fired, Return detected Focal Length : 24.0 mm Exif consente inoltre ai produttori di memorizzare informazioni proprietarie (che non seguono lo standard Exif) in speciali campi detti maker notes. Molti produttori inseriscono in questi campi informazioni sulle impostazioni della fotocamera, modalità di flash ed esposizione, o dati di dettaglio sullo scatto, anche in maniere criptata. I tag Exif possono essere scritti non solo dalle fotocamere digitali ma, per esempio, anche dagli scanner e da qualsiasi applicazione sia in grado di farlo. Lettura dei tag Exif La versione 7 del 2002 è la prima versione di Photoshop nella quale si possono leggere alcuni tag Exif, direttamente in Photoshop o nel File Browser. In Photoshop CS2 (9) le informazioni Exif si possono vedere in File > Info file nei pannelli Dati fotocamera 1 e 2 e Avanzate > Proprietà Exif (sono un po’ da interpretare). In Bridge, si possono vedere nel tab Metadati, Dati fotocamera (Exif). Qui ci sono i dati un po’ interpretati. Vedi per esempio MeteringMode. In Mac OS X alcune di queste informazioni possono essere viste direttamente dal Finder (File > Get Info > More Info). Su Windows si può fare clic destro e scegliere Proprietà e poi Summary. Ci sono anche numerose utilities che leggono i dati Exif. La più nota e completa è ExifTool. Su Mac OS X si installa l’applicazione (c’è già un package pronto), quindi si apre il Terminale (sta nelle Utilities) si scrive exiftool, uno spazio, e il path della immagine Raw che si vuole esaminare (o meglio si trascina l’icona del file nella finestra del Terminale), per esempio exiftool fotografie/DSC0233.NEF L’utilità elencherà decine e decine di tag Exif contenuti nel file Raw. Gran parte di questi tag (come per esempio il tag Color Space) vengono utilizzati solo per l’elaborazione interna di una immagine e non giocano alcun ruolo nel caso di dati Raw elaborati esternamente. Anche Exif Viewer è molto comodo perché funziona direttamente da una pagina web. Spazio colore in Exif La versione 2.0 di Exif ha introdotto un particolare tag chiamato “color space” che indica lo spazio colore associato all’immagine salvata dalla fotocamera. Questo tag può avere solo due valori: sRGB oppure Uncalibrated (che significa non sRGB), cioè il tag può solo dire se l’immagine è in sRGB o non lo è. Non c’è modo per esempio di indicare che l’immagine è in Adobe RGB. Tecnicamente il tag ColorSpace occupa 16 bit e i due valori consentiti sono 1 (che indica sRGB) e #FFFF (esadecimale, che indica Uncalibrated). Dalla versione 2.21 di Exif (e versione 2 di DCF) è stato introdotto il nuovo tag InterOperability Index e così le indicazioni possibili sono tre (non solo due): sRGB, Adobe RGB oppure Uncalibrated(cioè qualcosa di diverso dai primi due spazi). Tutto questo è stato realizzato mediante unmeccanismo di tag (vedi qui sotto), che è complesso ma comunque funziona, e la fotocamera comunica, mediante le informazioni Exif, lo spazio colore corretto (se è sRGB o Adobe RGB). In breve: • Se InterOperability Index = R03 lo spazio è Adobe RGB. Finito. • Se InterOperability Index = R98, allora o se ColorSpace = sRGB lo spazio è sRGB. Finito. o altrimenti lo spazio non è né Adobe RGB né sRGB (Uncalibrated). Finito. In dettaglio: Per decidere lo spazio colore, Exif 2.21 agisce come segue: 1. Viene letto il tag InterOperability Index. Questo tag può avere solo due valori: R98 oppure R03. 2. Se il valore è R98, viene letto il tag ColorSpace, che può avere solo due valori: sRGB oUncalibrated. Nel primo caso si dichiara che l’immagine è nello spazio sRGB, nel secondo che non lo è. Ogni altro tag riguardante il colore (cioè quelli elencati qui sotto) viene ignorato. 3. Se invece il valore è R03, il tag ColorSpace può avere solo il valore Uncalibrated (per specifica). In tal caso si controllano i tag relativi al colore, che sono i seguenti e dai quali si ricostruisce lo spazio colore: o WhitePoint o PrimaryChromaticities o YCbCr coefficients o ReferenceBlackWhite o Gamma (se non c’è, Transfer Function) 4. Tuttavia questi tag, per specifica, sono fissi sulle caratteristiche di Adobe RGB, cioè sui seguenti valori e quindi di fatto, indicano questo spazio colore. o o o 5. WP = 0.313 0.329 PC = (0.64 .33) (0.21 .71) (0.15 G = 2.2 .06) 1-7 Le ottiche e il fattore di conversione Obiettivi e sensori digitali Nella pagina dedicata ai sensori digitali si diceva che la dimensione del sensore determina la dimensione dell'immagine registrata, quindi influenza le proporzioni fra soggetto e fotogramma. Come già detto, un sensore di dimensioni ridotte porta ad una riduzione del campo inquadrato rispetto a quello inquadrato in condizioni full-frame: Questa riduzione del campo inquadrato è paragonabile ad un aumento della lunghezza focale dell'obiettivo: è come se si stesse fotografando con un obiettivo più potente, cioè con un angolo di visione più stretto. In modo molto facile da ricordare si può pensare che un obiettivo di focale 100mm equivarrebbe ad un 130mm su sensore 1.3x e ad un 160mm su sensore 1.6x. Quindi, il rapporto fra i diversi sensori è un rapporto di moltiplicazione della lunghezza focale dell'obiettivo per un fattore di conversione 1.3 o 1.6 rispetto al full-frame. Ma sempre dal punto di vista del campo inquadrato, non della lunghezza focale che rimane sempre quella! Ne consegue che, montando un obiettivo progettato per il full-frame su una fotocamera dotata di sensore più piccolo, si ottiene un campo più stretto, equivalente ad una lunghezza focale maggiore. Questo è di grande vantaggio nella fotografia con teleobiettivo, o in macrofotografia, dal momento che la potenza dell'obiettivo viene aumentata. Lo svantaggio è invece nelle focali "corte", o grandangolari, dal momento che un grandangolare progettato per il full-frame darà angoli di campo da obiettivo "normale" sul sensore di dimensioni minori, pur rimanendo di lunghezza focale grandangolare: E' per questo che sono nati gli obiettivi specifici per i sensori piccoli, capaci cioè di riportare l'angolo di campo delle lunghezze focali nominali a quello effettivo. Un 28-135mm, ad esempio, risulterebbe come un 45-216mm su un sensore 1.6x, per cui si perderebbe la possibilità della fotografia grandangolare. Ecco che viene costruito il suo equivalente specifico per quel sensore, cioè un 17-85mm. Ma, a sua volta, ne consegue che non sarà possibile montare un obiettivo progettato per un sensore più piccolo su una fotocamera dotata di un sensore più grande, pena una evidentissima vignettatura - se venisse montato su un sensore 1.3x - o il totale annerimento dei bordi del fotogramma - se venisse montato su un sensore full-frame: A parità di lunghezza focale (es. 100mm), profondità di campo e prospettiva non variano se si confrontano le immagini di una full-frame con le immagini di una fotocamera a sensore più piccolo. Ben diverso il discorso nelle digitali compatte: le ottiche sono incorporate e già ottimizzate per il sensore della fotocamera. Per cui le funzioni grandangolari sono già assicurate. Inoltre, non si corre il rischio di polvere sul sensore dovuta al cambio di obiettivi. Ma, ovviamente, le compatte sono compatte e le reflex sono un'altra cosa. 2.1 Spazi colore IL CONCETTO DI SPAZIO COLORE- Lo spazio colore è il Gamut riproducibile. Il Gamut è la rappresentazione matematica dello spazio o del quantitativo di colori ottenibili in un flusso di lavoro. Ilflusso di lavoro è l’insieme di apparecchi utilizzati per un determinato risultato, e il Gamut è stabilito dall’apparecchio più limitato. Anche la visione umana ha un suo Gamut, molto esteso rispetto a quelle delle nostre apparecchiature elettroniche ma anch’esso limitato. Nel 1931 si arrivò a una definizione di tale spazio e fu nominato C.I.E. 1931. Il risultato fu questo grafico che pubblichiamo qui sotto. Il grafico CIE 1931 rapprensenta la gamma dei colori percepibili dall'occhio umano. Senza andare ad approfondire teorie prettamente matematiche, a noi fotografi preme sapere che questo è il grafico di riferimento dei colori assoluti. Oltre il bordo rappresentato, il nostro occhio non percepisce alcun colore. Poiché le nostre apparecchiature digitali, o meglio la nostra catena digitale (macchina fotografica, scanner, monitor, stampante e così via) non hanno la possibilità di raggiungere tali estensioni di colore, si è reso necessario creare degli specifici spazi di colore che fossero interpretati allo stesso modo da tutte le apparecchiature. Lo spazio colore quindi è una successiva interpretazione della gamma tonale in versione ridotta e limitata con nuovi bordi e nuovi limiti all’interno del grafico C.I.E. 1931. Essendoci diverse tipologie di lavoro o finalità specifiche (una stampa ha delle esigenze molto diverse rispetto a una pubblicazione online) ci sono anche diversi spazi di colore studiati e resi disponibili secondo le situazioni. sRGB E ADOBE RGB - Inizialmente prenderemo come esempio due degli spazi colore più conosciuti, utilizzati e dibattuti del momento, lo spazio colore sRGB e l’AdobeRGB. Tra fotografi un po’ "impallinati" dalle procedure tecniche è sempre presente il dibattito su quale dei due spazi colore è meglio utilizzare. Intanto bisogna premettere che questi parametri possono essere impostati sulla macchina fotografica e ciò influirà su tutto il successivo processo di sviluppo delle immagini. sRGB Lo spazio sRGB ha un Gamut molto limitato, cioè la sua rappresentazione dei colori reali è molto compressa e quindi incapace di riprodurre passaggi tonali complessi o ampi. Lo spazio colore sRGB (delimitato dal triangolo nero) è ideale per i monitor, che lo riproducono per intero. Il suo contrasto e la saturazione dei colori, invece, sono degni di nota. Lo spazio sRGB ha una predisposizione a preservare i toni chiari delle immagini (quando un colore è fuori dal Gamut del profilo colore scelto, viene convertito al colore più prossimo all’interno dello spazio disponibile) che lo rendono molto interessante nell’uso di output quali i monitor. Potremmo quindi affermare che lo spazio colore sRGB è l’ideale quando il nostro lavoro finale ha una collocazione visibile prettamente a monitor, quindi pubblicazioni web, presentazioni online o su supporto CD–DVD. Se la stessa immagine la dovessimo utilizzare per delle stampe, la sua ridotta capacità di riproduzione di toni potrebbe generare qualche delusione. Adobe RGB Il suo “antagonista”, lo spazio colore Adobe RGB, ha uno spazio molto più ampio, soprattutto sulla zona dei verdi. Riesce a dare degli incarnati più reali e riesce a riprodurre meglio i toni nelle zone d’ombra. Lo spazio colore Adobe RGB è più ampio dell'sRGB. Verrebbe da dire che questo è lo spazio migliore da utilizzare (in effetti, io lo uso) ma la risposta è meno scontata del previsto. Come detto in precedenza, la scelta è in base alla funzione, non in base al suo Gamut. Il profilo Adobe RGB non è completamente riproducibile dai monitor, pertanto ci ritroveremmo a gestire un maggior numero di colori ma non potremmo visualizzarli correttamente durante la postproduzione, o almeno fino a quando non estenderanno anche il Gamut delle periferiche di visualizzazione. FORMATI FILE E SPAZI COLORE - Per chi scatta direttamente in formato jpeg, è necessario comunicare alla macchina fotografica in quale spazio vogliamo che siano convertiti i colori (vi prego di leggere le istruzioni dei manuali inerenti alle vostre macchine fotografiche, le procedure possono essere simili ma non uguali). Personalmente metterei Adobe RGB poiché avendo un maggiore Gamut, posso sempre fare una conversione dello spazio colore senza perdite o compressioni di toni. Per chi scatta in RAW, la cosa è molto più semplice (per questa ragione consiglio sempre di scattare con questo formato). Il RAW è un formato grezzo che accumula tutti i dati di scatto, li memorizza ma non li processa definitivamente, lasciando al fotografo la possibilità di scegliere molti dei parametri in postproduzione. Il formato RAW, quindi, non ha uno specifico spazio colore e ci permette di sceglierlo nella fase di conversione del file in jpeg. Potremmo, a seconda delle situazioni, adoperare un certo profilo oppure un altro secondo lo scopo che ci siamo prefissati. PRO PHOTO RGB - Oltre a questi due profili è possibile sceglierne addirittura altri e anche migliori. Uno in particolare denominato Pro Photo RGB ha uno spazio molto più ampio rispetto allo stesso Adobe RGB (riesce addirittura a catturare colori fuori dallo spettro del nostro visibile). Lo spazio colore Pro PhotoRGB comprende anche colori non visibili dall'occhio umano. Purtroppo con le periferiche attuali non è possibile ottenere la gamma di colori che esprime né su stampanti inkjet né tantomeno a monitor. Sarà lo spazio colore del futuro. SINCRONIZZARE IL SOFTWARE - Se avete deciso di cambiare il profilo colore della vostra digicamera (di solito impostato su sRGB), e anche se lavorate in Raw, dovete andare a vedere se il vostro software di gestione dei file è “sincronizzato” con le decisioni prese da voi e dalla macchina fotografica. Ovviamente prendiamo come esempio Photoshop. Andate sul menù a cascata modifica e cliccate sulla scelta "impostazioni colore". Sulla finestra che vi apparirà, vi saranno molte possibilità di personalizzazione. Io ve ne consiglio una già bella e pronta. Su impostazioni (il primo menù a cascata disponibile) scegliete l’opzione "prestampa Europa 2" sostituendo quella data di default "Uso generico Europa 2". Questa sostituzione imposterà immediatamente il profilo Adobe RGB. Nella prossima e ultima puntata sulla teoria del colore, tutte le informazioni utili per avere la migliore calibrazione possibile del monitor e l’ottenimento di stampe con colori più fedeli possibili. 2.2.Profondità Bit e Gamma gamma dinamica e profondità di bit La fotografia nasce come un processo chimico, in cui una pellicola sensibile viene impressionata dalla luce e forma un'immagine latente che poi viene rivelata tramite bagni chimici. La fotografia digitale, invece, non è un processo chimico e si attua in tempo reale, al punto che l'immagine scattata è immediatamente visibile sul display della fotocamera. L'immagine digitale (detta anche immagine raster o bitmap) che il computer ci mostra a video è in realtà una matrice di punti (pixel), cioè è una rappresentazione numerica binaria (0, 1, cioè bit). Nella matrice, ogni pixel è definito da una posizione nel piano e da un valore, che corrisponde al livello di intensità corrisponde al livello di intensità dei colori primari RGB che quel pixel assume nell'immagine. Un'immagine digitale di tipo bitmap è una matrice di pixel caratterizzati da posizione e da precisi valori RGB. Profondità di bit La profondità di colore (color depth) o profondità di bit (bit depth), è la quantità di informazione digitale (bit) necessaria per rappresentare il colore di un singolo pixel nell'immagine: una profondità di colore elevata corrisponde a una gamma tonale elevata. Nell'immagine che segue si nota come all'aumentare della profondità di bit aumenti la quantità di grigi che è possibile registrare nell'immagine. In parole povere si può dire che la profondità di bit identifica il numero di toni che passano dal pixel più scuro a quello più chiaro dell'immagine. Immagini con diversa profondità di bit registrano un numero di grigi differente, cioè registrano una differente gamma tonale. Le immagini fotografiche che siamo abituati a maneggiare con le nostre fotocamere si dicono a 24 bit, o truecolor, capaci cioè di registrare una gamma tonale molto elevata e prossima alla realtà. I 24 bit derivano dal fatto che i tre colori primari RGB vengono registrati ognuno con 256 toni (o livelli) possibili, cioè con 8 bit di informazione. Per cui 3 x 8 = 24 bit totali. I 256 livelli sui tre canali producono 256 × 256 × 256 = 16.777.216 = 16,7 milioni di colori distinti. Colore lab Il colore è sempre stato un fattore importante in image editing e graphic design. Quando si lavora in Photoshop, si possono scegliere diverse modalità di colore. Le più comuni sono RGB e CMYK. Senza dubbio, avrete notato che queste modalità di colore sono un po', diciamo, approssimate. Per esempio, RGB consente di creare sorprendenti, blu vibranti, verdi scuri e viola. Questo è ottimo sullo schermo, ma quando si tenta di stampare questi colori su una stampante CMYK, appaiono come se la cartuccia di inchiostro nero prevalesse su quelle del colore. Inoltre, utilizzando RGB, è quasi impossibile creare gialli ricchi ed arancioni. D'altra parte, anche CMYK è abbastanza limitato nella rappresentazione dei colori. La dura verità, purtroppo, è che se devi stampare, devi farlo in CMYK. Questo è solitamente il fattore determinante nel decidere quale modalità colore utilizzare. Ma c'è un'altra opzione che offre una selezione infinita di colori, la modalità Lab di Photoshop. In questo articolo esploreremo i vantaggi di utilizzare la modalità Lab e vedremo come creare immagini con colori più vivaci. Origini del Colore Lab Nel 1931 la Commission Internationale d'Eclairage (CIE) propose un modello che visualizza ogni colore percepito dall'occhio umano. Nel 1976, questo modello è stato aggiornato e raffinato, al fine di creare il sistema di colore CIE Lab. A differenza dei colori RGB che dipendono dallo schermo e dai colori CMYK che variano con le caratteristiche della stampante, inchiostro e carta, i colori CIE Lab sono indipendenti dal dispositivo utilizzato. Pertanto, le caratteristiche visive di questi colori rimangono coerenti su monitor, stampanti e scanner. Come funziona In Photoshop, la modalità Lab consiste in tre canali di colore, come mostrato nella figura A. Il primo è Luminosità (L). E' la componente altrimenti nota come luminanza, può variare da 0 a 100. Un valore di luminosità pari a 0 è uguale al nero e un valore di 100 è uguale al bianco. Così, maggiore è il valore, più vivido il colore. Gli altri due canali, a e b, rappresentano le gamme di colori. Il canale a contiene colori che vanno dal verde al rosso e il canale b contiene colori che vanno dal blu al giallo. La figura B mostra come la nostra immagine originale è ripartita all'interno i canali. - Figura A La modalità Lab di Photoshop è costituita da tre canali: Luminosità (Lightness), a e b. - Figura B Ogni canale rappresenta pixel specifici all'interno di un'immagine. 2.3 RGB, CMYK, LAB I vantaggi di lavorare in modalità Lab Uno dei vantaggi principali che si notano quando si lavora in modalità Lab è che si ha la disponibilità di una vasta gamma di valori di colori tra cui scegliere. La figura C Mostra i colori ad alta intensità disponibili in questa modalità rispetto a quelli in RGB e CMYK. Il modello di colore Lab infatti comprende tutti i colori che si possono creare in modalità RGB e CMYK. Oltre ad avere la flessibilità massima sul colore, lavorare in modalità Lab risulta più veloce rispetto alla modalità RGB o CMYK. Inoltre, tenete presente che anche se si sta lavorando in modalità CMYK, il monitor è in RGB quindi Photoshop deve continuamente convertire questi valori. Poiché la modalità Lab è indipendente dal dispositivo usato, è possibile utilizzarla per modificare qualsiasi immagine. I colori inoltre non subiscono importanti cambiamenti tonali quando vengono convertiti in CMYK per l'output finale. Questa è una delle ragioni per cui molti degli utenti di fascia alta preferiscono lavorare in modalità Lab. - Figura C Il modello di colore Lab comprende tutti i colori disponibili in modalità RGB e CMYK. Stampa colori Lab Se si lavora in modalità Lab, non ci sono davvero limitazioni quando si selezionano o modificano i colori sullo schermo. Anche se uno qualsiasi dei colori cade fuori della gamma CMYK, si può regolare. Ciò tende a verificarsi quando si lavora con tonalità di blu e viola molto vivaci. Un modo per evitare eventuali alterazioni di colore è quello di stampare su una stampante PostScript livello 2 o livello 3. È possibile stampare un'immagine in modalità Lab direttamente su una di queste stampanti per evitare eventuali modifiche dei colori. Divertirsi con i colori Lab Ora che conoscete i fondamenti dei colori Lab, esploreremo il loro lato creativo. Una delle caratteristiche più interessanti del funzionamento in modalità Lab è che è possibile modificare i colori di un'immagine con estrema facilità. Prendiamo, ad esempio, l'auto d'epoca, la Hot Road, illustrata nella figura D. I colori sono divertenti, ma se serviva la stessa immagine con colori più tenui, o se si volevano invertire le aree verdi e rosa? Si possono fare entrambi con pochi clic del mouse. E quello che è ancora meglio, non ci si deve preoccupare di perdere alcun dettaglio dall'immagine originale. - Figura D Vediamo in quanti modi possiamo colorare la nostra immagine originale. Lo scambio di colore Per iniziare, aprite un'immagine a colori in Photoshop e convertitela in modalità Lab. Per farlo, selezionate: Immagine > Modalità > Colore Lab. Poi cliccate sulla palette dei canali (se è nascosta, scegliete finestra > visualizza canali) e selezionate il canale a. Questo canale mappa i verdi e i magenta. Invertiamo questi colori scegliendo Immagine > Adjust > Invertire, o premendo (Ctrl+I in Windows-cmd + I col Mac). Dopo aver invertito il canale a, fate clic sul canale più in alto, Lab, per vedere i risultati. La figura E dimostra come i verdi sono stati sostituiti con sfumature magenta e viceversa. Ora, ripetete questi passaggi per il canale b. Si noti come il blu e il giallo siano invertiti, come mostrato nella figura F. - Figura E Invertendo i colori del canale a siamo stati in grado di invertire i rosa e i verdi. - Figura F Invertendo i colori trovati del canale b siamo stati in grado di invertire azzurri e gialli, dando alla nostro hot rod un nuovo look. Sostituzione colore Utilizzando i canali non solo si possono invertire i colori, ma si può anche sostituire un colore. Aprite una nuova immagine in Photoshop e convertitela in modalità Lab. Selezionate il canale a o il b e scegliete Immagine > Adjust > Sostituisci colore.Nella finestra di dialogo Sostituisci colore, mostrata nella figura G, selezionate il colore che si desidera sostituire. È possibile farlo cliccando sulla finestra di anteprima con lo strumento contagocce, oppure facendo clic su un'area di colore direttamente sulla vostra immagine. Impostate il cursore di tolleranza a 40 e scegliete il pulsante di opzione di selezione. Quindi regolate il cursore di Luminosità (Lightness) per ottenere il risultato desiderato. Fate clic su OK per applicare le modifiche. Ancora una volta, selezionate il canale Lab, nella palette canali, per vedere i risultati finali. Abbiamo selezionato il canale b e aumentato la Luminosità + 70 per creare gli effetti mostrati in figura H. - Figura G Qui abbiamo sostituito un colore specifico nella nostra immagine all'interno di un canale. - Figura H Modificando un colore all'interno della nostra immagine la nostra hot rod ha cambiato carattere. Unitevi alla comunità degli appassionati del colore Questi sono solo due semplici esempi di come ci si può divertire con i colori utilizzando i canali in modalità Lab. Sperimentando ulteriormente con i comandi Livelli e Curve, vi stupirete dei risultati. Lab Color quindi è utile, conveniente e divertente, allora perché limitarsi ai colori RGB o CMYK quando si può avere il meglio dei due mondi? Provate, magari vedrete che una volta sperimentato il Lab, non si torna indietro. Nella maggioranza dei casi questo è un numero di sfumature più che sufficiente ad approssimare la realtà. Spazio colore Lo spazio colore assegna una precisa gamma cromatica all'immagine. I più comuni spazi oggi utilizzati sulle macchine fotografiche digitali e scanner sono i seguenti: sRGB, è l'unico spazio colore standard per i vari dispositivi video, di stampa e internet, creato da HP e Microsoft; presenta alcune limitazioni nello spazio del Ciano-Verde, per cui non riesce ad includere tutte le sfumature CMYK. Le immagini acquisite in sRGB sembrano più sature di quelle Adobe RGB, ma hanno un numero minore di sfumature. ADOBE RGB (1998), spazio colore creato da Adobe in particolare per le stampanti CMYK; produce immagini meno sature ma più ricche di sfumature e più adatte al ritratto, anche se poi i monitor non sono in grado di mostrarlo. La differenza principale fra gli spazi colore è quindi la diversa gamma cromatica (gamut) che può essere registrata. 3 regole generali: • • • 1. Se si scatta in RAW la fotocamera ignora lo spazio colore. Questo viene applicato in postproduzione tramite il software usato per la conversione da RAW a TIFF/JPEG, come Canon DPP, Adobe Camera Raw, Lightroom, etc. Se invece si fotografa direttamente in JPEG, allora è determinante impostare lo spazio colore nel menu della fotocamera. 2. In postproduzione è sempre possibile convertire un'immagine che ha spazio colore Adobe RGB in un'immagine con spazio colore sRGB, ma non viceversa. 3. Lo spazio sRGB è l'unico che consente di vedere a monitor l'immagine come verrà a stampa o sul web. Di conseguenza, se la destinazione delle proprie immagini è la stampa o il web, allora lo spazio colore delle immagini finali deve essere sRGB, mentre quello di lavoro può anche essere Adobe RGB o nessuno (nel caso del RAW). Che cos'è la Profondità di Colore Vediamo che cos'è la Profondità di Bit e di Colore di una immagine o di un filmato video; vediamo inoltre cosa sono Gamma dinamica e Gamma di densità. La profondità di bit e di colore esprimono, in potenza al quadrato, il numero massimo di livelli di grigi o di colori che uno scanner può riconoscere per ogni pixel che campiona. Uno scanner a un bit (oppure uno scanner a colori o a scala di grigi utilizzato nella modalità al tratto) riproduce le diverse tonalità di un originale come punti bianchi o neri (2’ = 2 livelli). Uno scanner in scala di grigi a 8 bit può teoricamente acquisire 28 o 256 differenti livelli di grigio. Uno scanner a colori a 24 bit campiona 8 bit per pixel per ciascuno dei tre canali RGB, rosso, verde e blu, per un totale di 256 x 256 x 256 = 16.777.216 (224) possibili valori di colore. Maggiore è la profondità di bit, più elevato è il dettaglio che una periferica per scansioni teoricamente può riprodurre. Il valore di 24 bit espresso per le immagini in modalità RGB, quindi 8 bit per ciascuno dei tre canali è divenuto uno standard per le scansioni e per l’elaborazione delle immagini: in parte ciò è dovuto al fatto che il numero 256 corrisponde al valore massimo di tonalità riproducibili per ogni colore dal linguaggio PostScript, lo standard digitale utilizzato per il desktop publishing. Tuttavia quando si confrontano le diverse periferiche per scansioni non tutti i bit sono uguali. Ad esempio, negli apparecchi basati su tecnologia CCD, i due bit più alti che determinano la profondità di colore della periferica sono generalmente di scarso valore in quanto non sono in grado di produrre un’informazione dettagliata di colore. Così solo i rimanenti 6 bit (64 colori per canale, o 262.144 colori) risultano attendibili, ma con una perdita di 198 colori per canale. Le limitazioni intrinseche di alcune tipologie di CCD sono la causa dei seguenti difetti: I sensori CCD più economici sono sensibili ai rumori elettrici dell’ambiente, che possono di- storcere e modificare la lettura dei colori. I CCD utilizzati invece negli scanner a letto piano di fascia alta, in quelli per diapositive e nelle macchine fotografiche digitali di buona qualità posseggono un più alto rapporto segnale/rumore e quindi riescono a trasferire ai convertitori A/D dei segnali più puliti. Esiste una relazione tra la dimensione dei sensori CCD e la sensibilità alla luce: si immagini ogni sensore come un piccolo secchiello: più piccolo è il secchiello minore sarà la quantità di acqua che potrà contenere. Per ottenere maggiori risoluzioni ottiche, i costruttori tendono a compattare un numero molto alto di sensori in uno spazio molto ristretto: utilizzano di conseguenza dei sensori di dimensioni sempre più esigue. Ma riducendo la dimesione di ciascun sensore di limita il numero di livelli di colore che ogni singolo elemento può riconoscere. Quando viene digitalizzato un originale che contiene un’ampia gamma di tonalità dal bianco al nero, viene compromessa la capacità di questi CCD di catturare i dettagli. I sensori CCD sono anche soggetti alle interferenze. Per comprendere meglio in che cosa consistono le interferenze, si immagini di uscire da una casa buia verso un paesaggio innevato. L’improvvisa luminosità crea un forte fastidio agli occhi di chiunque, rendendolo temporaneamente incapace di vedere correttamente i colori del paesaggio. La stessa cosa avviene quando la luce satura i sensori CCD adiacenti tra loro, distorcendo in tal modo la purezza del segnale che ogni singolo sensore riuscirebbe a trasmettere ai convertitori A/D. Quando si verifica questo difetto l’immagine digitalizzata che si ottiene conterrà dei pixel vicini tra di loro che hanno tonalità sbagliate, specialmente nelle zone dove vi sono repentini cambiamenti di luminosità. Il risultato che si ottiene da dispositivi che adottano CCD economici, che producono quindi bit “scadenti”, è uninsufficiente qualità nelle tonalità continue, delle transizioni sfumate tra i vari livelli di luminosità dell’immagine. Tuttavia il numero di bit nominali potrebbe indurre a pensare che la qualità ottenuta sarebbe stata superiore. I costruttori di scanner e fotocamere digitali hanno cercato di risolvere questi problemi proponendo dei dispositivi a più alta profondità di bit (10, 12, 14, 16 e oltre). I bit “scadenti” in questo modo possono essere scartati, ottenendo le 256 tonalità per colore senza disturbi indesiderati nell’immagine finale. Questo aspetto porta inevitabilmente ad affrontare il concetto di gamma dinamica, un’altra variabile correlata alla profondità di bit come fattore di qualità nelle scansioni. L'area di analisi. Le dimensioni massime degli originali che una periferica può digitalizzare determinano la cosiddetta area di analisi della macchina, denominata anche area di scansione. Gli scanner manuali rappresentano la fascia più economica riferita a questo fattore, in quanto possiedono un’area di analisi molto limitata. Gli scanner a letto piano possiedono aree di analisi che vanno dal formato UNI A4, 21 x 29.7 cm fino al formato A3extra, circa 30 x 43 cm. Gli scanner per diapositive e trasparenze possiedono aree di analisi fisse, basate sulle dimensioni delle diapositive per le quali sono stati studiati; tuttavia alcuni modelli hanno la possibilità di adattare l’area di analisi a diverse dimensioni di originali. Le aree di analisi degli scanner a tamburo variano da un minimo di 15 x 15 cm per i modelli da scrivania di fascia bassa, fino a dimensioni superiori a 50 x 70 cm per i modelli di fascia alta. Le macchine fotografiche digitali sono sostanzialmente degli scanner per oggetti tridimensionali. Per queste apparecchiature è opportuno parlare di sistema ottico piuttosto che di area di analisi. L’insieme dell’area di analisi, la risoluzione ottica, e le dimensioni dell’originale determinano il massimo numero di pixel che uno scanner può acquisire e di conseguenza anche le dimensioni massime alle quali l’immagine potrà essere stampata. Gamma dinamica, gamma di densità. La profondità di bit determina il numero complessivo di colori o di livelli di grigi che un dispositivo per scansioni può rilevare, mentre la gamma dinamica (talvolta denominata anche gamma di densità) determina la “morbidezza” delle transizioni tra tonalità adiacenti in un’immagine digitale. Questi termini possono essere applicati sia a originali che a dispositivi di scansione. Quando si riferisce agli originali, la densità viene misurata con un valore che va da O a 4D (densità ottica), che indica nei materiali trasparenti la capacità di ostruire il passaggio di luce, mentre in quelli opachi la capacità di assorbimento della luce. Quando il termine gamma dinamica viene riferito a dispositivi di scansione, esso indica la capacità della macchina di riprodurre minime variazioni di tonalità e viene espresso con la differenza tra i toni più chiari (dmin) e i toni più scuri (dmax) che quel dispositivo riesce a rilevare. Più è elevata la gamma dinamica di uno scanner o di un’originale, maggiore sarà la gamma d livelli di luce che potrà rilevare, oppure ostruire o assorbire. Un dispositivo per scansioni che possiede un’ampia gamma dinamica è in grado quindi di riprodurre maggiori dettagli. Questo aspetto è visibile soprattutto nelle ombre (le zone più scure delle immagini) dove è più difficile rilevare dettagli e differenziare i vari livelli di luce, in quanto in queste zone esiste una debole energia luminosa che riflette o trasmette i dettagli delle zone scure. La gamma dinamica influenza il contenuto di un’immagine digitale. Con gli scanner a letto piano più datati l'immagine acquisita da una stampa fotografica presenta delle evidenti compressioni di tonalità nelle zone d’ombra e altre compressioni nelle alte luci. La stessa immagine, acquisita con uno scanner a letto piano più recente che possiede una gamma dinamica più ampia, presenta maggiori dettagli nelle zone di luce e d’ombra. La gamma dinamica può variare anche tra dispositivi che presentano la stessa profondità di bit nominale. Quindi nel caso di acquisto di uno scanner è opportuno valutare con prudenza i dati descritti nei fogli illustrativi e cercare di ottenere una scansione comparativa tra i vari modelli valutati. È evidente comunque che la gamma dinamica non rappresenta la sola variabile che influenza la qualità di una scansione; uno scanner che impiega dei sensori CCD molto sensibili ai rumori di fondo può produrre scansioni “sporche”, anche se presenta una gamma dinamica molto ampia. I dispositivi di scansione e gli originali possiedono delle precise caratteristiche di densità. Generalmente gli scanner a tamburo presentano ampie gamme dinamiche e valori di densità massima più alti di qualsiasi altro dispositivo per scansioni, analogamente gli originali trasparenti (diapositive, pellicole, fotocolor) possiedono ampie gamme dinamiche e più elevate densità rispetto agli originali opachi, acquisiti in riflessione (bozzetti, stampe fotografiche). Un altro fattore che influenza la gamma dinamica nelle scansioni è la natura logaritmica (non lineare) della densità. Gli originali positivi (stampati, diapositive, bozzetti e stampe fotografiche) tendono a presentare una maggiore compressione tonale nelle ombre; gli originali negativi (pellicole e negativi fotografici) invece tendono a presentcde questa compressione nelle zone delle alte luci. Non esiste un dispositivo per scansioni che riesca a compensare completamente questa tendenza, ma una gamma dinamica molto ampia certamente può ridurre tali compressioni. Per ottenere la migliore qualità nelle scansioni, occorre scegliere un dispositivo per scansioni che disponga di un’ampia gamma dinamica e rilevi una densità massima superiore a quella che si presenta negli originali che devono essere normalmente digitalizzati. Ad esempio, uno scanner a letto piano di media qualità con una gamma dinamica di 3.0 e una dmax di 3.2 può facilmente riprodurre tutte le tonalità di stampe fotografiche in riflessione. Lo stesso scanner, se equipaggiato con un adattatore per trasparenza, può anche acquisire le informazioni tonali di molti tipi di diapositive in commercio. Tuttavia per catturare tutte le informazioni di un duplicato di un fotocolor oppure nel caso di lavorazioni in trasparenza di alto livello qualitativo richieste per le grandi campagne pubblicitarie, è assolutamente necessario disporre di uno scanner a tamburo oppure di uno a letto piano ma di fascia alta. Se non si devono digitalizzare immagini ad alto livello molto frequentemente, non è necessario spendere inutilmente dei soldi per una periferica di alto livello. Ciò è ancora più valido se normalmente le immagini acquisite verranno stampate su carta non patinata o carta per quotidiani, che limitano fortemente il livello di riproducibilità della gamma dei toni. I costruttori dei dispositivi per scansioni di basso e medio livello spesso non indicano la gamma dinamica e la densità massima delle loro macchine. È importante richiedere questi dati nel caso si debba acquistare uno scanner, e incoraggiare i costruttori a indicare la dmax, la dmin e la gamma dinamica nei fogli che ne descrivono le caratteristiche. Aumentare la gamma dinamica. I recenti miglioramenti tecnici introdotti negli scanner e nelle macchine fotografiche digitali hanno contribuito ad aumentare la gamma dinamica disponibile. Alcuni di questi miglioramenti sono: -Scanner con una più elevata profondità di bit I nuovi modelli di macchine basate sulla tecnologie CCD possono catturare 10, 12, o anche 16 bit per colore, grazie alla maggiore sensibilità di ciascun sensore. I convertitori A/O possiedono la potenza di elaborazione necessaria per scartare i bit di livello più alto (quelli “sporchi”) e campionare i livelli grezzi di tensione analogici fino a ottenere solo gli 8 necessari, però di buona qualità e sufficientemente “puliti” per riprodurre fedelmente le varie tonalità per ogni singolo canale. -Sensori CCD con un più elevato rapporto segnale/rumore I sensori CCD adottati negli scanner a letto piano di fascia alta, quelli per diapositive e nelle macchine fotografiche digitali sono meno sensibili alle sorgenti di rumore elettrico (scariche nell’impianto di illuminazione, onde radio, e così via). Ciò riduce le interferenze e mantiene più puliti i segnali elettrici prodotti dai CCD, che quindi vengono convertiti in dettagli tonali più fedeli. Correzioni durante le scansioni Alcuni Processori di Segnale Digitale (DSP, Digital Signal Processing) e i convertitori AID di alcuni scanner danno la possibilità di ottimizzare le tonalità delle immagini prima che i segnali analogici vengano trasformati in dati digitali. Questi sistemi possono ridurre l’inevitabile perdita di informazioni che si verifica quando viene eseguita una correzione cromatica dopo la scansione. Controlli di esposizione regolabili Alcuni modelli di scanner a tamburo da scrivania, scanner per diapositive e macchine fotografiche digitali consentono di regolare i parametri di esposizione e di apertura. Se la profondità in termini di bit dello scanner è sufficienla combinazione tra un’apertura inferiore e un maggiore tempo di esposizione consentiranno di catturare maggiori dettagli nelle zone d’ombra critiche. Verificato che il programma di scansione le supporti, esistono delle tecniche di correzione delle immagini che possono essere adottate durante le scansioni per migliorare la gamma dinamica delle immagini. È normale per un professionista cercare di ottenere la migliore qualità possibile dalle immagini digitali che si realizzano. In questo capitolo sono stati illustrati i fattori tecnologici che contribuiscono a migliorare la qualità di entrata delle immagini digitali: la tecnologia di acquisizione, la risoluzione ottica e di scansione, l’area di analisi, la profondità di bit e la gamma dinamica. RGB o CMYK, questo è il dilemma Non scomodiamo il povero William per argomenti così banali e cominciamo a dare qualche definizione per avere dei punti sicuri da cui partire. RGB e CMYK sono i più comuni metodi colore usati nella grafica digitale, dove per “metodo colore” si intende semplicemente un modo per rappresentare un’immagine secondo colori primari, dalla cui fusione vengono generati tutti i colori. Esistono altri metodi, come la scala di grigio, il Lab, e così via. RGB e CMYK sono anche chiamati rispettivamente tricromia e quadricromia; in linea generale il primo è usato per l’elaborazione di immagini destinate agli schermi, monitor o TV, il secondo si usa per le immagini da stampare. RGB È l’acronimo di Red, Green e Blue (rosso, verde e blu) ed è un metodo a sintesi additiva, vale a dire che tutti i colori sono generati dalla somma delle luminosità di questi tre colori primari. In Photoshop i colori primari sono associati ciascuno ad un canale, per cui nelle immagini in RGB avremo anche 3 canali che servono, appunto, a generare l’immagine finita. La luminosità di ogni canale si esprime con valori da 0 a 255, che corrispondono al minimo e massimo di intensità. Se ogni canale ha intensità 0 avremo come risultato il nero, viceversa con i canali a 255 avremo il bianco. Quando il valore delle tre componenti è uguale , il risultato è un grigio più o meno scuro, ma sempre neutro. CMYK È l’acronimo di Cyan, Magenta, Yellow e Black (ciano, magenta, giallo e nero) ed è un metodo a sintesi sottrattiva, ovvero gli altri colori si ottengono sottraendo luminosità dai 4 colori primari. Essendo un metodo di colore riservato esclusivamente alle immagini da stampare, in Photoshop i valori per singolo canale si esprimono in percentuale da 0 a 100; per comodità possiamo associare questi valori a quantità di inchiostro, perciò a 0 corrisponde “niente inchiostro” e quindi il bianco (della carta, nel caso specifico). Il nero è indicato con K anziché B per non confondersi con il blu. La fusione di CMY al 100% genera un colore chiamato bistro, una tonalità di marrone, perciò si usa aggiungere una certa percentuale di K per creare il nero vero e proprio, oppure per aumentare il contrasto e ridurre difetti dovuti alle impurità degli altri inchiostri. Viceversa, il K al 100% non è mai percepito come nero assoluto, per cui vi si usa aggiungere gli altri tre colori secondo diverse percentuali, e in base alla predominanza di ciascuno è possibile anche ottenere neri caldi o freddi. Dal punto di vista puramente tecnico le differenze tra i due metodi sono quelle che avete appena letto. Ora passiamo a qualche aspetto pratico, tentando, magari, di rispondere in modo chiaro ad alcune delle domande più frequenti. Mi hanno detto che se devo stampare devo lavorare in CMYK; è giusto? È giusto solo in parte. Si lavora in RGB dall’inizio alla fine e si manda in stampa un file in RGB quando la stampante è un dispositivo di tipo “casalingo” o generalmente digitale. In questa categoria rientrano le stampanti e i multifunzione che ognuno di noi ha, oppure i plotter e le stampanti a laser, anche quelle dei centri stampa. Mi immagino la vostra incredulità, in parte fondata perché sappiamo che le macchine elencate hanno cartucce o toner CMYK. Questo significa che in qualche punto del processo di stampa viene effettuata una conversione dei colori, ma non siamo noi ad occuparcene, bensì il software -il cosidetto driver- che gestisce il flusso di dati dal computer alla stampante. L’unico caso in cui è opportuno convertire i colori in CMYK è quando si stampa con macchine tradizionali da tipografia, o offset, ma per ragioni più o meno complicate è meglio che sia il tipografo stesso ad occuparsi di questa operazione. Perché l’immagine stampata è così diversa da come la vedo sullo schermo? In questo caso la risposta è una diretta conseguenza di quanto detto per la domanda precedente: la stampa converte i colori, è come se li traducesse in un altra lingua, quindi è inevitabile che qualcosa cambi o si perda durante questo processo. RGB e CMYK sono metodi nati per finalità totalmente differenti e che mal si conciliano tra di loro. RGB si esprime in luminosità e lo schermo emette luce; CMYK è quantità di inchiostri su carta, quindi assorbimento di luce. Se in Photoshop proviamo a convertire una foto da RGB a CMYK, il risultato sarà un evidente impoverimento di saturazione e brillantezza dei colori. Quindi è difficile avere una corrispondenza precisa dei colori. Allora come fanno i grafici delle riviste, oppure i fotografi, a controllare la stampa dei propri lavori? La corrispondenza dei colori è impossibile, ma si può tentare di avvicinarsi al meglio al risultato finale usando varie regole e strumenti. Le variabili in gioco sono illimitate: basti pensare a quanti tipi di monitor, stampanti, inchiostri, carte, stoffe, etc… esistono per farsene un’idea. Ogni combinazione di monitor, inchiostro, stampante e carta produrrà un risultato più o meno diverso. La soluzione consiste nel fare in modo che tutti questi passaggi siano controllati. Il monitor deve esse calibrato per mostrare i colori in modo neutro, senza dominanti; La stampante va profilata, ovvero va creato un profilo colore che contenga le istruzioni da dare ai software -come Photoshop- in modo che questi possa mostrare sullo schermo i colori come usciranno sulla carta. Il profilo colore va creato per ogni tipo di carta, stoffa, etc… proprio perché la resa sarà diversa in base al tipo di supporto su cui si stampa. 2.4 .La calibrazione di monitor e periferiche L’argomento è noto a tutti, ma non molti la applicano in maniera corretta. Vediamo ora alcuni punti fondamentali. 1. Calibrazione monitor Il monitor viene calibrato con uno strumento chiamato colorimetro oppure con uno spettrofotometro che funzioni anche da colorimetro. Durante la calibrazione si dovranno controllare almeno questi parametri: o il contrasto e la luminosità; o la temperatura colore; o geometria del monitor; o le variabili dell’ambiente 2. Calibrazione stampante In molte aziende la stampante viene usata come prova colore, purtroppo molte volte queste attrezzature sono in grado di fornire solo una buona bozza di stampa. Le due cose sono completamente diverse. Nella calibrazione della stampante intervengono molteplici fattori: o la stampante non è idonea a svolgere quello che desidero o la tipologia di software abbinata alla stampante o la tipologia di prodotto da riprodurre (stampa di un tessuto, libro, scatola…) o la tolleranza ammessa rispetto alla stampa finale Solo dopo aver risposto a queste domande posso dare inizio alla calibrazione della stampante mediante lo spettrofotometro. Controllo e verifica delle impostazioni colore Tutti gli applicativi grafici e software di varie tipologie hanno settaggi interni per gestire al meglio la gestione colore dei files. La mancata o errata impostazione di questi settaggi và ad escludere tutto il lavoro svolto nei punti precedenti. Creazione di profili icc personalizzati Se l’azienda o lo studio esegue lavorazioni particolari, quali ad esempio: serigrafia; • stampa su ceramica; • stampa offset di prodotti particolari allora lo strumento migliore per creare un flusso di lavoro certo e ripetibile è quello di creare un profilo icc abbinato alla lavorazione, mediante la stampa di test, misurazioni e generazione del profilo icc dedicato. Aggiornamento sulle procedure operative Quando tutto il flusso di lavoro è controllato e calibrato, bisogna verificare come i vari operatori svolgono le vari fasi lavorative. In molti casi l’azienda ha i software aggiornati, ma lavora con la “mentalità” e le “tempistiche” di versioni precedenti degli applicativi in uso.La formazione, anche in questo settore, è un processo continuo. • 2.5 i profili colore Gestione Colore: Siamo giunti finalmente ad un punto cruciale per chi vuole usare Photoshop per stampare. O meglio per chi vuole usare Photoshop per trattare delle immagini da poter mandare in stampa. Oggi l’argomento è rognoso, ma meno difficile di quello che sembra. Però è importante saperlo, soprattutto prima di iniziare a trattare il colore nelle immagini. Anche se siamo solo alle basi di Photoshop diventa fondamentale iniziare con il piede giusto. Di cosa parleremo oggi? 1. Metodi di colore (Rgb, Cmyk, Lab) 2. Profili colore 3. Profili Icc I metodi di colore Rgb RGB è il nome di un modello di colori le cui specifiche sono state descritte nel 1931 dalla CIE (Commission internationale de l’éclairage). Tale modello di colori è di tipo additivo e si basa sui tre colori rosso (Red), verde (Green) e blu (Blue), da cui appunto il nome RGB, da non confondere con i colori primari sottrattivi giallo, ciano e magenta (popolarmente chiamati anche giallo, blu e rosso). Cmyk CMYK è l’acronimo per Cyan, Magenta, Yellow, Key black; è un modello di colore detto anche di quattricromia o quadricromia. La “K” in CMYK si riferisce a key (chiave), in quanto i sistemi di stampa che utilizzano questo modello usano la tecnologia Computer to plate (CTP), i quali mediante una “lastra chiave” (“key plate” in inglese) allineano correttamente le lastre degli altri tre colori (il ciano, il magenta e il giallo appunto). A volte si ritiene erroneamente che la lettera “k” derivi dall’ultima lettera della parola “blacK”, per non creare confusione visto che “b” significa blu. Per quanto apparentemente plausibile, si tratta di un errore. Cosa ottengo dal Cmyk? I colori ottenibili con la quadricromia (sintesi sottrattiva) sono un sottoinsieme della gamma visibile, quindi non tutti i colori che vediamo possono essere realizzati con la quadricromia, così come non tutti i colori realizzati con l’insieme RGB (RED GREEN BLUE) cioè quelli che vediamo sui nostri monitor (sintesi additiva) hanno un corrispondente nell’insieme CMYK. CIE Lab Il sistema Lab si propone di disporre tutti i colori in modo ordinato all’interno di uno spazio a tre dimensioni e di definirlo usando le coordinate di questo spazio cromatico. • Il valore L è l’espressione della luminosità del colore. Cioè quanto il campione misurato tende ad avvicinarsi al nero (L=0) o al bianco (L=100). • Il valore A stabilisce quanto un colore tende al rosso o al verde; • Il valore B stabilisce stabilisce quanto un colore tende al giallo o al blu Puoi considerare quindi i valori A e B come le due coordinate che ci permettono di identificare una precisa posizione all’interno di un “cassetto”, identificando quindi un preciso colore. Lo spazio Lab si può paragonare ad una cassettiera. In ogni cassetto ci sono posizionati i colori della stessa luminosità: • Nel cassetto L=0 sarà presente solo il nero; • Nel cassetto L=50 saranno presenti i colori di media luminosità (ad esempio il Rosso, il Ciano, il Verde ed il Grigio medio); • Nel cassetto L=80 saranno presenti solo colori chiari (il Giallo, il Rosa, l’Azzurro ecc) • • Che cos’è un profilo colore Il profilo colore è la carta d’identità associata ad un file o ad una periferica. Se tutte le periferiche che lo gestiscono hanno lo stesso profilo allora il file grafico si manterrà uguale per tutto il suo percorso. Senza variare le sue caratteristiche cromatiche. Cosa vuol dire? Che se io uso una corretta gestione del colore, includendo i profili all’interno del file, sarò in grado di stampare il lavoro come lo ha voluto il grafico. I programmi di grafica e il RIP, infatti, mettono in relazione i profili colore effettuando le opportune conversioni di colore che permettono di mantenere il risultato il più costante possibile. Ricordatii inoltre che, sui moderni sistemi informatici, la gestione del colore non è mai disattivabile. Un file senza profilo, infatti, eredita i profili settati nelle impostazioni colore dei programmi che lo gestiscono. Allo stesso modo una periferica non può rimanere senza un profilo colore perché rischia di ereditare un profilo generico che non è il suo, causando risultati dalla cromia imprevedibile. E se non uso questo profilo colore? È importante che ogni immagine o file grafico venga salvato con il suo profilo incorporato. Il motivo è semplice: in assenza di un profilo incorporato il file quando viene aperto o elaborato assume il profilo impostato nelle preferenze colore del programma che lo gestisce. Se non è uguale a quello impostato nel programma con cui il file è stato realizzato, l’immagine e i colori appariranno e verranno stampati in maniera diversa. I colori RGB o CMYK sono detti “device dependent”, hanno cioè un’apparenza che dipende dalla periferica che li riproduce. Questo significa che un colore o un’immagine inviati a una periferica senza che ci sia una gestione del colore, appariranno in maniera differente: Per gestire il colore è perciò fondamentale che ogni periferica e ogni file che utilizziamo abbia una profilo ICC unico e personale che ne dichiari le caratteristiche. Ma che cos’è un profilo ICC? Un sistema di gestione del colore deve disporre delle caratteristiche di ogni periferica inserita nel processo di produzione, in pratica dei loro comportamenti cromatici. Ma a che cosa mi serve? Un profilo della periferica permette al sistema di gestione del colore di convertire lo spazio colore nativo ( ad esempio quello del monitor) in uno spazio colore indipendente cioè il CIE LAB. I profili più importanti Coated FOGRA27 Questo profilo è diventato famoso in quanto è lo standard quando hai a che fare con la stampa offset su carta patinata. Questo profilo è importante anche nel caso della stampa digitale in quanto la maggior parte dei lavori di grafica professionali, realizzati ad esempio dalle agenzie di comunicazione, è realizzata in base a questo profilo. Spesso i lavori di grafica vengono creati per la stampa offset di volantini e brochure e in contemporanea vengono preparati i file per la stampa digitale per fiere, espositori, adesivi, ecc… A un file in modalità CMYK senza un profilo incorporato, è perciò utile sia assegnato il profilo Coated FOGRA27. sRGB Lo spazio colore sRGB è stato introdotto da Microsoft e HP perché rappresentai colori riproducibili con le più comuni periferiche digitali (monitor e stampanti consumer). Lo spazio colore sRGB include però solo il 35% dei colori visibili dall’occhio umano e solitamente è assegnato alle immagini realizzate con macchine fotografiche consumer. I monitor standard hanno un profilo colore molto simile ad sRGB e non pemettono perciò una corretta visualizzazione di tutti i colori riproducibili in stampa, in particolare i verdi e i blu scuri. Rispetto ad Adobe RGB questo profilo è molto ridotto e non ci permette perciò di ottenere dei risultati ottimali utilizzandolo come spazio di lavoro impostato nei programmi di grafica. Adobe RGB (1998) È uno spazio colore progettato da Adobe nel 1998 per la visualizzazione a schermo dei colori ottenibili con i sistemi di stampa CMYK professionali. Lo spazio colore Adobe RGB contiene circa il 50% dei colori visibili dall’occhio umano ed ha un gamut più ampio rispetto allo spazio sRGB. È lo spazio di editing consigliato per i file RGB e viene assegnato alle immagini realizzate con macchine fotografiche professionali. Adobe RGB è un profilo che, utilizzato nella realizzazione dei file di grafica, permette di ottenere i risultati migliori in termini di colore riproducibile. Ma dove sono questi profili colore su Photoshop? Alle impostazioni colore dei programmi Adobe si accede andando su Modifica >Impostazioni colore. Come profilo RGB scegli Adobe RGB. Come profilo CMYK scegli Coated FOGRA27 oppure imposta il profilo che utilizzerai in fase di stampa per avere una gestione del colore più accurata. 2.6 Informazioni sulla conversione del colore Spesso è necessario convertire i colori quando vengono visualizzati su un monitor o inviati a una stampante. La conversione è richiesta quando i modelli di colore non corrispondono (ad esempio, quando si visualizza un colore CMYK su un monitor RGB o quando si invia a una stampante un documento che contiene immagini in uno spazio colore RGB). Acrobat utilizza gli spazi colore di origine degli oggetti di un PDF per determinare l'eventuale tipo di conversione dei colori richiesta, ad esempio da RGB a CMYK. Se un PDF contiene oggetti con profili di colore incorporati, i colori vengono gestiti utilizzando i profili incorporati anziché gli spazi colore predefiniti. Per le immagini e gli altri oggetti del PDF che contengono profili di colore incorporati, Acrobat utilizza le informazioni presenti nel profilo per stabilire la modalità di gestione dell'aspetto del colore. Nel caso degli oggetti con colori gestiti, ovvero quelli con profili di colore incorporati, questa conversione viene facilmente riconosciuta. I colori non gestiti, tuttavia, non utilizzano i profili e pertanto è necessario fare temporaneamente ricorso a uno di questi profili per la conversione. Nel pannello Gestione colore della finestra di dialogo Preferenze vengono forniti profili per la conversione dei colori non gestiti. È anche possibile selezionare profili specifici in base alle condizioni di stampa locali. 2.7. bilanciamento del bianco Bilanciamento e correzione dei colori Il bilanciamento del bianco è un concetto di cui spesso i fotografi principianti non conoscono il significato e che, di conseguenza, non viene applicato. Può essere però molto utile conoscerlo e sapere come impostarlo, per migliorare le nostre foto ed eventualmente correggere errori avvenuti al momento dello scatto. In parole povere, poverissime, il bilanciamento del bianco serve a far sì che i colori di una foto compaiono così come li vedono i nostri occhi. Dalla semplice osservazione degli ambienti in cui viviamo ogni giorno, si può notare che diverse fonti luminose producono luci di colore diverso. Si dice, in maniera più tecnica che queste luci hanno diverse temperature di colore. Queste temperature si misurano in Kelvin (K) e possono variare dai 1000K di una candela ai 10000K che si hanno all’ombra durante una giornata di Sole o sotto un cielo completamente coperto, nelle ore centrali della giornata. L’occhio umano si adatta automaticamente ai cambiamenti nella temperatura della luce, a meno di casi estremi. Quindi, un foglio bianco sembra sempre bianco, indipendentemente dal fatto che lo si osservi all’aperto oppure sotto una lampadina a incandescenza. Purtroppo, il sensore della macchina fotografica è molto meno “elastico” dell’occhio umano, perciò può avere spesso bisogno che il fotografo gli suggerisca quale tipo di luce illumina la scena inquadrata. Per fare ciò, quasi tutte le macchine fotografiche digitali danno la possibilità di intervenire su un parametro che si chiama appunto bilanciamento del bianco. Generalmente, i valori di bilanciamento del bianco disponibili sono i seguenti: • • • • • • automatico: la macchina fotografica calcola in maniera completamente automatica la temperatura di colore, nelle fotocamere odierne è molto affidabile in buona parte delle situazioni; incandescenza: si usa quando il locale in cui ci troviamo è illuminato da lampadine a incandescenza, quindi serve a raffreddare un po’ la temperatura di colore; fluorescenza: si usa in presenza di un’illuminazione “tipo neon”, quindi serve a riscaldare un po’ la temperatura di colore; luce solare: si usa nella parte centrale della giornata, per foto all’aperto, quando il Sole non è coperto da nuvole; flash: si usa ovviamente quando viene impiegato flash; nuvoloso: si usa quando si fanno foto all’aperto, durante il giorno, e il cielo è coperto; • • ombra: si usa quando si fotografano, durante il giorno, soggetti che si trovano all’aperto ma all’ombra, mentre il Sole non è coperto da nuvole; misurazione manuale: si usa quando, impiegando i valori precedenti, non si ottengono risultati soddisfacenti, oppure si vuole avere il pieno controllo sul bilanciamento del bianco (ne parliamo in profondità nella prossima sezione). Non tutti i valori appena elencati sono presenti in tutte le macchine fotografiche, ma la lista serve a dare una panoramica completa. Nella foto qui sotto, un esempio di come il bilanciamento del bianco influisce sull’aspetto della foto: • • • al centro, la foto corretta, con bilanciamento “luce solare”, a sinistra una foto con colori più caldi, a causa della bilanciamento impostato a “ombra”, a destra una foto con colori eccessivamente “raffreddati”, dovuti al bilanciamento del bianco “incandescenza”. La stessa foto con diversi valori bilanciamento del bianco: ombra (sinistra), luce solare (centro), incandescenza (destra) Misurazione manuale del bilanciamento del bianco In situazioni critiche, può accadere che il bilanciamento del bianco automatico fallisca e nemmeno gli altri valori aiutino a ottenere una temperatura di colore corretta. Questo fenomeno si può verificare, per esempio, in luoghi chiusi quando sono presenti fonti luminose con caratteristiche diverse tra loro. Oppure, man mano che diventiamo fotografi più esperti, potremmo trovarci in situazioni in cui vogliamo controllare con precisione il bilanciamento del bianco. In questi casi utilizziamo la misurazione manuale. Per fortuna si tratta di una procedura per nulla complessa. Tra le macchine fotografiche digitali, le reflex generalmente includono questa funzione. Tra le macchine di livello inferiore, può accadere che essa non sia disponibile. Come si usa la funzione di misurazione manuale del bilanciamento del bianco? 1. Sulla macchina fotografica, si seleziona la corretta voce di menù; 2. la macchina fotografica attenderà il prossimo scatto per misurare la temperatura di colore,1 3. si riempie completamente l’inquadratura con un oggetto interamente bianco o grigio chiaro, 4. senza bisogno di mettere a fuoco, si preme il pulsante di scatto. Terminata con successo la procedura, la macchina fotografica utilizzerà il valore di temperatura di colore appena impostato per tutte le prossime foto, finché non ripeteremo la procedura o selezioneremo un altro valore tra quelli predefiniti. Raccomandazioni Finché usiamo il bilanciamento del bianco automatico, ad ogni foto la macchina fotografica cercherà di adattarsi alla temperatura di colore attuale. Quando invece impostiamo uno qualsiasi degli altri valori, compreso quello manuale, la macchina fotografica continuerà a comportarsi come se la temperatura di colore fosse rimasta la stessa di quando abbiamo impostato il bilanciamento del bianco l’ultima volta. Quindi, se, per esempio, siamo in casa e impostiamo il bilanciamento del bianco su incandescenza (perché abbiamo solo lampadine a incandescenza) e poi usciamo a scattare delle foto in giardino e non ci ricordiamo di cambiare bilanciamento del bianco, otterremo probabilmente delle foto1 con colori che tendono al blu/verde. È importante quindi ricordarsi sempre di verificare il bilanciamento del bianco prima di cominciare una sessione fotografica, a meno che non stiamo scattando in modalità totalmente automatica (in cui la macchina fotografica decide sempre anche il bilanciamento del bianco). 2.8 HDR (acronimo di High Dynamic Range) Ma per realizzare veramente un HDR iniziamo dalle basi. La fotografia HDR consiste nel superare i limiti fisici del sensore aumentando la gamma dinamica estesa grazie alla possibilità di combinare in post produzione o in fase di scatto 3 o più foto con diverse esposizioni, questo comporta che le scene fotografate debbano essere statiche ed è quindi necessario un treppiedi. Molti sono convinti che questa tecnica porti ad avere foto molto contrastate con colori super saturi, non c’è niente di più sbagliato, quello che vedete in quel tipo di foto è solo un'orrenda post produzione che alle volte risulta interessante se ben realizzata. Ma da cosa è caratterizzata una vera foto in HDR? Da una gamma dinamica superiore a quella del sensore, ovvero con ombre aperte ed alte luci contenute anche in presenza di forti contrasti. Ottenendo una foto impossibile da fare con un sensore normale, perché chiuderebbe le ombre oppure brucerebbe le alte luci. Da questa spiegazione si evince che non è possibile ottenere un HDR da un singolo scatto perché non si supera alcun limite di gamma dinamica del sensore, in un solo scatto non possono esistere le informazioni che sono contenute in più scatti. Ecco come fare le foto per realizzare un HDR: • La prima foto per esporre le alte luci • La seconda con un esposizione media • La terza esponendo per le ombre L'unione di queste 3 foto forma un unica immagine con una ricchezza di colori e dettagli superiore alla singola foto. Una curiosità: La fotografia HDR dovrebbe apparirci più realistica di una foto normale, poiché l’occhio umano è in grado di distinguere maggiori dettagli di un sensore, sia nelle luci che nelle ombre! Ora vi voglio parlare di qualcosa che non si trova normalmente nei tutorial sulla fotografia HDR, l’ha scritta un’autrice del mio blog di nome Sabrina Campagna. Per ottenere immagini realmente pregnanti e degne di nota, la cosa che più conta è la prima immagine, quella di partenza. Per ottenere il meglio, lo scatto deve essere compiuto in situazioni di luce non estreme. Le regole base per il primo scatto sono le seguenti: 1. No ai forti controluce. 2. No ad un’eccessiva presenza di nero in foto (come nel caso di foto notturne scattate con esposizioni non troppo lunghe). 3. No a cieli grigi. 4. No al troppo sole. Nel primo e nel secondo caso, infatti, a causa dell’elaborazione, l’HDR risultante nella maggior parte dei casi avrà un nero scolorito e rumoroso, a cui sopperire solo tramite un elevato contrasto che riporterà l’immagine più o meno ai toni originari di silhouette o notturno. Nel terzo caso i cieli troppo slavati e grigi possono dar luogo a macchie bianche di colore, laddove il programma non riesca a trovare toni adatti per la mappatura. Ciò capita soprattutto in zone dove il colore tende verso il bianco, per cui la macchia di colore risulterà di un bianco/grigio con contorni frastagliati (come si vede nell’immagine). Nel quarto ed ultimo caso, succede qualcosa di analogo al precedente. Il sole a picco può creare scompensi nello scatto originario, in quanto a meno di centrare bene la foto, il cielo risulterà tendente al bianco, per poi “bruciarsi” completamente durante la mappatura. L’eccessiva rifrazione dei raggi UV, inoltre, può creare scoloriture anche su altre aree della foto, rendendo così l’HDR pressoché inutilizzabile. I soggetti migliori da fotografare sono quelli architettonici o comunque ricchi di dettagli, che verranno maggiormente evidenziati nella fusione HDR. COME REALIZZARE UNA FOTO IN HDR - FASE DI POST PRODUZIONE In questo tutorial studieremo come creare un’immagine HDR tramite Photomatix e la successiva ottimizzazione della stessa tramite Photoshop, il tutto partendo da tre scatti effettuati in formato RAW. Gli scatti di seguito utilizzati sono stati eseguiti con una reflex Canon 30D ed un obiettivo Canon 10-22mm. Diaframma f/9 con tempi di 1/8s, 0.5s e 2s. Come potete notare i tempi agli estremi sono esattamente a + e - 2 stop dal valore di riferimento di 0.5s. Le foto sono state scattate al museo delle scienze di Londra, ambiente ideale per sfruttare la tecnica hdr, sistemando la camera su di uno zaino in quanto da regolamento interno del museo è vietato usare il cavalletto, in modalità bracketing e autoscatto inserito in maniera da evitare qualsiasi movimento della camera al momento degli scatti. 1 - Creazione dell’HDR Per la creazione dell'HDR utilizzeremo un ottimo programma chiamato Photomatix Pro, facile da utilizzare ed abbastanza intuitivo (vi sono molti tutorial in rete per approfondirne le caratteristiche). Lavorando con immagini TIFF a 16 bit il risultato sarà simile all'immagine seguente (32 bit): Dopo aver settato il vero motore di Photomatix, cioè il "Tone Mapping", otterremo un'immagine TIFF a 16 bit per canale: Configurare il Tone Mapping secondo il proprio gusto risulterà un'operazione piuttosto semplice data l'interfaccia priva di fronzoli. La differenza fra le due foto è evidente ma ancora non proprio soddisfacente...dominante giallognola e un po' slavata. Ciò che si otterrà dopo aver lavorato con Photomatix sarà simile all’immagine seguente: Ritocco dei dettagli Passiamo alla fase di rifinitura per rendere l’immagine un po' più accattivante. Principalmente andremo a lavorare sulle luci, sulle ombre, sui toni, sul contrasto e sulla nitidezza. Aperta l’immagine precedentemente salvata da Photomatix, duplichiamo il livello di sfondo e modifichiamone l’esposizione (immagine > regolazioni > esposizione): Proseguiamo desaturando il giallo (immagine > regolazioni > tonalità/saturazione) Aumentiamo la nitidezza dell’immagine utilizzando una maschera di contrasto: (In questo caso ho preferito aumentare subito la nitidezza invece che farlo alla fine del lavoro), uniamo il tutto e duplichiamo il livello così creato. Applichiamo il filtro controllo sfocatura/Gaussian Blur in modalità sovrapponi e bassa opacità (14% può andare bene) così facendo andiamo a caricare maggiormente il colore dell'immagine rendendola più corposa: Uniamo nuovamente i livelli e duplichiamolo. Immagine > regolazioni > luminosità/contrasto utilizzando i seguenti valori: luminosità: 3; contrasto: +3. Uniamo nuovamente il tutto e duplichiamo il livello. Immagine > regolazioni > curve Uniamo il tutto e duplichiamo il livello. Si può vedere ancora una dominante giallognola che, personalmente, non trovo adeguata. Ripetiamo quindi la desaturazione del giallo con valore -65 ed impostando, per il livello superiore (modalità normale), un'opacità al 75%. Uniamo il tutto e duplichiamo nuovamente. Cerchiamo di aumentare la tridimensionalità del soggetto andando ad enfatizzare i punti di luce con lo strumento pennello in modalità sovrapponi / overlay con opacità di circa il 18% ed utilizzando come colore il bianco. Lo stesso procedimento dovrà essere eseguito per le zone in ombra usando un pennello nero (in alternativa potremo utilizzare gli strumenti brucia e scherma). Le dimensioni del pennello varieranno a seconda della parte che andremo a trattare. Uniamo il tutto ancora una volta e duplichiamo il livello. Passiamo in modalità 8 bit ed utilizziamo il filtro Effetto pennellate / Paint Daubs: Abbassiamo l’opacità del livello al 30% e nei punti dove l’effetto risulta essere troppo accentuato (in questo caso sul radiatore del veicolo) utilizziamo lo strumento gomma per rendere visibile il livello sottostante. Direi che il lavoro è finito! In conclusione Come avrete intuito questo non è "IL" metodo ma un metodo che deve essere adattato alla foto da elaborare. Per un buon risultato è importante partire da una fotografia discreta con il più basso rumore possibile, dato che l’HDR tende ad enfatizzare questo rumore. Non tutti i soggetti sono adatti a questo tipo di elaborazione, metalli e superfici riflettenti, invece, daranno notevoli risultati. Partendo da un soggetto molto contrastato l’immagine finale risulterà altrettanto ben esposta e gradevole ma si avrà necessità di più scatti…5, 7 o addirittura 9. Un effetto simile, sebbene più grossolano, si potrà ottenere partendo anche da un solo scatto: sviluppando in maniera differente lo stesso file RAW variandone di volta in volta la luminosità. 2-9 .l’elaborazione del formato RAW Il formato RAW è uno strumento che apre molte possibilità creative e permette di fare molto più facilmente foto “come i professionisti”. È importante quindi sapere cos’è e quali vantaggi offre. Andiamo allora ad analizzarlo nel resto dell’articolo. Cos’è il formato RAW RAW in inglese significa crudo, grezzo. Le foto in formato RAW sono appunto grezze, contengono tutta quanta l’informazione registrata dal sensore della macchina fotografica. Al contrario, se non lo sai, le foto in formato JPEG sono compresse e per effettuare questa compressione vengono persi dei dati, delle informazioni. I file RAW invece non sono compressi, per questo la loro dimensione è molto più elevata rispetto alla loro controparte compressa. La possibilità di scattare in formato RAW è offerta da tutte le fotocamere reflex digitali, dalle bridge e da molte digitali compatte. Inoltre, una cosa da sapere è che per qualche antipatico motivo, ciascun produttore di macchine fotografiche adotta il suo formato RAW proprietario. Le informazioni contenute nei file RAW generati da macchine di diverse marche sono per la maggior parte simili, ma ci sono degli elementi che li contraddistinguono e che rendono necessari software compatibili per poterli utilizzare. Perché usare il formato RAW Il formato RAW ha un unico grande vantaggio: siccome non è compresso esso mette nelle mani del fotografo la massima quantità di informazione possibile su cui lavorare per ottenere l’immagine che desidera. Per questo una foto in formato RAW è detto negativo digitale, in quanto equivale al rullino che viene prodotto dalle fotocamere analogiche. Volendo fare un paragone non completamente appropriato con l’arredamento delle case, un fotografo che può lavorare su una foto in RAW è come se avesse a disposizione una casa appena costruita, completamente deserta, in cui è permesso dipingere le pareti, aggiungere lampadari, scegliere completamente l’arredamento. Un fotografo che invece ha a disposizione un file JPEG ha una casa in affitto in cui non può bucare le pareti, non può dipingerle e non ha la possibilità di spostare i mobili già presenti. La maggiore quantità di informazione disponibile in una foto in formato RAW ha diverse conseguenze molto positive: • • • • il bilanciamento del bianco può essere completamente rifatto via software, non è necessario che sia corretto al momento dello scatto; è molto più facile rimuovere il rumore (ad esempio dipende da un valore alto di ISO), limitando la perdita di definizione la fotografia; è possibile correggere l’esposizione, con gli appositi software (come ad esempio Lightroom) è anche possibile correggere l’esposizione di singoli elementi all’interno della foto; c’è un maggiore spazio di azione per ogni tipo di elaborazione, dal contrasto, alla nitidezza, alle curve di viraggio, al recupero degli elementi sottoesposti o sovraesposti, ecc. Tutti questi aspetti rendono il formato RAW il prediletto dai fotografi. La stragrande maggioranza dei fotografi professionisti scatta solamente in RAW. Perché non usare il formato RAW Ogni medaglia ha il suo rovescio. A fronte degli indiscutibili vantaggi del RAW, che ho appena elencato, ci sono alcuni evidenti svantaggi. • • • Innanzitutto, l’elevata dimensione dei file ha diverse conseguenze negative: le schede di memoria vengono riempite molto più velocemente, se si è soliti fare raffiche di scatti, tenendo premuto il pulsante di scatto, talvolta usando il formato RAW si riescono a fare a meno scatti al secondo, il trasferimento dei file al computer è più lento. In secondo luogo, i file RAW non possono essere visualizzati ed elaborati senza appositi programmi. Questo rende molto più lenta la produzione delle foto. Non è possibile, ad esempio, estrarre le foto dalla scheda di memoria e caricarle direttamente su Internet, bisognerà almeno esportarle in JPEG. Fortunatamente, la disponibilità di programmi in grado di leggere ed elaborare i file RAW è molto vasta, sia per quanto riguarda i programmi a pagamento (tra tutti, Lightroom) che quelli gratuiti (ad esempioRawTherapee). In futuro, con altri articoli, andremo a vederne alcuni e a capire come si utilizzano. Infine, quando apriremo la foto in formato RAW sul nostro computer, ci accorgeremo che essa non apparirà come la vedevamo sullo schermo della macchina. Questo accade perché la fotocamera normalmente applica delle elaborazioni che sono registrate nei JPEG e nell’anteprima visibile sullo schermo ma non nei file RAW. Fortunatamente, è molto facile trovare dei preset per i vari programmi di elaborazione che permettono con un solo clic di applicare al RAW quelle elaborazioni che erano presenti anche nella macchina fotografica. Cosa scegliere, RAW o JPEG? Come hai visto, il formato RAW non è perfetto, ha alcuni difetti. Ci sono situazioni in cui abbiamo la necessità di produrre foto che siano direttamente condivisibili oppure in cui dobbiamo fare molti scatti al secondo (ad esempio quando fotografiamo eventi sportivi). In questi casi effettivamente il JPEG può essere preferibile. Comunque, al giorno d’oggi, la maggior parte delle fotocamere è in grado di creare ottime foto in formato JPEG. Tuttavia, molti fotografi professionisti suggeriscono accoratamente di passare il prima possibile a scattare tutte le foto in formato RAW. Questo consiglio è valido soprattutto per chi ambisce a diventare un’artista più che a raccogliere solamente i ricordi degli eventi della propria vita. Io mi trovo completamente d’accordo. Infatti, il formato RAW ci dà un controllo infinitamente maggiore nella produzione della foto, nel passaggio dall’acquisizione della luce da parte del sensore all’immagine finita in cui, grazie all’elaborazione digitale,creiamo e sottolineiamo accuratamente il messaggio che vogliamo trasmettere. 2-10 Filigrana e protezione del copyright Filigrana e protezione del copyright Leggere una filigrana Digimarc 1. Scegliete Filtro > Digimarc > Leggi filigrana. Se viene rilevata una filigrana, nella finestra di dialogo vengono visualizzati l’ID Digimarc, le informazioni sull’autore e gli attributi dell’immagine. 2. Fate clic su OK oppure, per ulteriori informazioni, fate clic su Consulta Web. Nel browser Web viene visualizzato il sito Digimarc, con i dati di contatto relativi all’ID dell’autore.. Aggiungere informazioni digitali di copyright Potete aggiungere informazioni di copyright alle immagini di Photoshop e segnalare agli utenti, tramite una filigrana digitale basata sulla tecnologia Digimarc ImageBridge, che un’immagine è protetta da copyright. La filigrana (codice digitale aggiunto all’immagine come disturbo) è praticamente invisibile a occhio nudo. La filigrana Digimarc è durevole sia in forma digitale che stampata e si conserva anche se modificate l’immagine e la convertite in un altro formato. Una filigrana digitale incorporata in un’immagine permette di visualizzare informazioni circa il suo autore. Questo aspetto è particolarmente significativo quando gli autori di immagini cedono in licenza le loro opere. Quando copiate un’immagine con filigrana incorporata, copiate anche la filigrana e tutte le informazioni corrispondenti. Per ulteriori informazioni su come incorporare filigrane digitali Digimarc, consultate il sito Web Digimarc, all’indirizzo www.digimarc.com. Prima di aggiungere una filigrana digitale Prima di incorporare nelle immagini una filigrana digitale, tenete presente quanto segue: Variazione del colore L’immagine deve presentare una certa variazione o casualità del colore affinché sia possibile incorporare la filigrana digitale al meglio e in modo impercettibile. L’immagine non deve essere composta, né per la maggior parte né interamente, da un unico colore piatto. Dimensioni in pixel La tecnologia Digimarc richiede un numero minimo di pixel per poter funzionare. Digimarc consiglia di inserire una filigrana solo in immagini con le seguenti dimensioni minime in pixel: • 100 x 100 pixel, se non prevedete di modificare o di comprimere l’immagine prima di usarla. • 256 x 256 pixel, se prevedete di tagliare, ruotare, comprimere o modificare in altro modo l’immagine dopo averle applicato la filigrana. • 750 x 750 pixel, se prevedete che l’immagine venga stampata a 300 dpi o risoluzione maggiore. Non esiste invece alcun limite massimo delle dimensioni. Compressione dei file Sebbene, in genere, una filigrana Digimarc resiste ai metodi di compressione con perdita di dati come il JPEG, è consigliabile preferire la qualità dell’immagine alla dimensione del file scegliendo un’impostazione di compressione JPEG 4 o superiore. Inoltre, maggiore è l’impostazione di Durata filigrana che scegliete quando la incorporate, maggiori sono le probabilità di ritenere la filigrana digitale dopo la compressione. Flusso di lavoro La creazione di una filigrana digitale deve essere una delle ultime operazioni da eseguire, prima dell’eventuale compressione del file. Il flusso di lavoro consigliato è il seguente: • Apportate all’immagine tutte le modifiche del caso (ridimensionamento, correzione del colore, ecc.) fino ad ottenere il risultato desiderato. • Incorporate la filigrana Digimarc. • Se necessario, comprimete l’immagine salvandola in formato JPEG o GIF. • Se l’immagine è destinata alla stampa, effettuate la selezione colore. • Leggete la filigrana e usate il misuratore dell’intensità del segnale per assicurarvi che l’immagine contenga una filigrana di intensità adeguata alle vostre esigenze. • Pubblicate l’immagine con la filigrana digitale. Incorporare una filigrana Per incorporare una filigrana digitale, dovete prima registrarvi presso Digimarc Corporation per ottenere un ID Digimarc univoco ed essere inseriti in un database di artisti, designer e fotografi con relative informazioni di contatto. Potrete quindi incorporare nelle immagini l’ID Digimarc e informazioni quali l’anno del copyright o un identificatore di uso limitato. 1. Aprite l’immagine a cui volete applicare la filigrana. Potete incorporare una sola filigrana digitale per immagine. Il filtro Includi filigrana non funziona con un’immagine che ne contiene già una. Se lavorate con un’immagine a più livelli, dovete unirli in un unico livello prima di inserire la filigrana, per evitare che questa riguardi solo il livello attivo. Nota: per aggiungere una filigrana digitale a un’immagine in scala di colore, convertitela prima in un’immagine RGB, incorporate la filigrana, quindi riconvertire l’immagine in scala di colore. Tuttavia, l’aspetto potrebbe risultare diverso da quello iniziale. Per assicurarvi di avere incorporato la filigrana, attivate il filtro Leggi filigrana. 2. Scegliete Filtro > Digimarc > Includi filigrana. 3. Se usate il filtro per la prima volta, fate clic su Personalizza. Per ottenere un ID Digimarc, fate clic su Info per avviare il browser Web e visitare il sito Web di Digimarc all’indirizzo www.digimarc.com. Immettete il PIN e l’ID nella casella di testo ID Digimarc e fate clic su OK. Una volta inserito l’ID, il pulsante Personalizza diventa Cambia, per consentirvi all’occasione di inserire un nuovo ID Digimarc. 4. Digitate l’anno del copyright, l’ID di transazione o l’ID immagine. 5. Selezionate uno dei seguenti attributi: Uso riservato Limita l’uso dell’immagine. Non copiare Specifica che l’immagine non deve essere copiata. Contenuto per adulti Indica che il contenuto dell’immagine è riservato a un pubblico di soli adulti. In Photoshop, questa opzione non limita l’accesso alle immagini per adulti; tuttavia potrebbe esserne limitata la visualizzazione in versioni future di altre applicazioni. 6. Per Durata filigrana, trascinate il cursore o inserite un valore, come descritto nella sezione successiva. 7. Selezionate Verifica per valutare la durata della filigrana dopo l’incorporamento. 8. Fate clic su OK. L’impostazione predefinita Durata filigrana consente di stabilire un equilibrio tra la durata della filigrana e la relativa visibilità nella maggior parte delle immagini. Potete tuttavia regolare questa impostazione in base alle vostre esigenze. I valori bassi rendono la filigrana meno visibile in un’immagine, ma anche meno durevole; potrebbe danneggiarsi se applicate filtri o eseguite operazioni di modifica, stampa o digitalizzazione. I valori alti rendono la filigrana più durevole, ma possono compromettere la visualizzazione dell’immagine. L’impostazione dipende dall’uso a cui è destinata l’immagine e dal ruolo delle filigrane. Ad esempio, una Durata filigrana più elevata potrebbe essere indicata per immagini JPEG destinate a un sito Web. Una durata maggiore assicura la resistenza della filigrana; la maggiore visibilità non incide molto sulle immagini JPEG a media risoluzione. Digimarc consiglia di provare diverse impostazioni fino a determinare quella che meglio si adatta alla maggior parte delle vostre immagini. Usare il misuratore dell’intensità del segnale Il misuratore dell’intensità del segnale verifica se una filigrana è sufficientemente durevole per persistere nell’immagine secondo l’uso a cui è destinata. Scegliete Filtro > Digimarc > Leggi filigrana. Il misuratore dell’intensità del segnale compare in fondo alla finestra di dialogo. Potete anche visualizzare il misuratore in automatico, selezionando Verifica quando incorporate la filigrana. Il misuratore è disponibile solo per le immagini contenenti filigrane digitali da voi incorporate. Digimarc consiglia di controllare il misuratore prima di pubblicare le immagini (ad esempio, se comprimete immagini con filigrana da includere in un sito Web). Il misuratore dell’intensità del segnale è inoltre utile per confrontare l’efficacia di diverse impostazioni di Durata filigrana.