Dispense non ufficiali di telerilevamento
Transcript
Dispense non ufficiali di telerilevamento
UNIVERSITÀ DEGLI STUDI DI PAVIA FACOLTÀ DI INGEGNERIA DIPARTIMENTO DI ELETTRONICA INTRODUZIONE AL TELERILEVAMENTO PER L’OSSERVAZIONE DELLA TERRA Ing. Giovanna Trianni Pavia, 28 Febbraio 2006 Desidero ringraziare il Professor Paolo Gamba, che mi ha trasmesso l’interesse per il Telerilevamento, e l’Ing. Fabio Dell’Acqua, ispiratore di questo lavoro, che non avrebbe mai visto la luce senza il suo prezioso aiuto. II INDICE PARTE PRIMA.................................................................................................................................. 8 GLI STRUMENTI DEL TELERILEVAMENTO.......................................................................... 8 CAPITOLO 1 ..................................................................................................................................... 9 INTRODUZIONE AL TELERILEVAMENTO ............................................................................. 9 1.1 DEFINIZIONI DI TELERILEVAMENTO ................................................................................................. 9 1.2 METODI DI RILEVAZIONE DIRETTA E DI TELERILEVAMENTO ............................................................ 9 1.2.1 I vantaggi del telerilevamento ................................................................................................... 10 1.2.2 Gli svantaggi del telerilevamento ............................................................................................. 11 1.3 L’OSSERVAZIONE DELLA TERRA MEDIANTE TECNICHE DI TELERILEVAMENTO ............................. 11 CAPITOLO 2 ................................................................................................................................... 12 L’ENERGIA ELETTROMAGNETICA E IL TELERILEVAMENTO............................................................ 12 2.1 INTRODUZIONE .............................................................................................................................. 12 2.2 L’ENERGIA ELETTROMAGNETICA .................................................................................................. 13 2.2.1 Alcune definizioni ..................................................................................................................... 14 2.2.2 Onde e fotoni ............................................................................................................................. 14 2.3 SORGENTI DI ENERGIA EM ............................................................................................................ 15 2.4 LO SPETTRO ELETTROMAGNETICO ................................................................................................. 17 2.5 INTERAZIONE DELL’ENERGIA NELL’ATMOSFERA ........................................................................... 18 2.5.1 Assorbimento e trasmissione .................................................................................................... 19 2.5.2 Diffusione atmosferica .............................................................................................................. 19 2.5.3 Diffusione di Rayleigh .............................................................................................................. 20 2.5.4 Diffusione di Mie ...................................................................................................................... 21 2.6 INTERAZIONI DELL’ENERGIA EM CON LA SUPERFICIE TERRESTRE ................................................. 22 2.6.1 Bilancio di energie .................................................................................................................... 24 2.7 LA CURVA DI RIFLETTANZA ........................................................................................................... 25 2.7.1 Vegetazione ............................................................................................................................... 25 2.7.2 Suolo ......................................................................................................................................... 25 2.7.3 Acqua ........................................................................................................................................ 26 CAPITOLO 3 ................................................................................................................................... 27 OSSERVAZIONE DELLA TERRA: ASPETTI SISTEMISTICI ............................................... 27 3.1 INTRODUZIONE .............................................................................................................................. 27 3.2 LE COMPONENTI DI UN SISTEMA DI OSSERVAZIONE DELLA TERRA ................................................ 27 3.2.1 Oggetto osservato (Bersaglio) .................................................................................................. 27 3.2.2 La sorgente del campo elettromagnetico .................................................................................. 28 3.2.3 Il mezzo sede della propagazione della radiazione ................................................................... 28 3.3 I SENSORI ...................................................................................................................................... 29 3.4 CLASSI DI SENSORI ........................................................................................................................ 30 3.4.1 I Sensori passivi ........................................................................................................................ 30 3.4.2 I Sensori attivi ........................................................................................................................... 31 3.5 LE PIATTAFORME........................................................................................................................... 32 3.5.1 Le piattaforme aeree.................................................................................................................. 33 3.5.2 Le piattaforme spaziali .............................................................................................................. 33 3.5.2.1 Le orbite ................................................................................................................................. 35 3.6 CONVERSIONE ANALOGICO-DIGITALE ........................................................................................... 37 3.6.1 Rappresentazione dei dati (imaging): RASTER e VETTORIALE .......................................... 38 3.7 SISTEMA DI TERRA ........................................................................................................................ 39 3.7.1 Centro di supporto ..................................................................................................................... 40 3.7.2 Sistema di Acquisizione ed Archiviazione ............................................................................... 40 3.7.3 Sistema di Elaborazione ............................................................................................................ 41 3.7.4 Sistema di Distribuzione ........................................................................................................... 42 3.7.5 Centro di Supporto Utenti ......................................................................................................... 42 3.8 REQUISITI DI UN SISTEMA DI EO: CAMPIONAMENTO SPETTRO-SPAZIO-TEMPORALE ...................... 43 3.8.1 Lo stato del bersaglio ................................................................................................................ 43 3.8.2 Il campionamento spettro-spazio-temporale ............................................................................. 43 3.9 I REQUISITI D’OSSERVAZIONE ........................................................................................................ 44 3.10 I VINCOLI TECNOLOGICI............................................................................................................... 45 3.10.1 Tecnologie di bordo e sensori ................................................................................................. 45 3.10.2 I fattori ambientali ................................................................................................................... 46 3.11 ALCUNE ULTERIORI DEFINIZIONI ................................................................................................. 46 3.12 CARATTERISTICHE DELLE IMMAGINI ........................................................................................... 47 3.12.1 Relazioni tra risoluzioni .......................................................................................................... 48 3.12.2 Agire sulle risoluzioni ............................................................................................................. 48 CAPITOLO 4 ................................................................................................................................... 50 IL TELERILEVAMENTO OTTICO: LA FOTOGRAFIA AEREA ................................................................ 50 4.1 INTRODUZIONE .............................................................................................................................. 50 4.2 LA FOTOGRAFIA AEREA ................................................................................................................. 52 4.3 STRUTTURA DI UNA FOTOCAMERA ................................................................................................ 54 4.3.1 Lente conica .............................................................................................................................. 54 4.3.2 Contenitore della pellicola e dati ausiliari................................................................................. 55 4.4 CARATTERISTICHE SPETTRALI E RADIOMETRICHE ......................................................................... 55 4.5 FOTOGRAFIA MONOCROMATICA .................................................................................................... 56 4.6 LA FOTOGRAFIA A COLORI VERI E QUELLA A INFRAROSSO O FALSI COLORI ................................... 56 4.6.1 Confronto .................................................................................................................................. 58 4.7 LE CARATTERISTICHE SPAZIALI ..................................................................................................... 58 4.7.1 La scala ..................................................................................................................................... 58 4.7.2 La risoluzione spaziale .............................................................................................................. 59 4.8 LE MISSIONI DI FOTOGRAFIA AEREA .............................................................................................. 59 4.8.1 La pianificazione della missione ............................................................................................... 59 4.8.2 L’esecuzione della missione ..................................................................................................... 59 4.8.3 Le tecnologie di supporto .......................................................................................................... 60 CAPITOLO 5 ................................................................................................................................... 61 GLI SCANSORI MULTISPETTRALI....................................................................................................... 61 5.1 LA SCANSIONE............................................................................................................................... 61 5.1.1 Scansione trasversale ................................................................................................................ 61 2 5.1.1.1 La geometria .......................................................................................................................... 62 5.1.2 Scansione longitudinale o “pushbroom” ................................................................................... 62 5.2 LE TECNICHE MULTISPETTRALI ..................................................................................................... 63 5.3 FOTOGRAFIA E RILEVAZIONE ELETTRONICA .................................................................................. 64 5.4 TERMOGRAFIA .............................................................................................................................. 64 5.4.1 Bande termiche ......................................................................................................................... 64 5.4.2 Immagini termiche .................................................................................................................... 65 5.5 ALCUNI SCANSORI MULTISPETTRALI ............................................................................................. 65 5.5.1 Meteosat-5 ................................................................................................................................. 65 5.5.2 NOAA-15 .................................................................................................................................. 67 5.5.3 LandSat-7 .................................................................................................................................. 69 5.5.3.1 Le bande del LandSat ............................................................................................................. 69 5.5.3.2 Le applicazioni del LandSat ................................................................................................... 70 5.5.4 SPOT ......................................................................................................................................... 71 5.5.5 IKONOS.................................................................................................................................... 73 5.5.6 QuickBird .................................................................................................................................. 73 5.5.7 TERRA – ASTER ..................................................................................................................... 74 5.5.8 Il sensore MERIS di Envisat-1.................................................................................................. 75 5.5.8.1 I requisiti della missione ........................................................................................................ 76 5.5.8.2 Le prestazioni dello strumento ............................................................................................... 78 5.5.8.3 I dati MERIS .......................................................................................................................... 79 5.6 LE DISTORSIONI NEL TELERILEVAMENTO OTTICO .......................................................................... 80 5.6.1 Origine ...................................................................................................................................... 80 5.6.2 Cause specifiche ........................................................................................................................ 80 CAPITOLO 6 ................................................................................................................................... 83 I RADAR ........................................................................................................................................... 83 6.1 INTRODUZIONE .............................................................................................................................. 83 6.2 PRINCIPI DI ACQUISIZIONE DI IMMAGINI RADAR ............................................................................ 84 6.3 LE BANDE COMUNEMENTE USATE ................................................................................................. 86 6.4 LE POLARIZZAZIONI DELLE MICROONDE ........................................................................................ 88 6.5 PROPRIETÀ GEOMETRICHE DEL RADAR .......................................................................................... 89 6.5.1 Geometria del radar ................................................................................................................... 89 6.6 RISOLUZIONE SPAZIALE................................................................................................................. 90 6.6.1 Risoluzione in slant range ........................................................................................................ 91 6.6.2 Risoluzione in ground range (o distanza al suolo) .................................................................... 91 6.6.3 Risoluzione in azimut................................................................................................................ 91 6.7 RADAR AD APERTURA SINTETICA (SYNTHETIC APERTURE RADAR, SAR) .................................... 91 6.8 PRINCIPI DI ACQUISIZIONE RADAR ................................................................................................. 95 6.8.1 Risoluzione di un radar ad apertura sintetica ............................................................................ 96 6.8.2 Storia della fase di un bersaglio puntiforme ............................................................................. 97 6.8.3 Elaborazione in azimut.............................................................................................................. 98 6.8.4 Elaborazione in portata ........................................................................................................... 101 6.8.5 Caratteristiche delle immagini SAR ....................................................................................... 102 6.9 DISTORSIONI NELLE IMMAGINI RADAR ........................................................................................ 103 6.9.1 Distorsioni di scala .................................................................................................................. 103 6.9.2 Distorsioni introdotte dal terreno ............................................................................................ 103 6.9.3 Distorsioni radiometriche ........................................................................................................ 104 6.9.3.1 Il rumore speckle .................................................................................................................. 105 6.9.3.1.1 Il modello di rumore moltiplicativo per lo Speckle .......................................................... 106 3 6.9.3.1.2 Elaborazione multi-look .................................................................................................... 107 6.9.3.1.3 I filtri anti-speckle ............................................................................................................. 107 6.10 APPLICAZIONI DEL RADAR......................................................................................................... 112 6.11 DIFFERENZE TRA LE IMMAGINI OTTICHE E LE IMMAGINI RADAR ................................................ 112 6.12 ALCUNI SISTEMI RADAR ............................................................................................................ 113 6.12.1 SeaSat .................................................................................................................................... 113 6.12.2 SIR-C .................................................................................................................................... 113 6.12.3 ERS ....................................................................................................................................... 113 6.12.4 Radarsat-1 ............................................................................................................................. 113 6.12.5 La costellazione COSMO/SkyMed ....................................................................................... 114 6.13 ENVISAT-1: IL NUOVO SATELLITE EUROPEO .............................................................................. 115 6.13.1 Capacità di registrazione a bordo .......................................................................................... 116 6.13.2 La piattaforma polare ............................................................................................................ 117 6.13.3 Gli strumenti del carico utile ................................................................................................. 117 6.13.4 Il sensore ASAR.................................................................................................................... 119 6.13.4.1 La struttura dello strumento ............................................................................................... 119 6.13.4.2 Prestazioni dello strumento: modalità operative della missione globale e regionale ........ 120 6.13.4.3 I dati ASAR ........................................................................................................................ 124 6.14 L’INTERFEROMETRIA SAR ........................................................................................................ 125 6.14.1 Stima dell’altezza topografica mediante l’uso del SAR ....................................................... 125 6.15 LA POLARIMETRIA SAR ............................................................................................................ 127 6.15.1 Principi di base della polarimetria SAR ................................................................................ 127 6.15.1.1 Introduzione alle onde elettromagnetiche e alle loro proprietà.......................................... 127 6.15.1.2 L’ellisse di polarizzazione ................................................................................................. 128 6.15.1.3 La polarizzazione nei sistemi radar .................................................................................... 130 6.15.1.3.1 Il modo HH ..................................................................................................................... 130 6.15.1.3.2 Il modo VV ..................................................................................................................... 131 6.15.1.3.3 Il modo HV ..................................................................................................................... 131 6.15.1.3.4 Il modo VH ..................................................................................................................... 132 6.15.1.4 Lo stato di polarizzazione .................................................................................................. 132 6.15.1.5 La diffusione polarimetrica ................................................................................................ 133 6.15.1.6 La matrice di diffusione (Scattering Matrix) ..................................................................... 134 6.15.1.6.1 Convenzione nelle coordinate ......................................................................................... 135 6.15.2 I dati polarimetrici espressi nel dominio della potenza......................................................... 135 6.15.2.1 Le matrici di covarianza e di coerenza............................................................................... 135 6.15.2.2 Le matrici di Stokes e di Mueller ....................................................................................... 137 6.15.2.3 Compressione dei dati e formati di archiviazione.............................................................. 137 6.15.3 La sintesi di polarizzazione ................................................................................................... 137 6.15.4 I parametri polarimetrici ....................................................................................................... 138 6.15.4.1 La potenza totale ................................................................................................................ 138 6.15.4.2 Il coefficiente di correlazione di co-polarizzazione ........................................................... 138 6.15.4.3 La differenza di fase di co-polarizzazione ......................................................................... 139 6.15.4.4 Il grado di polarizzazione................................................................................................... 139 6.15.4.5 Il coefficiente di variazione................................................................................................ 139 6.15.5 L’interpretazione delle immagini polarimetriche ................................................................. 140 6.15.5.1 La calibrazione dei dati ...................................................................................................... 140 6.15.5.2 L’interpretazione visuale.................................................................................................... 141 6.15.5.3 L’interpretazione basata sui modelli di diffusione ............................................................. 142 6.15.5.3.1 La decomposizione di Cloude ......................................................................................... 143 6.15.6 Gli algoritmi di classificazione ............................................................................................. 143 6.15.6.1 La classificazione non supervisionata basata sui parametri H/A/α ................................... 144 4 6.15.6.2 La classificazione supervisionata basata sul criterio a Massima Verosimiglianza di Bayes .......................................................................................................................................................... 147 6.15.6.3 Un algoritmo di classificazione combinato ........................................................................ 148 6.15.7 Le applicazioni della polarimetria SAR ................................................................................ 150 6.15.7.1 Applicazioni in agricoltura................................................................................................. 151 6.15.7.1.1 Introduzione .................................................................................................................... 151 6.15.7.1.2 La salvaguardia del suolo: la coltivazione del suolo e il residuo di vegetazione............ 151 6.15.7.1.3 La produttività delle colture/variazione all’interno di un campo .................................... 153 6.15.7.2 Applicazioni al ghiaccio marino ........................................................................................ 155 6.15.7.2.1 Introduzione .................................................................................................................... 155 6.15.7.2.2 Analisi polarimetriche per il ghiaccio marino................................................................. 156 6.15.7.2.3 Ambiguità tra ghiaccio e acqua ....................................................................................... 156 6.15.7.2.4 Strutture e tipi di ghiaccio ............................................................................................... 158 6.15.7.2.5 La classificazione del ghiaccio marino ........................................................................... 159 6.15.7.3 Applicazioni allo studio delle foreste................................................................................. 163 6.15.7.3.1 Dipendenza dalla frequenza ............................................................................................ 163 6.15.7.3.2 Dipendenza dalla polarizzazione .................................................................................... 164 6.15.7.3.3 I parametri polarimetrici ................................................................................................. 164 6.15.7.4 Idrologia ............................................................................................................................. 166 6.15.7.4.1 La mappatura dell’umidità del suolo .............................................................................. 166 6.15.7.4.2 La mappatura della neve ................................................................................................. 169 6.16 IL RADAR METEOROLOGICO ....................................................................................................... 170 6.16.1 Stima di precipitazione tramite il radar meteorologico ......................................................... 171 6.16.2 Previsione di precipitazione tramite radar meteorologico .................................................... 175 6.16.3 I Radar meteo Doppler .......................................................................................................... 176 6.16.3.1 L’effetto Doppler ............................................................................................................... 176 6.16.4 Alcuni radar meteorologici ................................................................................................... 177 6.16.4.1 Il radar meteo a Spino d’Adda (Cr) ................................................................................... 177 6.16.4.2 Radar di Gattatico (RE)...................................................................................................... 178 6.16.4.3 La rete radar britannica ...................................................................................................... 178 6.16.4.4 La rete radar svizzera ......................................................................................................... 179 PARTE SECONDA........................................................................................................................ 180 L’ELABORAZIONE DELLE IMMAGINI TELERILEVATE ................................................ 180 CAPITOLO 7 ................................................................................................................................. 181 LA CORREZIONE DELLE DISTORSIONI ............................................................................................. 181 7.1 INTRODUZIONE............................................................................................................................ 181 7.2 LE CORREZIONI GEOMETRICHE .................................................................................................... 181 7.2.1 La georeferenziazione ............................................................................................................. 181 7.2.2 La geocodifica ......................................................................................................................... 183 7.3 LE CORREZIONI RADIOMETRICHE ................................................................................................ 186 7.3.1 La calibrazione radiometrica ................................................................................................... 186 7.3.2 L’equalizzazione del sensore .................................................................................................. 186 7.3.3 Linee e pixel saltati ................................................................................................................. 187 7.3.4 La correzione atmosferica ....................................................................................................... 188 CAPITOLO 8 ................................................................................................................................. 191 5 MIGLIORAMENTO E VISUALIZZAZIONE DELLE IMMAGINI ............................................................. 191 8.1 INTRODUZIONE ............................................................................................................................ 191 8.2 LA PERCEZIONE DEL COLORE....................................................................................................... 192 8.2.1 Modello tri-stimolo ................................................................................................................. 192 8.2.1.1 Lo spazio dei colori .............................................................................................................. 193 8.2.1.2 RGB ..................................................................................................................................... 193 8.2.2 IHS .......................................................................................................................................... 194 8.3 LA VISUALIZZAZIONE DELLE IMMAGINI ....................................................................................... 195 8.3.1 L’istogramma .......................................................................................................................... 195 8.4 VISUALIZZAZIONE DI IMMAGINI MONOBANDA ............................................................................. 197 8.4.1 I colori compositi .................................................................................................................... 198 8.5 TECNICHE DI ENFATIZZAZIONE DELLE IMMAGINI......................................................................... 199 8.5.1 Lo stiramento (stretch) ............................................................................................................ 200 8.5.1.1 L’enfatizzazione del contrasto lineare ................................................................................. 202 8.5.1.2 L’enfatizzazione del contrasto logaritmica ed esponenziale................................................ 203 8.5.2 L’equalizzazione ..................................................................................................................... 203 8.5.3 Histogram Matching ............................................................................................................... 204 8.5.4 Operazioni coi filtri ................................................................................................................. 205 8.5.4.1 I filtri passa basso ................................................................................................................. 206 8.5.4.2 Il filtro passa alto.................................................................................................................. 206 8.5.4.3 Filtro direzionale .................................................................................................................. 206 8.5.5 Riduzione del rumore .............................................................................................................. 207 8.5.6 Miglioramento dei bordi ......................................................................................................... 207 8.6 LE TESSITURE .............................................................................................................................. 208 8.6.1 La matrice delle co-occorrenze ............................................................................................... 208 8.7 GLI OPERATORI MORFOLOGICI..................................................................................................... 214 8.7.1 Definizione di filtro morfologico ............................................................................................ 214 8.7.2 Definizioni binarie di base e operatori .................................................................................... 214 8.7.3 Dilatazione binaria .................................................................................................................. 215 8.7.4 Erosione binaria ...................................................................................................................... 215 8.7.5 Dilatazione ed erosione in scala di grigio ............................................................................... 215 8.7.6 Operazioni di apertura (opening) e chiusura (closing)............................................................ 216 8.8 IL MIGLIORAMENTO DELLA RISOLUZIONE E LA RILEVAZIONE DEI CAMBIAMENTI......................... 217 8.8.1 La trasformazione IHS ............................................................................................................ 217 8.8.2 La Trasformazione Spectral Merge......................................................................................... 219 8.8.3 Il “change detection” o rilevazione dei cambiamenti ............................................................. 219 CAPITOLO 9 ................................................................................................................................. 224 LA CLASSIFICAZIONE DELLE IMMAGINI DIGITALI .......................................................................... 224 9.1 INTRODUZIONE ............................................................................................................................ 224 9.2 PRINCIPI DELLA CLASSIFICAZIONE DI IMMAGINI .......................................................................... 224 9.2.1 Spazio delle immagini ............................................................................................................. 224 9.2.2 Caratteristiche dello spazio ..................................................................................................... 224 9.2.2.1 Distanze e gruppi nello spazio immagine ............................................................................ 225 9.2.3 Alcune definizioni ................................................................................................................... 226 9.2.4 La firma spettrale e la separabilità tra le classi ....................................................................... 226 9.3 VARIANZA E COVARIANZA .......................................................................................................... 227 9.4 BASI GEOMETRICHE DELLA CLASSIFICAZIONE ............................................................................. 227 9.5 CLASSIFICAZIONE DI IMMAGINI ................................................................................................... 228 9.6 IL PROCESSO DELLA CLASSIFICAZIONE DELLE IMMAGINI ............................................................. 229 6 9.7 PREPARAZIONE PER LA CLASSIFICAZIONE DELLE IMMAGINI ........................................................ 229 9.8 LA CLASSIFICAZIONE NON SUPERVISIONATA ............................................................................... 230 9.8.1 Il Classificatore K-means ........................................................................................................ 230 9.8.2 Il Fuzzy C-means .................................................................................................................... 231 9.8.3 Il Classificatore Isodata ........................................................................................................... 231 9.9 LA CLASSIFICAZIONE SUPERVISIONATA ....................................................................................... 231 9.9.1 Siti di addestramento (o campioni di addestramento) ............................................................. 232 9.10 GLI ALGORITMI DI CLASSIFICAZIONE SUPERVISIONATA ............................................................. 233 9.10.1 Il classificatore Parallelepipedo ............................................................................................ 233 9.10.2 Classificatore Minimum Distance to Mean (minima distanza dalla media) ......................... 233 9.10.3 Il classificatore Maximum Likelihood (massima verosimiglianza) ...................................... 234 9.10.4 Il Classificatore di Mahalanobis ........................................................................................... 235 9.10.5 Il classificatore Spectral Angle Mapper (SAM) ................................................................... 235 9.10.6 Il classificatore Binary Encoding .......................................................................................... 236 9.10.7 Valutazione dei risultati ........................................................................................................ 236 9.10.8 Problemi nella classificazione delle immagini...................................................................... 238 9.11 L’APPROCCIO NEURALE ............................................................................................................. 238 9.11.1 La rete Fuzzy Artmap ........................................................................................................... 239 9.11.2 Parametri ed operatori ........................................................................................................... 240 9.11.3 Formato dei pattern di ingresso e uscita................................................................................ 241 9.11.4 Algoritmo .............................................................................................................................. 242 9.12 APPLICAZIONI ALLA VEGETAZIONE ........................................................................................... 242 9.12.1 Operazioni tra bande ............................................................................................................. 242 9.12.2 Gli indici di vegetazione ....................................................................................................... 243 9.12.2.1 Gli indici intrinseci............................................................................................................. 243 9.12.2.2 Indici legati alla linea dei suoli .......................................................................................... 244 9.12.2.3 Indici corretti per effetti atmosferici .................................................................................. 245 9.13 I DATI IPERSPETTRALI ................................................................................................................ 245 9.14 IL SENSORE AVIRIS .................................................................................................................. 246 9.15 IL DAIS ...................................................................................................................................... 247 9.16 SENSORI IPERSPETTRALI DA SATELLITE ..................................................................................... 248 7 PARTE PRIMA GLI STRUMENTI DEL TELERILEVAMENTO 8 CAPITOLO 1 INTRODUZIONE AL TELERILEVAMENTO 1.1 Definizioni di telerilevamento Tre sono le più comuni definizioni che vengono date per il telerilevamento: - Il telerilevamento è la scienza di acquisire, elaborare e interpretare immagini che registrano l’interazione tra l’energia elettromagnetica e la materia; - Il telerilevamento è la scienza o l’arte di ottenere informazioni circa un oggetto, un’area, o un fenomeno attraverso l’analisi di dati acquisiti per mezzo di un dispositivo che non è in contatto con l’oggetto, l’area o il fenomeno sotto esame. - Il telerilevamento è l’insieme della strumentazione, delle tecniche e dei metodi per osservare la superficie terrestre a distanza e per interpretare le immagini o i valori numerici ottenuti in modo da acquisire informazioni significative di oggetti particolari sulla Terra. Comune alle tre definizioni è il fatto che i dati riguardanti le caratteristiche della superficie terrestre sono acquisiti con un dispositivo che non è in contatto con gli oggetti che si misurano. Il risultato è solitamente immagazzinato sotto forma di immagini. Le caratteristiche misurate dai sensori sono l’energia elettromagnetica emessa e riflessa dalla superficie terrestre. Questa energia riguarda alcune parti specifiche dello spettro elettromagnetico: di solito la luce visibile, ma anche l’infrarosso o le onde radio. L’energia elettromagnetica generata da una opportuna sorgente (o dall’oggetto stesso) interagisce con l’oggetto osservato (fenomeni di riflessione, diffusione, assorbimento ecc) e di conseguenza si modifica. Tale radiazione si propaga e viene misurata e registrata da un sensore remoto. Analizzando e interpretando tali misure di campo elettromagnetico è possibile risalire alle proprietà di interesse dell’oggetto. Per particolari applicazioni geofisiche vengono usati altri tipi di campo, quali quello gravitazionale e magnetico della Terra e il campo di pressione (onde acustiche); basti pensare al sonar o semplicemente all’eco scandaglio per il sondaggio del fondale marino da imbarcazioni. L’oggetto osservato può essere di varia natura; noi ci riferiremo a quei casi in cui esso è costituito dal nostro pianeta, la Terra, nelle sue diverse componenti (atmosfera, terre emerse, biosfera, oceani, ghiacci) che interagiscono tra loro attraverso processi chimico-fisici fondamentali per la conservazione della vita sul pianeta. 1.2 Metodi di rilevazione diretta e di Telerilevamento In linea di principio, si può dire che esistano due categorie principali di acquisizione di dati spaziali: - Metodi di rilevazione diretta, come il fare osservazioni di campo, effettuando misurazioni in situ e rilevamenti topografici. Quando si usano questi metodi, si dice che si opera nell’ambiente del mondo reale. 9 - Metodi del telerilevamento, che sono basati sull’uso di immagini acquisite da sensori come camere aeree, scanner o radar. Utilizzare un approccio di questo tipo significa che l’informazione viene estratta dai dati rappresentati sotto forma di immagini, che costituiscono una rappresentazione limitata del mondo reale. Il telerilevamento, nell’accezione indicata nel precedente paragrafo, è pertanto una delle tecnologie in grado di acquisire informazioni sull’ambiente terrestre. Si può trattare di misure di specifiche grandezze geofisiche (ad esempio la temperatura del mare), di rappresentazioni e rilevamenti del territorio (ad esempio le carte topografiche e tematiche, i modelli digitali di elevazione del terreno), di informazioni di natura statistica e inventari (ad esempio la stima del raccolto del grano in una determinata area geografica) e di informazioni di tipo ancora diverso. Queste informazioni hanno rilevanza di per sé oppure in quanto forniscono i dati di ingresso a modelli ambientali, ad esempio per la previsione meteorologica, delle variazioni climatiche o per la valutazione di un determinato rischio ambientale. E’ noto come molte di queste informazioni possano essere raccolte anche con altre tecniche, dette tecniche convenzionali. Ad esempio la temperatura del mare o dell’aria viene misurata da stazioni meteo-marine, la cartografia si realizza con tecniche fotogrammetriche e con l’ausilio di rilievi topografici, mentre gli inventari agricoli si realizzano anche con rilevamenti campionari sul territorio. Il telerilevamento deve perciò essere inteso come una tecnica complementare a quelle già esistenti e che in certi casi risulta particolarmente vantaggiosa sia dal punto di vista della qualità dell’informazione che dal punto di vista economico. Le informazioni ottenute per mezzo del telerilevamento sono sempre associate alla loro localizzazione geografica e spesso sono anche rappresentate in forma cartografica. Con lo sviluppo delle tecnologie di misura geofisica e di rilievo esse stanno diventando sempre più dettagliate e voluminose in termini di mole di dati. Inoltre la “domanda” di esse da parte di diversi soggetti (pubblici e privati) è in continuo aumento e devono pertanto essere gestite, aggiornate e rese fruibili anche in postazioni remote. I sistemi dedicati a questo sono i cosiddetti “Sistemi Informativi Territoriali” o SIT (in inglese GIS: Geographycal Information System) che utilizzano i dati di Osservazione della Terra ripresi da sensori di telerilevamento come una delle possibili sorgenti di informazione. Va sottolineato quindi come la geofisica, la fotogrammetria, la topografia, la cartografia, i GIS e il telerilevamento costituiscano un insieme di discipline e tecnologie che concorrono a rilevare e gestire le informazioni e a studiare i processi ambientali. 1.2.1 I vantaggi del telerilevamento I maggiori vantaggi del telerilevamento rispetto alle misure convenzionali sono associabili a queste sue peculiarità: - Distanza del sensore dall’oggetto che permette di osservare territori remoti e di difficile accesso. - Possibilità di osservare grandi porzioni di superficie terrestre in tempi brevi con sensori montati su aereo e su satellite (vista sinottica). - Possibilità di misure frequenti nel tempo con i sensori satellitari, e di misure praticamente continue con sensori posti a terra. - Nessuna perturbazione (o perturbazione del tutto trascurabile) dell’oggetto osservato. 10 - Possibilità di effettuare misure di grandezze in due dimensioni (immagini, come ad esempio mappe della temperatura del mare) e talvolta anche nella terza dimensione (sondaggi verticali, come nel caso dei profili verticali della temperatura nell’atmosfera). 1.2.2 Gli svantaggi del telerilevamento - Una grande accuratezza dei dati è ottenibile solo dopo una campagna di validazione sul terreno - I dati analizzati si riferiscono quasi sempre alle superfici degli oggetti studiati (roccia, suolo, alterazione, ecc..), solo in pochi casi si riesce ad avere informazioni sull’interno (ad esempio, osservazione del pack artico con radar polarimetrico). - Le condizioni di acquisizione influenzano la qualità del dato (illuminazione, rilievo, pendenza e giacitura superfici, condizioni meteo, ombre). 1.3 L’Osservazione della Terra mediante tecniche di telerilevamento Come noto, la Terra è composta da un certo numero di sistemi (atmosfera, idrosfera, criosfera, biosfera) che interagiscono tra loro attraverso processi fondamentali (come il ciclo idrologico dell’acqua, i processi biochimici nell’atmosfera). Il telerilevamento dallo spazio è in grado di misurare diversi parametri chimico-fisici in maniera sinottica offrendo uno strumento unico per studiare lo stato del pianeta nella sua interezza ed analizzare e prevedere i cambiamenti climatici. Questa concezione del telerilevamento da satellite è ormai universalmente identificata con il termine Osservazione della Terra, (generalmente indicato con la sigla EO, che deriva dalla sua denominazione anglosassone Earth Observation) con il quale le grandi Agenzie descrivono tutte le missioni spaziali dedicate appunto al rilevamento del pianeta Terra. L’obiettivo è pertanto quello di misurare tutte le grandezze in grado di controllare l’evoluzione dei processi suddetti attraverso un insieme di piattaforme spaziali recanti a bordo sensori opportuni. I sistemi di Osservazione della Terra dallo spazio, specialmente con lo sviluppo delle tecnologie dei sensori e il miglioramento delle capacità di osservare dettagli a terra, hanno acquistato anche un ruolo nelle applicazioni su media e grande scala, come supporto alla gestione del territorio ed al controllo di fenomeni su scala locale. L’identificazione dei parametri e delle grandezze geofisiche da misurare, la definizione delle caratteristiche spaziali e temporali del campionamento di tali grandezze e l’identificazione, progettazione e realizzazione delle tecnologie di telerilevamento in grado di soddisfare tali requisiti sono i passi fondamentali nella realizzazione di un sistema di Osservazione della Terra. 11 CAPITOLO 2 L’ENERGIA ELETTROMAGNETICA E IL TELERILEVAMENTO 2.1 Introduzione Il telerilevamento dipende da misurazioni dell’energia elettromagnetica (EM), la quale può assumere forme diverse. La sorgente di energia elettromagnetica più importante per la superficie terrestre è il Sole, che ci fornisce, ad esempio, la luce (visibile), il calore (sotto forma, principalmente, di radiazione infrarossa) e la luce ultravioletta (UV), invisibile, che può essere dannosa per la nostra pelle. Fig. 2.1 – Un sensore per telerilevamento misura l’energia riflessa o emessa; un sensore attivo ha la sua propria sorgente di energia Molti dei sensori usati in applicazioni di telerilevamento misurano la luce del sole riflessa. Alcuni sensori invece rilevano l’energia emessa dalla Terra stessa (es. i radiometri) o emettono essi stessi l’energia che interagirà con l’oggetto osservato (es. il radar). Infatti, la sorgente della radiazione E.M. può essere lo stesso oggetto osservato che, trovandosi ad una temperatura superiore allo zero assoluto (0° Kelvin) emette spontaneamente energia, o sorgenti diverse dall’oggetto osservato, di solito il Sole; lo stesso strumento può poi essere dotato di una sorgente propria di radiazione ed in tal caso si parla di strumenti attivi. Nel primo caso (emissione termica) evidentemente il sensore (di tipo passivo) rileva le proprietà emissive dell'oggetto. Nel secondo caso (radiazione proveniente dal Sole) il sensore (ancora di tipo passivo) misura le capacità dell'oggetto di rispondere ad una eccitazione esterna reirradiando energia E.M., ovvero caratterizza le proprietà di diffusione (e riflessione) da parte dell'oggetto. La stessa considerazione vale nel terzo caso ovvero quello di sensore attivo. Ovviamente talvolta il sensore può ricevere allo stesso tempo radiazione emessa e riflessa da parte dell'oggetto; inoltre tutto ciò che è interposto tra oggetto e sensore (e quindi l'atmosfera) può contribuire con ulteriore emissione e diffusione sia verso il sensore che verso l'oggetto, oltre che con assorbimento della radiazione, rendendo estremamente difficile l'interpretazione del dato rilevato. Indichiamo con Es l'energia prodotta dalla sorgente, Ea quella prodotta dall'atmosfera verso il basso, Ea' quella prodotta dall'atmosfera verso l'alto, Ee quella prodotta dalla superficie terrestre; inoltre t rappresenti la frazione di energia che attraversa l'atmosfera, r quella che viene riflessa dalla 12 superficie ed Et l'energia che raggiunge il sensore. Potremo scrivere, per schematizzare quanto detto sia pure in maniera molto semplificata: E t = t (rE i + E e ) + E a' (2.1) ove Ei = tE s + E a è l'energia che incide sull'oggetto. Si veda in Fig. 2.2 uno schema del processo che permette l'acquisizione di informazioni sull'ambiente mediante il telerilevamento. I passi di correzione strumentale e calibrazione radiometrica permettono di ricavare le proprietà dell’oggetto osservato (ad esempio per osservazioni della superficie la componente Ee ) a partire dalle uscite del sensore, depurando queste ultime dell’influenza dei fattori di disturbo elencati sopra; essi richiedono modelli fisico-quantitativi dei processi di acquisizione (sensore, piattaforma) e di effetti ambientali (generazione della radiazione E.M., interazione con la superficie e l'atmosfera). Esistono poi diversi approcci all'interpretazione dei dati telerilevati, alcuni dei quali di tipo fisicoquantitativo tendenti all'estrazione di valori di parametri geofisici, altri di tipo statistico o di interpretazione visiva delle immagini basata sull'esperienza. In entrambi i casi tuttavia è necessaria una base di conoscenza delle proprietà della radiazione E.M., della maniera con cui essa viene generata e dei processi di interazione con gli oggetti osservati e con il mezzo di propagazione. Fig. 2.2 – Le tappe del processo di telerilevamento 2.2 L’energia elettromagnetica Com’è noto, la radiazione elettromagnetica consiste di un campo magnetico e di un campo elettrico che oscillano in maniera coordinata; il numero di oscillazioni in un secondo prende il nome di frequenza. La radiazione elettromagnetica può avere frequenze diverse, che vanno dalle più piccole (al limite zero quando siamo di fronte ad un campo statico, ad esempio quello prodotto da cariche elettriche ferme), alle più elevate. Radiazioni E.M. di frequenze diverse generano diversi fenomeni di interazione con i mezzi in cui si propagano e di scambio di energia e sono utilizzate per diverse applicazioni. Le frequenze più basse, ad esempio, sono usate nell'ambito delle comunicazioni via radio, mentre le più alte sono i raggi cosmici ed i raggi gamma. L'utilizzo di una determinata banda dello spettro elettromagnetico per il telerilevamento è legato a quattro condizioni fondamentali: - l'esistenza della sorgente della radiazione (eventualmente artificiale); 13 - l'esistenza di tecnologie per la ricezione della radiazione; - la trasparenza dell'atmosfera (nel caso di osservazione della superficie terrestre); - l'allocazione nelle bande ammesse compatibilmente con altre applicazioni quali le telecomunicazioni, i sistemi militari, ecc. 2.2.1 Alcune definizioni L’energia è la capacità di compiere lavoro e si misura in Joule (J). L’energia radiante invece è l’energia associata ad un’onda elettromagnetica. Si definisce poi flusso di energia radiante l’energia trasportata da un’onda elettromagnetica nell’unità di tempo. Non è altro che la potenza associata all’onda elettromagnetica, quindi si misura in Watt (W). Quando l’emissione di energia elettromagnetica non è omogenea sulla superficie conviene definire la densità di flusso radiante, ossia il flusso radiante emesso od assorbito per unità di superficie. Essendo una densità di potenza, si misura in W/m2. Nota: Quando il flusso radiante è incidente, si usa denominare la densità di flusso radiante con il termine irradianza, mentre quando il flusso è uscente si usa il termine emittanza. Nonostante la diversa nomenclatura, dal punto di vista fisico l’irradianza e l’emittanza sono grandezze equivalenti. La radianza è definita come la densità di flusso radiante emessa da una unità di superficie vista attraverso un angolo solido unitario. La riflettanza è il rapporto dimensionale tra l’irradianza (o densità di flusso radiante incidente) e l’emittanza (o densità di flusso radiante uscente). Va detto che gli strumenti del telerilevamento misurano la radianza incidente, mentre l’elaborazione successiva è volta a ricavarne la riflettanza, obiettivo spesso non facilmente raggiungibile. 2.2.2 Onde e fotoni L’energia elettromagnetica può essere rappresentata in due modi: come onde o come energia portata da delle particelle chiamate fotoni. Nel modello delle onde, si considera che l’energia elettromagnetica si propaghi attraverso lo spazio sotto forma di onde sinusoidali. Tali onde sono caratterizzate da due campi, quello elettrico (E) e quello magnetico (M), perpendicolari l’uno all’altro. È per questo motivo che si utilizza il termine energia elettromagnetica. La vibrazione di entrambi i campi è perpendicolare alla direzione di moto dell’onda. Entrambi i campi si propagano attraverso lo spazio alla velocità della luce c, che è pari a 299,790 m s-1 e può essere arrotondata a 3 ⋅ 108 m s-1. Fig. 2.3 – I vettori di campo elettrico (E) e magnetico (M) di un’onda elettromagnetica 14 La caratteristica più importante delle onde elettromagnetiche ai fini del telerilevamento è la lunghezza d’onda λ, definita come la distanza tra due picchi successivi dell’onda. La lunghezza d’onda si misura in metri (m), o in sottomultipli del metro, come i nanometri (nm, 10-9 metri) o i micrometri (µm, 10-6 metri). La frequenza, ν, è il numero di onde complete che passano per un punto nell’unità di tempo. La frequenza è di solito misurata in hertz (Hz), che è equivalente ad un ciclo al secondo. Il periodo (T) è il tempo necessario affinchè un’onda completa passi per un punto. Dato che la velocità della luce nel vuoto è costante, la lunghezza d’onda e la frequenza nel vuoto sono inversamente proporzionali: c = λ ⋅v (2.2) In questa equazione, c è la velocità della luce, λ è la lunghezza d’onda (m), e v è la frequenza (cicli al secondo, Hz). Più piccola è la lunghezza d’onda, più alta è la frequenza. Viceversa, maggiore è la lunghezza d’onda, più bassa è la frequenza. Una proprietà importante delle onde elettromagnetiche è la polarizzazione, che rappresenta la direzione lungo la quale oscilla il campo elettrico durante la propagazione dell’onda. La polarizzazione viene trattata nel dettaglio nel § 6.19. Fig. 2.4 – Relazioni tra lunghezza d’onda, frequenza ed energia Molte caratteristiche dell’energia elettromagnetica possono essere descritte usando il modello delle onde, come visto sopra. Per alcuni scopi, invece, l’energia elettromagnetica è modellata più convenientemente con la teoria delle particelle, nella quale l’energia elettromagnetica è composta da unità discrete chiamate fotoni. La quantità di energia portata da un fotone di una specifica lunghezza d’onda è data da: c Q = h⋅v = h⋅ (2.3) λ dove Q è l’energia di un fotone (J), h è la costante di Planck (6,6262 ⋅ 10-34 J s) e v la frequenza (Hz). Dall’equazione scritta sopra, si vede che a lunghezze d’onda maggiori corrisponde un minore contenuto energetico del fotone. I raggi Gamma (intorno a 10-9 m) sono i più energetici, mentre le radio onde (> 1 m) le meno energetiche. Una conseguenza importante per il telerilevamento è che per alcune tecnologie, come ad esempio sensori a CCD, è molto più difficile misurare le onde elettromagnetiche lunghe piuttosto che quelle corte perché il singolo fotone a lunghezza d’onda minore non ha energia sufficiente per attivare il sensore. 2.3 Sorgenti di energia EM Le molecole di tutti i corpi con temperatura sopra lo zero assoluto (0° K o gradi Kelvin) sono in movimento attorno alla loro posizione media; l’entità di tale movimento, che è detto agitazione termica, determina la temperatura del corpo. Un effetto secondario dell’agitazione termica è l’emissione di radiazioni che coprono porzioni di spettro variabili a seconda della temperatura. La potenza totale emessa per unità di superficie viene detta eccitanza, quando è riferita a tutto lo spettro, eccitanza spettrale quando è relativa ad una specifica lunghezza d’onda. L’eccitanza spettrale teorica è determinata dalla così detta legge di Planck: 15 aλ−5 Mλ = e (b λT ) (2.4) −1 Mλ = eccitanza spettrale [W m-2 µm-1] a = 3,742 × 10-16 W m-2 b = 1,4338 × 10-2 m K λ = lunghezza d’onda (m) T = temperatura in °K Integrando sullo spettro l’eccitanza spettrale si ottiene l’eccitanza. La legge di Planck è valida per il così detto corpo nero, ovverosia un corpo ideale in grado di assorbire tutta l’energia elettromagnetica incidente. Per i corpi reali la legge di Planck non è rigorosamente valida, tuttavia nella maggior parte dei casi è ancora una buona approssimazione, e rappresenta sempre il punto di partenza dal quale si può derivare il comportamento dell’oggetto studiato. Fig. 2.5 – Curve di radiazione di un corpo nero basate sulla legge di Planck L’emissività è il rapporto tra il flusso radiante di un oggetto e quello di un corpo nero alla stessa temperatura, ossia è una misura di quanta radiazione è emessa da un corpo confrontata con quella che emetterebbe un corpo nero alla stessa temperatura. La quantità di energia irradiata da un oggetto dipende dalla sua temperatura assoluta e dalla sua emissività, ed è una funzione della lunghezza d’onda. Tipicamente le superfici degli oggetti presentano un valore di emissività compreso approssimativamente fra 0,1 e 0,95. All’aumentare della temperatura aumenta l’intervallo delle radiazioni elettromagnetiche emesse e la quantità totale di energia mentre diminuisce la lunghezza d’onda relativa al picco di massima eccitanza. L’eccitanza totale è descritta dall’equazione di Stefan-Boltzmann, ottenuta integrando su tutto lo spettro l’equazione di Planck: M = σT 4 (2.5) σ = costante di Stefan-Boltzmann (5,67 × 10-8 W m-2K-4) T = temperatura in °K La Fig. 2.5 mostra la radiazione emessa da un corpo nero a temperature diverse. Sull’asse orizzontale sono riportate le lunghezze d’onda, mentre sull’asse verticale la quantità di energia per unità di area. L’area sotto la curva, quindi, rappresenta la quantità totale di energia emessa ad una specifica temperatura. Si può vedere che una temperatura più alta corrisponde ad un contributo più 16 elevato delle lunghezze d’onda più corte, ed a un picco più elevato; il massimo di eccitanza a 400°C è circa 4µm, mentre quello a 1000°C è 2,5µm. Anche il sole e la terra, in quanto corpi a temperature superiori allo zero assoluto, emettono radiazione elettromagnetica, con picchi rispettivamente a 0,5 µm (coincidente con il picco di sensibilità dell’occhio umano!) ed a 14 µm. 2.4 Lo spettro elettromagnetico Tutto l’intervallo possibile di lunghezze d’onda, da zero ad infinito, è chiamato generalmente spettro elettromagnetico. Fig. 2.6 – Lo spettro elettromagnetico La parte ottica dello spettro EM è la parte di spettro in cui possono essere applicate le leggi dell’ottica. Tali leggi riguardano fenomeni, come la riflettanza e la rifrazione, che possono essere usati per mettere a fuoco la radiazione. L’intervallo ottico si estende dai raggi X (0,02 µm) attraverso la parte del visibile fino al lontano infrarosso (1000 µm) incluso. La parte di spettro EM dell’UV (ultravioletto) ha le lunghezze d’onda più corte ancora utilizzate per il telerilevamento. L’intervallo delle microonde copre le lunghezze d’onda che vanno da 1 mm a 1 m. La regione visibile dello spettro è comunemente chiamata “luce” e occupa una porzione relativamente piccola dello spettro EM. È importante notare come questa sia l’unica parte dello spettro a cui sia possibile associare il concetto di colore. Le lunghezze d’onda più lunghe utilizzate per il telerilevamento sono quelle nelle regioni dell’infrarosso termico e delle microonde. L’infrarosso termico dà informazioni relative alla temperatura della superficie che può essere messa in relazione con la composizione dei minerali delle rocce o con la condizione della vegetazione. Le microonde invece possono dare informazioni circa la rugosità delle superfici e le proprietà di queste ultime come per esempio il contenuto di acqua. Ricapitolando, si può dire che il telerilevamento si occupa prevalentemente delle bande delle microonde, dell’infrarosso (vicino e termico), del visibile e, più raramente, dell’ultravioletto, oltre il quale non si va praticamente mai. 17 Ultravioletto: Lunghezze d’onda da 0,4 µm a scendere, fino circa a 1 nm, dove si ha la transizione verso i raggi X. Le frequenze vanno, in modo corrispondente, da 1015 a 1017 Hz. I raggi ultravioletti hanno una propagazione simile a quella della luce, ma subiscono una forte attenuazione atmosferica; sono prevalentemente usati per la spettrometria. Visibile: Lunghezze d’onda tra 0,75 µm (rosso) e 0,4 µm (violetto), frequenze tra 4 × 1014 e 7 × 1014 Hz. La propagazione è di tipo ottico; l’attenuazione in atmosfera è più forte alle lunghezze d’onda più corte ma di solito accettabile, mentre il rumore cresce con la frequenza. Infrarosso: si distingue in: − IR VICINO (0,7 – 3 µm, o 4 × 1014 – 1 × 1014 Hz) o RIFLESSO: propagazione di tipo ottico, prevalentemente emesso da sorgente esterna e riflesso dal corpo osservato; − IR TERMICO (3 – 100 µm, o 1 × 1014 – 3 × 1012 Hz) o EMESSO, prevalentemente emesso per irraggiamento spontaneo del corpo osservato. L’infrarosso vicino (NIR) si comporta come la radiazione visibile, viene riflesso dalla superficie terrestre e può essere rilevato da speciali pellicole fotografiche. L’infrarosso medio o termico viene emesso in quantità significativa anche dalla superficie terrestre e per questo viene anche detto infrarosso emesso. Gli impieghi più diffusi sono di classificazione per l’IR vicino, di studio dell’ambiente e meteorologici per l’IR termico. Microonde: lunghezza d’onda da 1mm a 1 m, frequenze da 3 × 1011 a 3 × 108 Hz. La loro propagazione si studia con i metodi di studio dei campi elettromagnetici; sono ampiamente utilizzate per il telerilevamento, sia attivo (SAR, InSAR,..) sia passivo (radiometri). 2.5 Interazione dell’energia nell’atmosfera La sorgente più importante di energia è il Sole. Prima che l’energia del Sole raggiunga la superficie terrestre, possono aversi tre tipi di interazione con l’atmosfera: l’assorbimento, la trasmissione e la diffusione o scattering. L’energia trasmessa viene quindi riflessa o assorbita dal materiale della superficie. Fig. 2.7 – Interazioni dell’energia nell’atmosfera e sul terreno. 18 2.5.1 Assorbimento e trasmissione L’energia elettromagnetica, viaggiando attraverso l’atmosfera, viene parzialmente assorbita da varie molecole: le molecole presenti nell’atmosfera che assorbono la radiazione solare in modo più efficiente sono l’ozono (O3), il vapore acqueo (H2O) e il biossido di carbonio (CO2). In Fig. 2.8 si dà una rappresentazione schematica della trasmissione atmosferica nella regione che copre le lunghezze d’onda comprese nell’intervallo tra 0 e 22 µm. Fig. 2.8 – Trasmissione atmosferica espressa in percentuale Come si può osservare da questa figura circa metà dello spettro considerato non viene utilizzato per gli scopi del telerilevamento della superficie terrestre, semplicemente perché nessuna delle corrispondenti energie può penetrare l’atmosfera. Solo le regioni di lunghezze d’onda fuori dalle bande principali di assorbimento dei gas atmosferici possono essere usate per il telerilevamento. Queste regioni vengono chiamate finestre di trasmissione atmosferica5 e includono: − Una finestra nel visibile e nella regione dell’infrarosso riflesso, tra 0,4 – 2 µm. Questa è la finestra in cui i sensori ottici operano come l’occhio umano. − Tre finestre nella regione dell’infrarosso termico, precisamente due finestre vicine intorno ai 3 e 5 µm, e una terza, relativamente lontana, finestra che si estende approssimativamente dagli 8 ai 14 µm. A causa della presenza dell’umidità atmosferica, le bande di forte assorbimento si trovano a lunghezze d’onda grandi. Nella regione tra i 22 µm e 1 mm c’è a malapena trasmissione di energia. La regione più o meno trasparente oltre 1 mm è la regione delle microonde. 2.5.2 Diffusione atmosferica La diffusione atmosferica ha luogo quando le particelle o le molecole gassose presenti nell’atmosfera fanno sì che le onde EM vengano indirizzate su un percorso diverso dall’originale. La quantità di diffusione dipende da numerosi fattori, come la lunghezza d’onda della radiazione, la quantità di particelle e di gas, e la distanza che la radiazione percorre attraverso l’atmosfera. La causa primaria della diffusione è la differenza di indice di rifrazione tra il diffusore e il suo intorno. Per le lunghezze d’onda del visibile, il 100% (nel caso di copertura delle nuvole) e il 5% (in caso di atmosfera libera) dell’energia ricevuta dal sensore è stato diffuso dall’atmosfera. Le principali particelle che contribuiscono alla diffusione atmosferica sono: - Molecole di gas (0,01 µm); - Aerosoli (0,1 – 1 µm); - Particelle d’acqua nelle nubi (1 – 10 µm); - Cristalli di ghiaccio sospeso (1 – 100 µm); - Grandine (fino a 10 cm). 5 L’atmosfera è sufficientemente trasparente solo in certe porzioni dello spettro, in dipendenza anche delle sue proprietà (zona climatica, condizioni di nuvolosità e/o pioggia, ecc.). Nelle bande dello spettro in cui l’atmosfera è opaca è possibile però telerilevare le proprietà dell’atmosfera stessa. 19 È fondamentale il rapporto tra la dimensione delle particelle che causano la diffusione e la lunghezza d’onda della radiazione in transito. Dopo aver definito il parametro α = 2π r λ (2.7) è possibile suddividere i fenomeni di diffusione in: - α < 0,001 diffusione trascurabile; - 0,001 < α < 0,1 diffusione di Rayleigh; - 0,1 < α < 50 diffusione di Mie; - α > 50 si usa l’ottica geometrica. Il tipo di diffusione dipende da: − Il tipo dei diffusori (in funzione della radiazione) − Il numero di eventi di diffusione (se la radiazione viene diffusa una volta o molte volte) − La composizione dei diffusori: La diffusione in un solido trasparente per mezzo di oscillazioni (fononi) si chiama “diffusione di Brillouin” La diffusione in cui la lunghezza d’onda non cambia si chiama “diffusione di Rayleigh” Possono verificarsi tre tipi di diffusione: la diffusione di Rayleigh, quella di Mie e quella non selettiva. 2.5.3 Diffusione di Rayleigh Questo tipo di diffusione predomina sugli altri quando la radiazione EM interagisce con particelle che sono più piccole della lunghezza d’onda della luce in ingresso. L’effetto della diffusione di Rayleigh è inversamente proporzionale alla quarta potenza della lunghezza d’onda: le lunghezze d’onda più corte vengono diffuse di più di quelle più lunghe. Fig. 2.9 – La diffusione di Rayleigh è causata da particelle più piccole della lunghezza d’onda ed è massima per lunghezze d’onda piccole. In assenza di particelle e quindi di diffusione il cielo apparirebbe nero. Durante il giorno, i raggi del Sole attraversano l’atmosfera e la diffusione di Rayleigh fa sì che da tutte le direzioni una certa quantità di luce blu-azzurra raggiunga l’osservatore. Il colore della luce diffusa è dovuto al fatto che le lunghezze d’onda vicine al violetto (con lunghezze d’onda minori) sono diffuse più fortemente delle altre. Al sorgere del Sole e al tramonto, invece, i raggi del Sole percorrono una distanza notevolmente maggiore attraverso l’atmosfera, prima di raggiungere la superficie terrestre. Tutte le lunghezze d’onda più corte vengono diffuse dopo una certa distanza e solo le più lunghe raggiungono la superficie terrestre. Come risultato di ciò, il cielo appare arancione o rosso. Fig. 2.10 – La diffusione di Rayleigh fa si che noi percepiamo una luce blu diffusa di giorno ed un sole rosso al tramonto 20 Nell’ambito del telerilevamento, la diffusione di Rayleigh è quella più importante; essa causa una distorsione delle caratteristiche spettrali della luce riflessa quando la si confronta con le misurazioni fatte al suolo: per effetto della diffusione di Rayleigh, le lunghezze d’onda più corte sono sovrastimate. In generale, la diffusione di Rayleigh diminuisce il contrasto nelle foto, e questo ha un effetto negativo sulle possibilità di interpretazione. Quando si ha a che fare con dati rappresentati da immagini digitali, la distorsione delle caratteristiche spettrali della superficie può limitare le possibilità di classificare tali immagini. 2.5.4 Diffusione di Mie Si ha diffusione di Mie quando la dimensione prevalente delle particelle è comparabile con la lunghezza d’onda della radiazione elettromagnetica. Nell’atmosfera, le fonti più importanti di diffusione di Mie sono i cosi detti aerosol: un miscuglio di gas, vapor acqueo, polveri. Questo tipo di diffusione è prevalente nella bassa atmosfera, dove la polvere è più abbondante; domina in presenza di nuvole coprenti e influenza tutto lo spettro compreso tra l’ultravioletto e il vicino infrarosso. È un tipo di diffusione fortemente anisotropo con lobo principale nella direzione di transito e con scarsa dipendenza dalla lunghezza d’onda della radiazione. Inoltre è il tipo di diffusione che si verifica nelle nubi e le fa apparire bianche. È anche la causa dell’alone bianco che a volte sembra circondare il sole. Fig. - 2.11 – Effetti diretti e indiretti delle nuvole nel telerilevamento ottico. Fig. - 2.12 – Schema riassuntivo dei vari tipi di diffusione possibili 21 2.6 Interazioni dell’energia EM con la superficie terrestre Nelle applicazioni del telerilevamento che riguardano il terreno e l’acqua ciò che ci interessa particolarmente è la radiazione riflessa perché essa ci fornisce utili informazioni riguardo le caratteristiche della superficie che stiamo esaminando. La riflessione avviene quando la radiazione rimbalza sul bersaglio e viene reirradiata; di conseguenza è un fenomeno molto importante, in quanto è qui che avviene fisicamente la raccolta di informazioni sull’oggetto stesso. L’assorbimento invece avviene quando la radiazione viene assorbita dal bersaglio. Un materiale è un riflettore perfetto se è perfettamente liscio (alla lunghezza d’onda dell’onda incidente), mentre è un diffusore anisotropo se l’intensità luminosa diffusa non dipende dall’angolo di osservazione. Il tipico (teorico) diffusore anisotropo ha una “superficie Lambertiana” dalla quale cioè l’intensità luminosa diffusa varia con la legge Lambertiana. Una sorgente si dice Lambertiana se presenta un’intensità direttamente proporzionale al coseno dell’angolo dal quale è vista; ciò significa che la radianza è indipendente dall’angolo di vista. Fig. - 2.13 – Definizione di sorgente lambertiana in termini di intensità in funzione dell’angolo di vista Indicando con: L la radianza (Watt ⋅ m-2 ⋅ sr-1); Φ il flusso radiante (Watt); ϑ l’angolo formato dalla normale alla superficie e dalla direzione della radianza L (rad); A l’area (metri quadri); r ω l’angolo solido (sr) la radianza L è definita come: 1 d 2Φ L = ⋅ r cos ϑ dAdω (2.8) Ai due opposti tipi di materiale definiti sopra corrispondono due opposti tipi di riflessione, che rappresentano i due estremi del modo in cui l’energia è riflessa da un bersaglio, ossia la riflessione speculare e quella diffusa. Nel mondo reale, di solito ciò che si osserva è una combinazione di questi due tipi di riflessione. - La riflessione speculare, o riflessione a specchio, avviene quando la superficie è liscia (cioè le sue irregolarità sono piccole rispetto alla lunghezza d’onda) e tutta (o quasi tutta) l’energia viene rimbalzata via dalla superficie in una singola direzione (angolo di riflessione pari all’angolo di incidenza, caso (a)). La riflessione speculare può essere causata, ad esempio, da uno specchio d’acqua o dal tetto di una serra. Ciò dà luogo ad un punto molto luminoso (detto anche ‘punto caldo’, in inglese hotspot) nell’immagine. Si definisce pertanto un coefficiente di riflessione speculare come rapporto delle ampiezze del campo elettrico della radiazione riflessa ed incidente. Questi coefficienti (coefficienti di Fresnel) 22 possono essere espressi in funzione dell'angolo di incidenza, delle proprietà dei due materiali e della polarizzazione. Nel caso di polarizzazione verticale (che si ha quando il vettore campo elettrico si trova nel piano dell’incidenza, ossia nel piano individuato dal raggio incidente e dalla normale alla superficie) esiste un angolo di incidenza che rende nullo il coefficiente di Fresnel nel caso di mezzo non dissipativo o che comunque determina un suo minimo se il mezzo sottostante è dissipativo; pertanto, per onde qualunque incidenti con tale angolo la radiazione riflessa contiene soltanto la componente polarizzata orizzontalmente, essendo la componente con polarizzazione verticale integralmente trasmessa; ciò giustifica in molti casi il comportamento di diverse coperture al variare della polarizzazione. L'onda trasmessa si propaga nel mezzo sottostante la superficie; se questo è dissipativo, ovvero la costante di propagazione ha una parte reale, tale onda viene attenuata e si definisce pertanto una dimensione (profondità di penetrazione) oltre la quale la radiazione viene ridotta di un fattore 1/e (pari a circa 1/2,7). Tale profondità risulta proporzionale alla lunghezza d'onda e pertanto, a parità di costante dielettrica in una determinata banda di frequenza, la penetrazione dell'onda è maggiore alle frequenze più basse (ciò rende possibile, ad esempio nel dominio delle microonde, la misura di parametri del suolo anche in presenza di una limitata copertura vegetale). Essendo la penetrazione dell'onda determinata principalmente dal termine dissipativo della costante dielettrica, a parità di frequenza essa è estremamente legata al contenuto di umidità del mezzo sottostante che influenza appunto la sua conducibilità (ad esempio le massime penetrazioni nel terreno si ottengono a microonde con frequenze particolarmente basse in mezzi estremamente asciutti. Nei corpi d’acqua si ha una penetrazione significativa solo nel visibile). Nel caso di superfici reali esse possono essere considerate piane quando le rugosità superficiali siano molto piccole rispetto alla lunghezza d'onda. Alle lunghezze d'onda del visibile solo superfici estremamente levigate si comportano in maniera speculare (ad esempio la superficie di un cristallo) mentre alle microonde tale condizione può essere soddisfatta più facilmente (per esempio le pareti di un edificio). Questo tipo di riflessione rende difficile il rilevamento a distanza perché a parità di coefficiente di riflessione si hanno radianze molto diverse allo strumento a seconda di dove si trova la direzione di osservazione rispetto alla direzione di illuminazione. - La riflessione diffusa avviene in situazioni in cui la superficie è rugosa e l’energia è diffusa in modo praticamente uniforme in tutte le direzioni, caso (b). Il fatto che un particolare bersaglio rifletta in maniera speculare o diffusa, o talvolta in maniera mista, dipende dalla rugosità della superficie, paragonata alla lunghezza d’onda della radiazione incidente. In presenza di rugosità significative la radiazione incidente viene reirradiata in diverse direzioni (diffusa) in funzione prevalentemente dell'ampiezza delle rugosità rispetto alla lunghezza d'onda e delle proprietà dielettriche del mezzo sottostante. Per rugosità crescente essa viene sempre di più ridistribuita nello spazio perdendo importanza la componente speculare e crescendo generalmente l'energia reirradiata nella direzione opposta a quella di incidenza (retrodiffusione). La dipendenza dalla rugosità spiega, ad esempio, l'influenza del moto ondoso sulla risposta di un radar (a microonde), mentre la dipendenza della costante dielettrica dalla presenza di acqua nel terreno giustifica la possibilità di rilevare variazioni di umidità del suolo. 23 Fig. 2.14 – Diagrammi schematici che mostrano la riflessione speculare (a) e diffusa (b) In caso di assenza di fenomeni di diffusione, riflessione e assorbimento, si ha trasmissione della radiazione. Si noti in proposito che spesso materiali che sono trasparenti ad una frequenza non lo sono ad altre (l’acqua non è trasparente all’infrarosso, ad esempio). 2.6.1 Bilancio di energie L’energia della radiazione incidente su di una determinata superficie può dunque essere assorbita, riflessa o trasmessa: Ri = Ra + Rr + Rt (2.9) Dato un intervallo dello spettro, si definiscono assorbanza, riflettanza e trasmittanza spettrale i valori di queste energie per unità di lunghezza d’onda su quell’intervallo, riferiti all’energia dell’onda incidente. In altre parole, la riflessione (quello che vediamo) è la differenza tra quanto incide e quanto viene assorbito o trasmesso. Fig. 2.15 – Rappresentazione schematica dei meccanismi di riflessione, trasmissione e assorbimento dell’energia radiante incidente sulla vegetazione Coeff di riflessione ρ = Er/Ei Coeff di trasmissione τ = Et/Ei Coeff di assorbimento α = Ea/Ei Ei = energia incidente alla superficie Er = energia riflessa dalla superficie Ea = energia assorbita dalla superficie Et = energia trasmessa dalla superficie ρ +τ +α =1 24 (2.10) 2.7 La curva di riflettanza Consideriamo una superficie composta da un certo materiale; l’energia che raggiunge tale superficie è detta irradianza. L’energia riflessa dalla superficie è detta radianza; che si misura in W m-2 ⋅sr-1. Per ogni materiale può essere stabilita una curva di riflettanza, che mostra la frazione della radiazione incidente riflessa come funzione della lunghezza d’onda. La curva di riflettanza descrive l’andamento della riflettanza per una data superficie nell’intervallo spettrale 0,4 – 2,5 µm. Ovviamente la curva di riflettanza di una superficie varia molto in funzione delle condizioni ambientali (periodo dell’anno, condizione fisica e chimica della superficie) e di ripresa (geometria sorgente- superficie- sensore). È possibile disegnare delle curve di riflettanza media che, pur avendo valore indicativo in quanto soggette alle variazioni appena descritte, possono dare delle informazioni importanti sul comportamento delle superfici in esame. Le curve di riflettanza sono realizzate per la parte ottica dello spettro elettromagnetico fino a 2,5 µm. Attualmente vengono fatti molti sforzi per immagazzinare raccolte di curve di riflettanza tipiche in librerie spettrali. 2.7.1 Vegetazione Le caratteristiche di riflettanza della vegetazione dipendono da proprietà delle foglie come l’orientazione e la struttura della copertura delle foglie stesse. La porzione della radiazione riflessa in parti differenti dello spettro dipende dalla pigmentazione della foglia, dal suo spessore, dalla composizione (struttura della cella) e dalla quantità di acqua nel tessuto della foglia stessa. La Fig. 2.16 mostra una curva di riflettanza ideale per della vegetazione sana. Fig. 2.16 – Una curva di riflettanza spettrale ideale per della vegetazione in salute Nella porzione visibile dello spettro, la riflessione dalla luce blu e rossa è bassa in quanto queste porzioni vengono assorbite dalla pianta stessa (dalla clorofilla, soprattutto) per fotosintesi e la vegetazione riflette di più la luce verde. La riflettanza nel vicino infrarosso è più alta ma la quantità dipende dallo sviluppo della foglia e dalla struttura della cella delle foglie. Nell’infrarosso medio, la riflettanza è determinata soprattutto dall’acqua libera nel tessuto delle foglie; più acqua libera significa un più basso valore di riflettanza. Quando le foglie seccano, per esempio durante il periodo del raccolto, la pianta può cambiare colore (per esempio, può diventare gialla). A questo livello non c’è fotosintesi, il che comporta una riflettanza più alta nella porzione del rosso dello spettro. Inoltre, le foglie secche producono una più alta riflettanza nel medio infrarosso; di conseguenza si può dire che il telerilevamento ottico fornisce informazioni sul tipo di pianta e anche sulle condizioni di salute della pianta stessa. 2.7.2 Suolo La riflettanza del suolo spoglio dipende da cosi tanti fattori che è molto difficile dare una curva tipica della riflettanza del suolo. Comunque, i fattori principali che influenzano la riflettanza del 25 suolo sono il colore del suolo, il contenuto di umidità, la presenza di carbonati, e il contenuto di ossido di ferro. La Fig. 2.17 mostra le curve di riflettanza ottenute per i cinque tipi di suolo più diffusi negli Stati Uniti. Fig. 2.17 – Spettri di riflettanza di campioni di 5 suoli minerali; (a) composto in prevalenza da parti organiche, (b) minimamente modificato, (c) modificato dal ferro, (d) intaccato da componenti organici, e (e) composto prevalentemente da ferro. Si può osservare la forma tipica di alcune di queste curve, che mostrano una forma convessa tra i 500 e i 1300 nm con dei minimi a 1450 e 1950 nm. Questi minimi sono chiamati bande di assorbimento dell’acqua e sono causate dalla presenza di umidità del suolo. La curva (e), che si riferisce ad un suolo in cui domina la presenza di ferro, ha un andamento diverso, e questo può essere spiegato con il fatto che l’assorbimento del ferro domina a lunghezze d’onda maggiori. 2.7.3 Acqua Se paragonata a quelle di vegetazione e suolo, si nota subito che l’acqua ha una riflettanza più bassa. La vegetazione può riflettere fino al 50%, il suolo fino al 30-40% mentre l’acqua riflette al massimo il 10% della radiazione incidente. L’acqua riflette l’energia EM nel visibile fino al vicino infrarosso. Oltre 1200 nm tutta l’energia viene assorbita. La Fig. 2.18 mostra l’andamento di alcune curve di riflettanza per diversi tipi di acqua. La riflettanza più alta è data dall’acqua fangosa, e da acqua contente piante che hanno un picco della riflessione della clorofilla alla lunghezza d’onda del verde. Tuttavia, tale riflettanza apparente nasce dalla riflessione dei corpi contenuti nell’acqua piuttosto che dall’acqua stessa. Fig. 2.18 – Effetti tipici della clorofilla e dei sedimenti sulla riflettanza dell’acqua; (a) acque oceaniche, (b) acqua torbida, (c) acqua con clorofilla 26 CAPITOLO 3 OSSERVAZIONE DELLA TERRA: ASPETTI SISTEMISTICI 3.1 Introduzione Un sistema completo di Osservazione della Terra è composto da un certo numero di sottosistemi ed investe un certo numero di processi: - La sorgente del campo elettromagnetico ed i meccanismi di generazione della radiazione; - L’oggetto da osservare ed i fenomeni di interazione della radiazione elettromagnetica con esso; - Il mezzo sede della propagazione della radiazione ; - I sensori e le piattaforme (segmento aerospaziale, se il rilevamento avviene da piattaforma aerea o spaziale; se la piattaforma è terrestre, assieme al sensore confluisce nel segmento di terra, vedi di seguito) ; - I sistemi di acquisizione, archiviazione, elaborazione e distribuzione dei dati e dei prodotti (segmento terrestre o segmento di terra); - I processi di analisi ed interpretazione dei dati e dei prodotti, basati su interpretazione visiva di un operatore esperto o su elaborazioni digitali per estrarre l’informazione di interesse sull’oggetto osservato; - I processi attraverso i quali le informazioni estratte dai dati telerilevati vengono usate nelle applicazioni finali, per meglio conoscere l’oggetto, fornire ulteriori informazioni su esso o assistere nella soluzione di un particolare problema. Nel seguito verrà data una descrizione del "sistema di telerilevamento" nel suo complesso, illustrandone sommariamente le componenti e gli aspetti tecnologici che in esse intervengono. 3.2 Le componenti di un sistema di Osservazione della Terra 3.2.1 Oggetto osservato (Bersaglio) Gli oggetti osservabili ("bersagli") dal sistema di telerilevamento possono essere: oggetti posti sulla superficie terrestre, quali porzioni di superficie vegetata, di suolo nudo, di aree urbane, di superfici liquide, di mari ed oceani, o porzioni di superficie costituite da una "mescolanza" di superfici pure (es. vegetazione + suolo nudo, ecc.), porzioni dell'atmosfera terrestre di spessore variabile. Il bersaglio può riflettere la radiazione emessa dal Sole o da sorgenti artificiali o può essere esso stesso, come già accennato, una sorgente di radiazione. Nel primo caso esso viene caratterizzato dalla riflettività spettrale (coefficiente di reirradiazione nel caso delle microonde), definita genericamente come il rapporto tra l'energia riflessa e l'energia incidente sul bersaglio ad una certa frequenza6; nel secondo caso da una emissività spettrale, definita come il rapporto tra l'intensità della radiazione realmente emessa dal bersaglio e quella che dovrebbe essere emessa da un corpo emettitore perfetto (corpo nero). Quest'ultima è funzione della temperatura del corpo nero secondo la legge di Planck. La riflettività spettrale, l'emissività spettrale, la temperatura e le loro variazioni nel tempo e nello spazio costituiscono dunque gli "osservabili radiativi" del telerilevamento. I primi due sono correlati, in maniera spesso non perfettamente nota, con la composizione chimica, strutturale e la disposizione geometrica dei singoli elementi costitutivi del bersaglio stesso; la temperatura del bersaglio può essere considerata funzione degli scambi energetici del bersaglio con l'esterno e degli elementi presenti in esso. La porzione di superficie terrestre elementare minima 6 La quantità che il sensore misura è legata all’energia riflessa verso il sensore stesso, quindi non a tutta l’energia riflessa; tuttavia, se si assume diffusione isotropa, le due energie riflesse sono tra di loro proporzionali. 27 osservata (in un sistema che produce immagini) può essere considerato il pixel7 (termine che significa picture element, ovvero porzione elementare dell’immagine), generalmente quadrato, il cui lato può variare da qualche decimetro a qualche chilometro a seconda delle caratteristiche dello strumento e dell’organizzazione dei dati. Un'immagine è formata da un certo numero di pixel, numero che può essere molto elevato. Il bersaglio può essere costituito da un singolo pixel o da un insieme di pixel. Un'immagine può contenere più bersagli. 3.2.2 La sorgente del campo elettromagnetico La prima condizione da verificare per il telerilevamento è l’esistenza di una sorgente adeguata della radiazione elettromagnetica, che può essere naturale od artificiale. Fra le prime le più importanti sono il Sole e la Terra (ovvero l’oggetto stesso del rilevamento, nell’EO). Tra le sorgenti artificiali di campo elettromagnetico le più comuni sono l'antenna di un trasmettitore di onde radio ed il laser. Tali sorgenti emettono energia (radiazione) elettromagnetica caratterizzata da: - intensità, ovvero la “quantità di campo” trasportata dall’onda; la potenza è proporzionale al quadrato della “quantità di campo”; - lunghezza d'onda (o intervallo di lunghezze d’onda nel caso di radiazione con spettro finito), - polarizzazione, ovvero direzione del campo elettrico, che può anche essere funzione del tempo in una stessa onda; - direzione di propagazione. Nel caso del Sole e delle sorgenti artificiali la radiazione generata viene diffusa dall’oggetto osservato (elemento di superficie terrestre o atmosfera) e raggiunge il sensore di telerilevamento. Nel caso la sorgente sia l’oggetto osservato la radiazione è generata spontaneamente per emissione termica, che per la Terra è significativa (cioè rilevabile) nell'infrarosso termico, lontano ed alle microonde. Essa raggiunge direttamente il sensore. In questo caso pertanto la sorgente di radiazione e l'oggetto da osservare coincidono. L'esistenza di sorgenti aventi proprietà adeguate vincola l'utilizzo delle diverse bande di frequenza dello spettro elettromagnetico per le applicazioni del telerilevamento. Ad esempio il laser, per le caratteristiche di ingombro, peso ed assorbimento di energia, pone molte difficoltà al suo uso su satellite. 3.2.3 Il mezzo sede della propagazione della radiazione Nel caso del Sole e delle sorgenti artificiali la radiazione deve anche propagarsi lungo i percorsi sorgente-oggetto e successivamente oggetto-sensore. Lungo tali percorsi essa viene trasmessa ma può anche subire delle modifiche. Anche nel caso in cui la sorgente sia l’oggetto osservato la radiazione emessa raggiunge il sensore solo dopo essersi propagata (ed eventualmente essere stata modificata) attraverso il percorso oggetto-sensore. Nella maggior parte delle situazioni questi percorsi attraversano l’atmosfera terrestre. Non è sempre esattamente così; ad esempio se osserviamo le proprietà del terreno la propagazione in parte avviene anche attraverso un eventuale strato vegetato sovrastante. L'atmosfera terrestre può essere considerata, da una parte, come il mezzo interposto tra la sorgente di radiazione e l’oggetto e tra quest'ultimo ed il sensore e, dall'altra, come oggetto stesso del rilevamento. Essa può intervenire a modificare l'intensità spettrale, le proprietà di coerenza e di polarizzazione e la direzione di propagazione della radiazione con modalità diverse a seconda che si tratti di frequenze ottiche o di microonde. L'atmosfera può costituire un elemento di disturbo nel caso in cui interessi l'osservazione della superficie terrestre mascherando la radiazione proveniente da quest'ultima. Pertanto l'atmosfera limita l'utilizzo della radiazione elettromagnetica, per tali applicazioni, a quelle frequenze in cui si comporta come mezzo per quanto possibile trasparente (finestre atmosferiche). Dal momento che non esistono finestre 7 Il pixel è definito come la più piccola area dell’immagine alla quale è associata una intensità. Aree più piccole non possono che avere associata la stessa intensità del pixel nel quale sono contenute. Il caso di aree più piccole ma contenute in più pixel (a cavallo tra diversi pixel) va trattato a parte. 28 atmosferiche tra 100 micron e 1 mm in questa zona dello spettro non è possibile fare telerilevamento; di conseguenza bisogna scegliere tra due tipi di telerilevamento molto diversi l’uno dall’altro, ossia tra l’ottico e le microonde, che corrispondono alle zone collocate rispettivamente prima o dopo la zona oscura 3.3 I Sensori In generale nel telerilevameno il sensore è un’apparecchiatura in grado di registrare l’energia EM su di esso incidente. In senso più largo, è tutto ciò che serve perché l’acquisizione di dati telerilevati abbia fisicamente luogo. A seconda della modalità con cui l’acquisizione avviene, si possono suddividere i sensori in diverse classi; per esempio, in base alla gamma di frequenze coinvolte, in base alla capacità o meno da parte del sensore di emettere energia, ecc. Fig. 3.1 – Schema generale di un sensore La prima grossa distinzione che si può fare è quella tra sensori attivi e sensori passivi. I sensori passivi Dipendono da una sorgente esterna di energia, generalmente il Sole (alle volte comunque la Terra stessa). Il gruppo di sensori passivi copre la parte dello spettro elettromegnetico che va dai raggi gamma (1 pm) fino a 1 metro (micro e radio onde). Il più vecchio e più comune tipo di sensore passivo è la macchina fotografica. Vantaggio: non richiedono apparati per emettere radiazione e consumano poca potenza. Svantaggio: dipendono da una sorgente esterna, e non tutte le bande sono disponibili. Sono convenienti se si ha disponibilità di sorgente esterna o di emissione significativa, senza necessità di controllo dell’illuminazione. I sensori attivi Sono quei sensori che emettono essi stessi la radiazione che poi riceveranno riflessa dal bersaglio. Le misurazioni effettuate attraverso sensori attivi sono più controllate perché esse non dipendono da condizioni di illuminazione che possono essere variabili. Vantaggio: non dipendono da sorgenti esterne. Svantaggio: richiedono apparecchiature emittenti ed una grande potenza a disposizione. I sensori attivi comprendono sensori quali l’altimetro laser (che usa luce nell’infrarosso) e il radar. 29 3.4 Classi di sensori Fig. 3.2 – Elenco di sensori presentati in questo capitolo 3.4.1 I Sensori passivi Gli Spettrometri Gli spettrometri a raggi γ misurano l’emissione di raggi γ dal suolo dovuta al decadimento nucleare degli elementi radioattivi naturali. L’energia misurata a lunghezze d’onda specifiche fornisce informazioni circa l’abbondanza di specifici minerali. Quindi, l’applicazione principale di questi strumenti è nell’esplorazione mineraria. Le Fotocamere Sono costituite da un sistema lenti/pellicola principalmente usate nelle foto aeree. Inoltre, anche i satelliti con orbite basse e le missioni dello Space Shuttle della NASA utilizzano questo tipo di tecniche. Il tipo di pellicola usata nelle fotocamere è in grado di registrare l’energia elettromagnetica nalla gamma compresa tra 400nm e 900 nm. Le fotografie aeree sono utilizzate in molte applicazioni. La geometria rigida e regolare delle foto aeree in combinazione con la possibilità di acquisire fotografie stereo ha fatto sì che si sviluppassero delle procedure di fotogrammetria per ottenere coordinate precise in 3D. Le principali applicazioni includono il rilevamento (topografico) su media e larga scala e il rilevamento catastale. Le Videocamere Le videocamere registrano sequenze temporali. Fino a pochi anni fa erano disponibili solo quelle analogiche, mentre ora vanno diffondendosi sempre più quelle digitali. Sono sensibili al visibile, raramente all’infrarosso vicino. Vengono impiegate soprattutto quando si ha la necessità di avere immagini a basso costo per scopi qualitativi, come per esempio, quando servono informazioni addizionali circa un’area rilevata da un altro sensore, per esempio un radar. I Rilevatori multispettrali Gli scansori multispettrali effettuano una misurazione punto per punto della luce del sole riflessa dalla superficie terrestre. Tale misurazione viene fatta su più gamme di frequenza simultaneamente, da cui deriva la denominazione di multispettrale. La ragione che porta ad effettuare la misurazione su più bande è da ricercarsi nel fatto che ciascuna banda è legata a specifiche caratteristiche della superficie terrestre. Per esempio, le caratteristiche di riflessione della luce intorno al blu danno informazioni circa la composizione mineraria; le caratteristiche della riflessione della luce infrarossa danno informazioni circa il tipo e lo stato di salute della vegetazione, ecc. 30 Gli Spettrometri d’immagine Il principio di funzionamento degli spettrometri d’immagine è lo stesso di quello dei rilevatori multispettrali, con la sola differenza che gli spettrometri rilevano molte più bande, e con una larghezza di banda molto più ridotta (5-10 nm). Vengono utilizzati dove occorra determinare la composizione chimica dell’oggetto osservato. Quindi, questi spettrometri possono essere usati per determinare la composizione mineraria della superficie osservata, o per valutare il contenuto di clorofilla nelle acque marine. I Termografi Sono analoghi ai rilevatori multispettrali, ma sono sensibili alle lunghezze d’onda tra i 10 e i 14 µm, direttamente collegate alla temperatura dell’oggetto osservato. Conoscere le temperature della superficie terrestre, del mare e delle nubi è molto utile per la previsione meteorologica e gli studi climatici in generale. Per questa ragione molti sistemi per il telerilevamento concepiti con fini meteorologici includono un termografo. I termografi sono poi usati anche per studiare gli effetti della siccità sulle coltivazioni agricole, e per rilevare incendi e principi di incendi (nell’IR termico). I Radiometri Il suolo e l’immediato sottosuolo emettono radiazioni con lunghezza d’onda compresa tra 1 cm e 1 m. La profondità di emissione, e quindi l’intensità, dipendono dalle caratteristiche del suolo, compresa l’umidità. I radiometri sono utilizzati per rilevare questa energia. Le informazioni che se ne ricavano possono essere utilizzate per scopi di esplorazione mineraria, creazione di mappe del suolo e di mappe del contenuto di umidità. 3.4.2 I Sensori attivi Il LIDAR È l’acronimo di Light Detection And Ranging, sensore aviotrasportato che usa un raggio laser IR per rilevare la posizione del terreno o degli oggetti che si trovano su di esso. Questi dati sono utilizzati prevalentemente per generare modelli digitali del terreno (DTM) per la creazione di mappe topografiche. Altri impieghi che stanno prendendo piede sono la creazione di modelli di edifici in 3D e la misurazione dell’altezza degli alberi nelle foreste. I Radar altimetri Sono utilizzati per misurare il profilo altimetrico lungo il percorso del satellite. Funzionano con lunghezze d’onda comprese tra 1 cm e 6 cm, e forniscono l’altezza del punto osservato con una precisione di 2-4 cm. Sono utili per misurare superfici abbastanza lisce come gli oceani e per rilevamenti su piccola scala di modelli di terreno continentale. I Radar d’immagine Gli strumenti radar funzionano con lunghezze d’onda comprese tra 1 cm e 1 m. Come già visto per i rilevatori multispettrali, diverse lunghezze d’onda reagiscono a diverse caratteristiche dell’oggetto osservato (umidità, conducibilità, dimensioni, rugosità alle diverse scale). Dato che il radar è un sensore attivo e le lunghezze d’onda utilizzate sono in grado di penetrare le nubi, esso può funzionare con qualsiasi condizione di tempo, sia di giorno sia di notte. La combinazione di due immagini radar della stessa area può fornire informazione sulle altezze del terreno. Combinare due immagini radar della stessa zona ma acquisite in momenti diversi può servire per rilevare precisamente dei cambiamenti nella quota o delle deformazioni verticali (interferometria SAR, InSAR). 31 Fig. 3.3 – Immagine SAR proveniente dal satellite ERS relativa ad un delta in Indonesia; questa immagine permette di distinguere tre diversi tipi di foresta. NOTA: i sensori per telerilevamento si distinguono anche in: − SENSORI D’IMMAGINE (telecamere, macchine fotografiche, scansori ottici, termografi, radar..) cosi detti perché formano un’immagine; − SENSORI NON D’IMMAGINE (altrimetri, misuratori di trasparenza LIDAR, diffusimetri..) che forniscono dati non rappresentabili come immagini, almeno non banalmente. 3.5 Le piattaforme I sensori sono installati su delle piattaforme che assicurano tutti i servizi necessari al loro funzionamento. Il sistema di telerilevamento avrà caratteristiche che dipendono in maniera sostanziale dal tipo di piattaforma. Si distinguono in particolare le piattaforme poste a terra (piattaforme terrestri) e le piattaforme aerospaziali. Queste ultime sono costituite da aerei, elicotteri e palloni oppure da piattaforme spaziali orbitanti intorno alla Terra (satelliti). Per quanto riguarda il telerilevamento a terra, la piattaforma può consistere in un apposito supporto, una gru, un ponteggio, un edificio. Esempi di questo tipo di telerilevamento sono il radar di terra degli aeroporti, il radar meteorologico, gli strumenti per la rilevazione delle caratteristiche spettrali dei bersagli. Le piattaforme terrestri assicurano un rilevamento continuo di una porzione limitata di territorio. In alcuni casi si usano sensori su piattaforme terrestri per scopi di ricerca scientifica, ovvero per sperimentare tecnologie hardware di nuovi sensori e/o sviluppare modelli matematici di interpretazione dei dati da essi telerilevati su porzioni di territorio ben note. In altri casi vengono usati sensori a terra per la calibrazione di strumenti aerotrasportati. Esistono anche sensori su piattaforme terrestri utilizzati come strumenti di acquisizione di dati ambientali a scopi operativi, come nel caso del radar meteorologico per la misura delle precipitazioni atmosferiche in una determinata area o del radiometro a microonde per la misura di profili meteorologici. Le piattaforme aerospaziali su cui possono essere installati i sensori di telerilevamento possono invece essere aerei o piattaforme orbitanti attorno alla Terra; la scelta dell’uno o dell’altro tipo di piattaforma dipende in generale da: - La dimensione dell’area da osservare; - La frequenza di ripresa del bersaglio; - La risoluzione spaziale desiderata. Nel telerilevamento aeronautico la piattaforma consiste di un mezzo in grado di volare, come un aeroplano, un elicottero, un aquilone, un pallone aerostatico..Le altezze vanno dai 100 m ai 30-40 32 km. Esempi di strumenti tipicamente usati nel telerilevamento aeronautico sono i radar ad apertura sintetica. Le piattaforme spaziali sono solitamente costituite dai così detti satelliti artificiali, che orbitano intorno alla Terra a distanze dalla superficie terrestre variabili da circa 200 km a 36.000 km. . 3.5.1 Le piattaforme aeree Il principale supporto per il telerilevamento aeronautico è l’aeroplano, di solito opportunamente modificato per agevolare l’uso dello strumento. La velocità di volo varia tra i 140 e i 600 km/h ed è legata al tipo di sensore montato. Oltre all’altezza, anche l’orientazione dell’aeroplano influenza le caratteristiche geometriche dei dati telerilevati acquisiti. L’orientazione dell’aeroplano è influenzata dalle condizioni di vento e può essere corretta dal pilota, almeno fino ad un certo punto. Tre sono i tipi diversi di rotazione che l’aeroplano può effettuare attorno ad un riferimento: rollio, beccheggio e imbardata. Fig. 3.4 – I tre angoli (rollio, beccheggio e imbardata) di un aereo che influenzano i dati acquisiti Per misurare queste rotazioni è possibile installare sull’aereo un giroscopio (Inertial Measurement Unit, IMU); successivamente le misure possono essere utilizzate per correggere i dati registrati. I risultati dei rilevamenti (pellicole oppure dati) rimangono a bordo dell’aeromobile fino alla fine della missione. Va detto che sia mantenere, sia far funzionare questo tipo di apparecchiature è molto costoso; proprio per questo le flotte di aerei per telerilevamento sono costituite e mantenute prevalentemente da organismi nazionali e da pochissime imprese private. 3.5.2 Le piattaforme spaziali Sono veicoli spaziali caratterizzati da un moto di rivoluzione continuo intorno alla Terra, che permette ai sensori di telerilevamento di bordo puntati verso la superficie terrestre di effettuare osservazioni su vaste aree in tempi molto brevi. Possono essere utilizzati in modo episodico, come lo Space Shuttle per le missioni Shuttle Imaging Radar, od orbitanti con continuità (i satelliti eliosincroni e geostazionari quali, rispettivamente, LANDSAT e METEOSAT). L'altezza dell'orbita varia da circa 200 km (Shuttle) a 36.000 km (satelliti geostazionari). I satelliti con orbite polari o quasi-polari osservano la superficie terrestre da una quota intermedia di circa 1.000 km. Oggi i satelliti artificiali (detti, per brevità, satelliti) forniscono gran parte dei dati telerilevati, e la tendenza è verso la crescita, seppur lenta a causa dei costi elevati. Il telerilevamento satellitare permette l’acquisizione di dati su vaste aree praticamente in contemporanea, e permette soprattutto un’osservazione regolare nel tempo. Un’immagine satellitare costa meno di una intera campagna di rilevazione aerea, e la sua acquisizione è ripetibile con facilità. Le capacità di monitoraggio di un sensore sono determinate in larga parte dai parametri dell’orbita del satellite. Per orbita si intende il percorso (generalmente ripetitivo) del satellite intorno alla Terra. L’orbita del satellite viene scelta in funzione del dato che si vuole ottenere e delle caratteristiche del sensore montato sulla piattaforma satellitare. Per realizzare un monitoraggio continuo (necessario nelle applicazioni meteorologiche), un rilevamento globale (rilevamento di copertura del suolo) o la formazione di immagini selettive (per aree urbane) sono necessari tipi di orbita diversi. Le leggi che governano il moto del satellite sono quelle ben note della meccanica. La traiettoria del satellite è generalmente ellittica e caratterizzata quindi dalla dimensione dei due semiassi (maggiore e minore) ovvero dal semiasse maggiore e dalla ellitticità. Nelle considerazioni che faremo nel seguito ci riferiremo ad un orbita circolare avente un certo raggio r ovvero una quota sopra la superficie della Terra H=r-R, 33 ove R e il raggio terrestre pari a circa 6378 km (si ricordi tuttavia come anche la Terra sia un ellissoide e che il raggio equatoriale è circa 20 km maggiore di quello polare). L’angolo di inclinazione è definito come l’angolo tra il vettore che individua il moto del satellite da Sud a Nord, misurato all'equatore, e un vettore parallelo a quest'ultimo e diretto verso Est. Tale angolo viene usato per definire la posizione del piano che contiene l'ellisse e che deve intersecare il centro della Terra. La cinematica del moto del satellite su tale traiettoria è governata dalle leggi di Keplero. E' utile ricordare come l'uguaglianza della forza di attrazione Terra-satellite (centripeta) alla forza centrifuga impone una relazione tra periodo di rotazione del satellite T (tempo impiegato a percorrere un orbita) e quota r che, per l’orbita circolare vale: 4π 2 r 3 T = (3.1) gR 2 ove g è l’accelerazione di gravità al livello del mare. Il raggio dell’orbita compare al numeratore dell’espressione del periodo, pertanto i satelliti più alti sono anche i più lenti. 2 Le piattaforme spaziali sono costituite da un insieme di sottosistemi con diverse funzioni il cui obiettivo è quello di mantenere in orbita in condizioni operative l'insieme dei sensori di telerilevamento (che costituiscono pertanto il cosiddetto carico utile o "payload"). Tra i sottosistemi di bordo ricordiamo: - I sistemi che forniscono la potenza elettrica (batterie, e generatori solari per la loro ricarica). Si osserva come nel corso della sua orbita intorno alla Terra il satellite può trovarsi in eclisse, ovvero la Terra può interporsi tra Sole ed il satellite non permettendo la generazione di energia da parte dei pannelli e la ricarica delle batterie. Alcune configurazioni orbitali minimizzano o annullano le condizioni di eclisse ma non sono necessariamente compatibili con altri requisiti di missione. - I sistemi per la misura ed il controllo dell’orbita del satellite. Sono necessari per conoscere il movimento del centro di massa del satellite (definito rispetto ad un sistema di riferimento solidale con la Terra) e mantenerlo lungo l’orbita nominale richiesta dalla missione o per modificarla se necessario. I sistemi utili alla definizione della esatta posizione del satellite possono includere sistemi di ranging a radiofrequenza, sistemi passivi (retroriflettori) che riflettono gli impulsi laser della rete di stazioni laser terrestri o ricevitori basati sulle tecnologie Global Positioning System (GPS) o equivalenti. Per il controllo dell’orbita si usano appositi razzi che utilizzano il propellente a bordo per correggere l’orbita quando i diversi agenti esterni ne abbiano provocato una modifica (tipicamente accelerare il satellite per riportarlo alla quota di volo nominale quando esso sia scaduto a causa dell’azione frenante dell’atmosfera ). - I sistemi per il controllo dell’assetto del satellite. L’assetto rappresenta la posizione della piattaforma rispetto ad un sistema di riferimento solidale con la piattaforma stessa e puntato con un asse verso la Terra e con un altro asse nella direzione del movimento del satellite. In quel sistema l’assetto è definito da tre angoli la cui terminologia si richiama al linguaggio che definisce l’assetto di una barca o di un aereo: imbardata (yaw), beccheggio (pitch) e rollio (roll). L’esatto puntamento della piattaforma è un requisito a volte molto stringente per assicurare il corretto funzionamento dei sensori. Basti pensare al caso di sensori che devono osservare la superficie terrestre rigorosamente in direzione perpendicolare o a sensori che riprendono immagini del territorio ad alta risoluzione. L’assetto della piattaforma può essere misurato e controllato con diverse tecniche. In alcune piattaforme con requisiti di controllo d’assetto meno stringenti si sfrutta l’effetto giroscopico imprimendo una rotazione (spin) alla piattaforma stessa. Nei satelliti con requisiti d’assetto più stringenti si usano piattaforme con controllo d’assetto a tre assi, dove opportuni sensori 34 misurano i tre angoli (ad esempio sensori che rivelano la posizione dell’orizzonte terrestre) mentre una terna di masse ruotanti su tre assi tra loro ortogonali variando la loro velocità determina una opportuna rotazione angolare del satellite (per il principio della conservazione della quantità di moto). - I sistemi di telecomunicazione tramite i quali il satellite scambia, con la terra o con altri satelliti, informazioni e dati. Il flusso dati è ad una via o a senso unico (dal satellite alle stazioni di ricezione) per quanto riguarda le misure effettuate dai sensori di telerilevamento. I dati sono inviati direttamente alla stazione di ricezione a terra quando essa è in visibilità della piattaforma, oppure in caso contrario possono essere inviati attraverso un Data Relay Satellite (DRS), che riceve i dati e li ripete verso le stazioni di terra. I dati telerilevati dai sensori possono spesso formare flussi dati molto intensi (centinaia di Megabit al secondo). E’ necessario anche un collegamento a due vie o a doppio senso attraverso cui la piattaforma invia a terra dati di controllo (dati di telemetria o di housekeeping) che portano informazioni sul suo stato, mentre da terra vengono inviati i comandi per intervenire sulla sequenza delle operazioni di bordo in accordo con la pianificazione della missione ed eventualmente per intervenire a seguito di eventi contingenti. - I sistemi di registrazione dei dati generati dai sensori di telerilevamento, mediante i quali è possibile scaricare a terra in visibilità di una stazione dati acquisiti quando il satellite sorvolava una regione in cui nessuna stazione era in visibilità. La registrazione dei dati a bordo è una funzione di grande importanza per assicurare l’osservazione di aree remote della superficie della Terra o comunque dove non siano state installate stazioni a terra. Naturalmente l’utilizzo di satelliti DRS può costituire una soluzione alternativa, compatibilmente con fattori economici e di capacità del canale. Le tecnologie di registrazione allo stato solido, rispetto alle vecchie tecnologie basate sui nastri magnetici, hanno aumentato negli ultimi anni le capacità di registrazione a bordo in maniera sensibile. 3.5.2.1 Le orbite Le orbite più comuni per le missioni del telerilevamento sono l’orbita polare, la quasi-polare, la geo-stazionaria e l’orbita eliosincrona. Queste sono orbite con un angolo di inclinazione tra gli 80° e i 100° che permettono l’osservazione dell’intero globo. Il satellite normalmente è posizionato in orbita a 600-800 km di altezza. Per gli scopi del telerilevamento le caratteristiche rilevanti dell’orbita sono: Altezza: distanza (misurata in km) tra il satellite e la superficie terrestre media; tipicamente i satelliti per telerilevamento orbitano a 600-800 km (orbita polare) o a 36.000 km (orbita geostazionaria) dalla Terra. Tale distanza determina la parte di area visibile e il dettaglio con cui è visibile. Angolo di inclinazione: è l’angolo tra l’equatore e il piano dell’orbita. L’angolo di inclinazione dell’orbita determina, insieme al campo di vista del sensore, che latitudine può essere osservata. Se l’inclinazione è 60° allora il satellite orbita sopra la Terra tra le latitudini 60° Sud e 60° Nord; dunque non può osservare parti della Terra a latitudini superiori ai 60°. Periodo: è il tempo (misurato in minuti) necessario per completare un’orbita. Un satellite polare orbita a 800 km di altezza e ha un periodo di 90 minuti. È direttamente legato alla velocità, che è dell’ordine dei km al secondo (7-8 km/s). Tempo di rivisita: è il tempo tra due successive orbite identiche. Dell’ordine dei giorni. Orbita quasi-polare: Una caratteristica dell'orbita quasi polare è quella di permettere l'osservazione della Terra nella sua globalità, attraverso l'effetto combinato del moto di rivoluzione del satellite intorno alla Terra e di rotazione di quest'ultima intorno al proprio asse, "sotto" il percorso orbitale 35 del satellite stesso. Si può immaginare che, durante il moto orbitale del satellite, la proiezione di quest'ultimo sulla superficie terrestre disegni, sulla superficie medesima, delle tracce a terra. Fig. 3.5 – Configurazione di tracce a terra relative a 24 ore (porzione discendente); D indica la distanza delle tracce all’equatore tra due orbite successive. Durante un periodo di rivoluzione del satellite (pari a circa 100 minuti) la Terra effettua una rotazione di circa 25 gradi di longitudine, corrispondente, all'equatore, a 2.800 km. Ciascuna traccia a terra sarà dunque distanziata da quella successiva (circa 100 minuti dopo) di circa 25 gradi di longitudine. Dopo che la Terra ha effettuato una rotazione completa su se stessa (24 ore dopo), la traccia a terra del satellite non coinciderà in genere con quella percorsa 24 ore prima, bensì con una compresa tra le tracce 1 e 2 (fig.3.5) (considerando queste ultime relative alla prima ed alla seconda rivoluzione effettuate dal satellite); un tipo particolare di orbita quasi-polare è la Orbita eliosincrona: è un’orbita scelta in modo che il satellite passi per lo stesso luogo sempre alla stessa ora del giorno. Molte orbite eliosincrone attraversano l’equatore a metà mattina (intorno alle 10.30); in quel momento l’angolo del sole è basso e le ombre risultanti rivelano i rilievi del terreno. Le orbite eliosincrone consentono al satellite di registrare immagini a due orari fissi durante un periodo di 24 ore, una durante il giorno e l’altra durante la notte. I satelliti eliosincroni sono caratterizzati da un'orbita quasi polare, in cui l'asse di rotazione terrestre interseca con un angolo non nullo il piano orbitale. Il nome "eliosincrono" deriva dal fatto che in tale configurazione orbitale l'angolo formato dalla congiungente Sole-centro della Terra con il piano orbitale è mantenuto costante nel tempo. Poiché il valore di tale angolo controlla l'ora locale di passaggio del satellite all'equatore (ovvero l'ora al nodo ascendente o discendente), l'orbita eliosincrona permette di mantenere relativamente costanti nel tempo le condizioni di illuminazione della superficie terrestre, minimizzando in tal modo le variazioni della radianza misurata al sensore dovute alle variazioni delle condizioni di illuminazione. Esempi di satelliti con orbita quasi polare eliosincrona sono i satelliti LandSat, SPOT e IRS. 36 Fig. 3.6 – Configurazione dell’orbita quasi polare Orbita geo-stazionaria: La configurazione orbitale geostazionaria è caratterizzata da una velocità di rivoluzione del satellite intorno alla Terra pari, per intensità e verso, alla velocità di rotazione della Terra stessa intorno al proprio asse. Inoltre il piano orbitale è scelto coincidente con il piano dell'equatore terrestre. Tutto ciò permette, ad un sensore orientato verso il Pianeta, di osservare sempre la stessa porzione di superficie terrestre con possibilità di alta ripetitività temporale di ripresa. L'altezza dell'orbita è di circa 36.000 km e può essere ricavata dalla equazione di pagina 25 imponendo, appunto, un periodo orbitale di 24 ore. Tali quote limitano ovviamente le caratteristiche di risoluzione geometrica a terra dei sensori di bordo. In termini di copertura tale piattaforma, ferma rispetto alla Terra, è in grado di osservare poco meno della metà del globo terrestre. Per assicurare la copertura totale del pianeta è necessario porre in orbita diverse piattaforme distanziate in longitudine (utilizzandone 5 si può ovviare anche alle notevoli distorsioni geometriche ai bordi di una immagine che riprenda l'intero globo terrestre). Le orbite geostazionarie sono utilizzate per satelliti meteorologici e per le telecomunicazioni. Oggigiorno i sistemi di satelliti meteorologici utilizzano una combinazione di satelliti geostazionari e orbite polari. I satelliti geostazionari offrono una vista continua, mentre le orbite polari offrono una risoluzione più elevata. Orbita bassa: ha un’altezza di circa 400 km (inferiore quindi a quella delle orbite quasi-polari), ed è impiegata quando occorrono dati ad alta risoluzione. 3.6 Conversione analogico-digitale Per loro natura, tutti gli strumenti effettuano rilevazioni analogiche, mentre per la trasmissione e l’elaborazione dei dati è fondamentale che questi siano espressi in forma numerica o digitale. Si rende quindi necessaria un’operazione di conversione dalla forma analogica (generalmente corrente o tensione all’uscita dello strumento) alla forma numerica. La procedura segue i passi elencati: − Viene effettuato un campionamento del segnale nel tempo (o nello spazio). − I valori misurati ad intervalli regolari di tempo (ad esempio tensioni misurate da un voltmetro) vengono convertiti in valori numerici. 37 Fig. 3.7 – Sequenza delle operazioni necessarie per effettuare il campionamento analogico-digitale - Il segnale analogico originario viene trasformato in n valori numerici (funzione della frequenza di campionamento) Il segnale passa da una descrizione continua nel tempo ad una discreta Ad ogni riga di scansione viene a corrispondere una sequenza ordinata di numeri (generalmente espressi in forma binaria) Un’organizzazione matriciale di tali valori dà origine ad una immagine Vantaggi - Il segnale digitale è necessario per evitare le distorsioni intrinseche nel segnale analogico (ad esempio comportamenti non lineari degli elementi di trasmissione del segnale) - La codifica numerica (di solito binaria) permette un flusso veloce di informazioni - La codifica numerica si presta a veloci procedure di calcolo dei dati stessi 3.6.1 Rappresentazione dei dati (imaging): RASTER e VETTORIALE I dati telerilevati possono essere rappresentati sottoforma di immagini, il che solitamente rende la loro interpretazione più agevole all’osservatore umano. Le tecniche fondamentali di rappresentazione di mappe sono la tecnica vettoriale e la tecnica raster. Formato raster È tipico di immagini da scansione. Il pixel è l’elemento minimo dell’immagine e ad esso viene assegnato un valore numerico (radianza, backscattering); il pixel al suolo ha dimensioni definite. Nella traduzione della matrice in immagine, ogni pixel viene “colorato” con un tono di grigio tanto più chiaro quanto più elevata è l’intensità associata al pixel stesso nella matrice di dati telerilevati. Formato vettoriale Viene usato per carte generali e tematiche con elementi lineari. Le linee sono definite da punti a coordinate note, collegate da segmenti. In linea teorica i punti sono adimensionali. Con la rappresentazione vettoriale, i confini o l’andamento delle caratteristiche è definito da una serie di punti che, quando congiunti con linee diritte, formano la rappresentazione grafica di quella caratteristica. I punti sono codificati con una coppia di numeri che danno le coordinate X e Y, in sistemi come latitudine/longitudine o coordinate di Proiezione Traversa di Mercatore. Gli attributi di caratteristiche sono immagazzinati poi con un programma di software di gestione di database tradizionale (DBMS). Per esempio, una mappa di vettore di particelle di proprietà sarebbe allacciata ad un database di attributo di informazioni che contengono l'indirizzo, il nome di proprietario, valutazione di proprietà ed uso di terra. Il collegamento tra questi due file di dati può essere un semplice numero di identificazione che è dato ad ogni caratteristica nella mappa 38 Raster contro vettore I sistemi raster sono richiedono l’immagazzinamento di una mole notevole di dati (anche se esistono buone tecniche di compressione degli stessi) in quanto devono registrare dati ad ogni ubicazione di cella a prescindere dal fatto che quella cella contenga informazioni che sono o no di interesse. Comunque, il vantaggio di questa tecnica è che lo spazio geografico è definito uniformemente in maniera semplice e prevedibile. Di conseguenza, i sistemi raster hanno sostanzialmente più potere analitico rispetto ai vettori nell'analisi dello spazio continuo e nello studio di dati in continuo cambiamento come terreno, biomassa della vegetazione, pioggia. Il secondo vantaggio dei raster è che la loro struttura è ben compatibile con l'architettura dei computer digitali. Di conseguenza, i sistemi raster tendono ad essere molto rapidi nella valutazione di problemi che comportano le varie combinazioni matematiche dei dati in strati multipli. Sono eccellenti per valutare modelli ambientali come erosione del suolo e la gestione di foreste. 3.7 Sistema di Terra L'insieme dei sistemi di terra (segmento terrestre o ground segment) di una missione di telerilevamento spaziale è schematizzato in Fig. 3.8: 39 Fig. 3.8 – Componenti del segmento terreno 3.7.1 Centro di supporto E’ il sistema (unico dal punto di vista funzionale e di solito anche fisico) che effettua il controllo dello stato del satellite acquisendo ed analizzando i dati di telemetria; esso programma le operazioni di bordo e invia al satellite i comandi operativi per attuare la pianificazione della missione o far fronte a situazioni contingenti. In sostanza è il gestore diretto del satellite. 3.7.2 Sistema di Acquisizione ed Archiviazione I dati rilevati dai sensori di telerilevamento nel caso di piattaforma spaziale vengono trasmessi a terra dai sottosistemi di telecomunicazione generalmente con tecniche di tipo digitale ed acquisiti da apposite stazioni riceventi dotate di una antenna e di apparati di ricezione per la demodulazione del segnale e la sua registrazione. Questi sistemi non sono in genere unici ma ne esistono diversi in diverse parti del globo, in grado di acquisire dati da un medesimo satellite. A causa dell’elevato flusso dei dati acquisiti la registrazione avveniva fino a qualche tempo fa su supporti magnetici ad alta densità (High Density Digital Tape: HDDT) che venivano successivamente riletti dal sistema di elaborazione a velocità inferiore. In tempi più recenti sono stati realizzati sistemi in grado di immagazzinare direttamente i dati su dischi magnetici. Si noti come, nel caso di piattaforme in cui esiste una capacità di registrazione dei dati, la stazione possa ricevere anche dati acquisiti quando il satellite non è in visibilità della sua antenna. Al contrario, quando non esiste una capacità di registrazione a bordo, i dati dei sensori sono utilizzabili solo se esiste una antenna sulla superficie terrestre in grado di riceverli. A meno che la piattaforma non risulti ferma rispetto alla Terra (caso del satelliti con orbita geostazionaria) sarà perciò necessario predisporre un notevole numero di stazioni terrestri, ognuna delle quali osserva il satellite solo per un certo tempo, ovvero riceve dati solo da una certa regione terrestre intorno alla stazione stessa e che viene chiamata "area di copertura" della stazione. Ad esempio, l'antenna della Stazione Pietro Fanti del Fucino può osservare satelliti che sorvolano il Mediterraneo, più a Nord fino in Svezia, più a Sud sul Nordafrica, alcune centinaia di chilometri ad Ovest di Gibilterra e sul Mar Nero; in presenza di un 40 sistema di registrazione a bordo di grande capacità potrebbe però ricevere dati registrati durante il sorvolo di aree più lontane. Come detto esiste anche la possibilità di utilizzare i satelliti DRS in grado di costituire un ponte tra il satellite orbitante e le stazioni di terra. I dati vengono conservati in appositi archivi soggetti a continua manutenzione, in grado di assicurarne l'integrità per diversi anni. A questo livello si parla di "dati grezzi" ovvero dati che non hanno subito nessun processo di elaborazione, pure necessario a ricavare quei prodotti più sofisticati necessari per l'utilizzo per i fini applicativi. Anche i successivi prodotti di elaborazione (si veda nel seguito) potranno essere a loro volta archiviati. Eventualmente l'archiviazione dei dati viene accompagnata da verifiche sulla loro qualità e dalla generazione di prodotti immagine molto semplici e di basso costo ("quick look"); lo scopo è quello di fornire quelle indicazioni sulla qualità dei dati (ad esempio sulla presenza di copertura nuvolosa) di supporto alla scelta dei prodotti finali da parte degli utenti. Le informazioni sulla disponibilità dei dati grezzi e di eventuali prodotti elaborati, sulla loro localizzazione e qualità dovranno essere gestite attraverso un catalogo centralizzato della missione, uno strumento essenziale per la gestione delle operazioni nel sistema di terra e soprattutto per la gestione del rapporto con l’utente finale. 3.7.3 Sistema di Elaborazione Come detto, per ottenere informazioni utilizzabili nelle applicazioni, è necessario sottoporre i dati ad una serie di processi di elaborazione, eventualmente utilizzanti anche informazioni aggiuntive non provenienti dai sensori di telerilevamento. Questi processi hanno scopi diversi (correzioni geometriche, correzioni radiometriche, estrazioni di parametri geofisici quantitativi, estrazioni di informazioni tematiche, etc.) e sono ovviamente diversificati in funzione del tipo di sensore e della applicazione. Si può genericamente dire che parte di questi processi sono responsabilità delle Agenzie proprietarie del satellite e delle stazioni di terra (ad esempio l'Agenzia Spaziale Europea o ESA, la NASA, etc.), altri invece sono realizzati dagli utenti finali (utenti scientifici, enti, industrie, etc,) o dagli operatori di servizi per il controllo e lo studio dell'ambiente. Nel primo caso parliamo di elaborazione di stazione in cui la filosofia di base è la generazione di prodotti a diversi livelli di elaborazione, ove i livelli più alti tendono a svincolare i dati forniti dalla tecnologia usata (per esempio fornendo immagini in cui siano state eliminate le distorsioni geometriche introdotte dal sensore di bordo o fornendo valori di parametri radiativi calibrati). Nel secondo caso, quello delle elaborazioni di utente, le operazioni fatte sono invece legate al problema applicativo (ad esempio stima di parametri geofisici, elaborazioni d'immagine dedicate all'esaltazione di alcuni contenuti informativi, integrazione con altre informazioni per ottenere mappe tematiche in senso lato, etc). Ovviamente non può essere tracciato un confine netto tra i due tipi di elaborazione ed, in funzione del tipo di sensore e della politica commerciale degli Enti preposti alla generazione e distribuzione dei prodotti, alcuni passi di elaborazione possono essere demandati all'utente finale o effettuati presso le stazioni di terra. Anche i sistemi di elaborazione non sono in genere unici per una missione. La progettazione ed il dimensionamento del Sistema di Elaborazione (o dell’insieme dei sistemi) sono legati ai requisiti di missione. In particolare la scelta degli algoritmi di elaborazione dipende dai requisiti di accuratezza delle informazioni prodotte. Una attività di sviluppo, la taratura e la validazione di tali algoritmi sono molto importanti. I requisiti di carattere operativo che verranno descritti in seguito determinano invece la quantità dei dati che devono essere elaborati ed il tempo di elaborazione ammesso e quindi la potenza di memorizzazione e di calcolo richiesta al sistema. Una delle scelte da operare riguarda la possibilità di elaborazione sistematica (elaborazione di tutti i dati acquisiti almeno fino ad un determinato livello di prodotto) e successiva archiviazione, ovvero di elaborazione su richiesta solo dei prodotti per cui esiste la richiesta di un utente (ed eventualmente la loro archiviazione per far fronte ad una eventuale ulteriore richiesta). La scelta, oltre che basarsi sui requisiti della missione (ad esempio l’eventuale presenza di un utente istituzionale che richieda tutti i dati acquisiti in una determinata zona), si baserà su considerazioni economiche legate alla previsione di domanda e alla valutazione dei vari contributi ai costi 41 operativi, significativamente determinati dal costo del personale di stazione e da altri fattori (costi dei materiali d’archivio, della manutenzione degli apparati, dei materiali di consumo, etc). 3.7.4 Sistema di Distribuzione I prodotti generati presso le stazioni di elaborazione su base sistematica o su specifica richiesta da parte di un utente acquirente dovranno essere trasmessi all'utente. Tale funzione di distribuzione può utilizzare mezzi convenzionali quali trasmissione a mezzo postale di immagini su supporto cartaceo o di nastri magnetici di diverso tipo (storicamente si sono avvicendati i Computer Compatible Tape - CCT, i nastri Exabyte 8 mm o i nastri DAT da 4 mm). Attualmente sono ormai universalmente preferiti i Compact Disk (CD) e stanno prendendo piede i più moderni DVD. La distribuzione dei prodotti può anche avvalersi di mezzi telematici avanzati come ad esempio trasmissione di dati su rete geografica terrestre oppure rilancio di dati via satellite. L’avvento della rete delle reti (Internet) ha rivoluzionato anche questo aspetto del telerilevamento. L’accesso al catalogo dei prodotti, comprese quindi anche le informazioni sui risultati del controllo di qualità (ad esempio copertura nuvolosa nelle immagini ottiche) è in molti casi possibile attraverso un’interfaccia web. L’utente in genere indica la zona geografica di interesse, il periodo di tempo, il livello di prodotto desiderato ed il sistema risponde con i metadati delle disponibilità. La consultazione dei provini o quicklook (un tempo vere e proprie piccole immagini fotografiche, ora file immagine nei formati più in voga ma a risoluzione degradata rispetto ai dati originali) è spesso possibile attraverso il web a seguito delle richieste dell’utente. In taluni casi (prodotti di piccole dimensioni e/o dati di scarso valore commerciale) anche il prodotto finale è disponibile via Internet (mediante accesso ftp). Nel caso di missioni aventi valore commerciale, la vendita dei prodotti avviene attraverso una vera e propria rete di commercializzazione le cui forme si sono andate evolvendo nel tempo. Attualmente l’utente comune si deve rivolgere ad una delle società che fungono da distributori del prodotto (e che a volte mediano anche l’accesso al catalogo o le richieste di specifiche acquisizioni del satellite verso il Centro Utenti) mentre il proprietario del satellite (Agenzia pubblica o impresa privata) conserva il rapporto diretto con utenti particolari (ad esempio Enti di ricerca o di pubblica utilità). Oltre alle funzioni di acquisizione, archiviazione, elaborazione e distribuzione dei dati, il segmento terrestre di una missione spaziale deve anche realizzare altri compiti importanti, particolarmente nelle missioni più moderne caratterizzate da grande flessibilità operativa (sensori diversi e con modalità differenti di acquisizione dei dati). Una delle funzioni più importanti è quella svolta dal Centro di Supporto Utenti. 3.7.5 Centro di Supporto Utenti E’ il sistema che promuove e gestisce a livello centralizzato il rapporto con l’utente finale, eventualmente per il tramite della rete di commercializzazione (distributori). Esso gestisce la richiesta dei prodotti da parte degli utenti interagendo con la stazione di Acquisizione ed Elaborazione (interrogazione del catalogo, gestione della programmazione delle acquisizioni e della generazione dei prodotti) e con il Centro di Supporto (pianificazione delle operazione della piattaforma per l'acquisizione dei dati in funzione delle richieste degli utenti). Fa capo inoltre al Centro di Supporto Utenti il catalogo dei dati e dei prodotti disponibili consultabile nel momento della richiesta da parte dei distributori ed eventualmente direttamente dall’utente finale. Ad esempio la missione ERS dell'ESA, avviata nel 1991, utilizza la stazione di Kiruna (Svezia) come stazione di controllo del satellite gestita dal centro ESA-ESTEC di Noordwijk (Olanda) e come stazione primaria di acquisizione ed elaborazione dei dati. Esiste comunque una rete di stazioni di acquisizione europee ed extra-europee e di centri di elaborazione di precisione dei dati (in Francia, Germania, Inghilterra, Italia). Il Centro di Supporto Utenti è invece ubicato presso l'ESA-ESRIN di Frascati (Italia). 42 3.8 Requisiti di un sistema di EO: campionamento spettro-spazio-temporale 3.8.1 Lo stato del bersaglio Il bersaglio riflette od emette radiazione elettromagnetica verso il sensore con modalità diverse a seconda del suo "stato", ovvero delle "condizioni" (ad esempio umidità del suolo, della vegetazione, percentuale di suolo nudo o vegetato, stato fenologico della vegetazione, energia emessa o assorbita, ecc.) in cui si trova. Le variazioni dello stato del bersaglio si traducono in variazioni dell'intensità, dello stato di polarizzazione e della fase della radiazione emessa o diffusa dal bersaglio stesso. Tali variazioni possono essere di tipo spettrale, spaziale o temporale. Con variazione spettrale si intende la variazione assoluta e relativa dell'intensità della radiazione in funzione della lunghezza d'onda e della direzione di polarizzazione; con variazione spaziale, la variazione dell'intensità della radiazione lungo le tre dimensioni spaziali dell'oggetto e lungo la direzione di propagazione; con variazione temporale, il cambiamento nel tempo dell'intensità della radiazione dell'oggetto osservato. 3.8.2 Il campionamento spettro-spazio-temporale I requisiti di osservazione del sistema di telerilevamento vengono espressi in termine di intervallo di valori coperto dalle misure di una determinata grandezza radiativa e dalla densità di misure in tale intervallo. Con riferimento alla variabilità radiometrica, spaziale, temporale e spettrale vengono definite pertanto le seguenti quantità: Variabilità radiometrica - - Dinamica radiativa: rappresenta l'intervallo del parametro radiativo entro cui il sistema fornisce misure accurate. Ad esempio, esprime l'intervallo di temperatura (in gradi Kelvin) nella misura della temperatura di brillanza di un radiometro, oppure il minimo e massimo valore del coefficiente di retrodiffusione a microonde misurato da un sistema radar. Risoluzione radiometrica: è la sensibilità della misura ovvero la variazione minima nella radiazione che il sistema riesce a rilevare. E' limitata dalle fluttuazioni intrinseche del segnale e dalla presenza di rumore additivo; tali cause di fluttuazioni mascherano evidentemente piccole variazioni dello stato dell'oggetto osservato. Per misure di temperatura di brillanza è espressa come Noise Equivalent Temperature Difference (NEDT) in °K, mentre, per misure di radianza, come Noise Equivalent Reflectance Difference (NEDR) valutata in percentuale. Nelle misure radar è generalmente espressa in decibel. Nel caso di dati digitali (quelli trasmessi a terra dai satelliti) il segnale viene quantizzato secondo un certo numero di livelli; ad esempio un dato binario a 8 bit corrisponde a 256=28 livelli di quantizzazione. L'intervallo di quantizzazione introduce un ulteriore limite alla risoluzione radiometrica non permettendo di rilevare fluttuazioni più piccole di esso stesso (si definisce rumore di quantizzazione la differenza tra il valore vero del segnale ed il valore attribuitogli dopo la quantizzazione). È evidentemente opportuno cercare di limitare il numero di livelli di quantizzazione per limitare il numero di bit da trasmettere a terra, mantenendo però al contempo una capacità di discriminazione compatibile con la risoluzione radiometrica propria del sistema. Tipicamente si fissa un errore di quantizzazione comparabile con la risoluzione radiometrica e solo per questa ragione ha senso caratterizzare la risoluzione radiometrica indicando semplicemente il numero di bit (o il numero dei livelli di quantizzazione). Variabilità spaziale - Copertura: rappresenta l'estensione spaziale dell'area geografica oggetto del rilevamento, ovvero la percentuale coperta della superficie di interesse. Nei sistemi aerei o spaziali che generano immagini del territorio è legata alle dimensioni al suolo della striscia ripresa ed alla possibilità di effettuare riprese successive di aree adiacenti. La larghezza al suolo dell'immagine nella direzione trasversale alla linea di volo si chiama strisciata o swath 43 - oppure, quando espressa in dimensioni angolari, campo di vista (Field of View: F.O.V.) del sistema di ripresa (ad esempio una strisciata di 100 km corrisponde ad un FOV di circa 5,7 gradi di una macchina fotografica posta a 1000 km di quota). Risoluzione geometrica: rappresenta la capacità di rivelare i dettagli e può essere definita come distanza minima a cui due sorgenti puntiformi sono ancora distinguibili. Il sistema di misura infatti fornisce una informazione (ad esempio un valore di radianza) relativa ad una porzione minima di superficie chiamata Instantaneous Field of View (I.F.O.V.) misurato in dimensioni spaziali o angolari; due oggetti all'interno di tale porzione non risulterebbero evidentemente distinguibili. Nel caso di immagini digitali le misure vengono campionate ad intervalli regolari nello spazio; tale intervallo, che rappresenta la dimensione del pixel (picture element), verrà scelto più piccolo della risoluzione del sistema di ripresa (l'IFOV) al fine di non distruggere il dettaglio informativo che questo è in grado di fornire. Si tenga conto di come, viceversa, una diminuzione di tale intervallo (ottenibile con tecniche di ricampionamento) non può generalmente incrementare la risoluzione (piccoli miglioramenti possono essere ottenuti solo con sofisticate tecniche di elaborazione d'immagine). Variabilità spettrale - Numero di canali: numero (e collocazione) delle bande spettrali. Risoluzione spettrale: intervallo di frequenza (o di lunghezza d'onda) relativo a ciascun canale ovvero larghezza in frequenza (o nella lunghezza d'onda) della banda passante nella risposta spettrale di ciascun canale. Ovviamente diversi canali possono avere diverse bande passanti, ma i sistemi multispettrali tendono ad avere, in termini di lunghezza d’onda, la stessa larghezza di banda passante su tutti i canali. Variabilità temporale - Risoluzione temporale: intervallo di tempo intercorrente tra due osservazioni della stessa area. Ha ovviamente senso definirla solo quando l’acquisizione è ripetitiva. 3.9 I requisiti d’osservazione Dalla misura dell'entità delle variazioni spettrali, spaziali e temporali, sarebbe possibile, in linea di principio, valutare le variazioni dello stato del bersaglio. Una volta determinate, infatti, sperimentalmente o da modelli di simulazione, le relazioni intercorrenti tra le variazioni dello stato del bersaglio e le variazioni dell'intensità della radiazione riflessa od emessa, è pensabile che da una misura di queste ultime si possa risalire allo stato del primo. Per alcune applicazioni, quale ad esempio l'individuazione di classi di copertura del suolo, poiché le variazioni dell'intensità della radiazione sono dovute anche a fattori "esterni" ovvero non legati allo stato del bersaglio (quali condizioni d'illuminazione, concentrazione degli assorbitori atmosferici, ecc.), ai fini della caratterizzazione dello stato del bersaglio stesso, anziché misure dell'intensità di radiazione, si preferiscono utilizzare quantità normalizzate ricavate da tali misure, quali la riflettività superficiale e le sue variazioni, che sono una caratteristica dell'oggetto da osservare e non vengono influenzate da tali fattori esterni. La normalizzazione della radiazione misurata al sensore si ottiene generalmente correggendo quest'ultima (mediante elaborazioni più o meno complesse), di quantità (fattori di normalizzazione) legati alla geometria di ripresa ed allo stato dell'atmosfera, in modo tale che la quantità risultante (normalizzata) sia quanto più possibile una grandezza caratteristica del bersaglio (riflettanza spettrale, albedo, indici di verde, ecc.) e che vari esclusivamente con il variare dello stato di quest'ultimo. La valutazione dei fattori di normalizzazione non è sempre agevole. I fattori che limitano l'intervallo spettrale, di angolo di vista, spaziale e temporale di misura possono essere di tipo ambientale (legati al livello di conoscenza dei fattori di normalizzazione) e tecnologici (sensori e configurazione orbitale). Dal livello di compromesso raggiungibile tra i requisiti d'osservazione e le capacità osservative dei sensori è possibile individuare le applicazioni per le quali si possono usare con profitto i dati di telerilevamento. 44 I requisiti spettrali di osservazione sono funzione delle caratteristiche spettrali di riflettività del bersaglio stesso, delle variazioni di quest'ultima in funzione delle caratteristiche fisico-chimiche degli elementi componenti il bersaglio, in relazione al tipo di osservazione. È ben noto ad esempio che, nel caso sia necessario distinguere terreno nudo da terreno vegetato, è necessario misurare la radiazione nel visibile e nel vicino infrarosso, in intervalli di frequenza cioè, in cui la differenza di riflettività tra terreno nudo e vegetazione è massima. Nell'ipotesi di misure tendenti alla individuazione dello stato fenologico di culture è opportuno raccogliere dati in intervalli dello spettro elettromagnetico in cui la variazione della riflettività con lo stato fenologico è alta. Per quanto riguarda il campionamento spazio-temporale i requisiti imposti dall'applicazione sono determinati dalla variabilità temporale dello stato del bersaglio e dalla sua scala spaziale. Ad esempio, se consideriamo applicazioni di carattere meteorologico, esse richiedono l'osservazione di strutture di grandi dimensioni (ad esempio corpi nuvolosi, fronti) caratterizzate da una evoluzione temporale estremamente veloce. Pertanto saranno stringenti i requisiti di campionamento temporale e molto meno quelli di risoluzione geometrica. All'opposto possono trovarsi le osservazioni geologiche interessate a variazioni generalmente lente nel tempo, ma a dettagli spaziali fini (per rilevare strutture geologiche, variazioni nel tipo di suolo, etc.). 3.10 I vincoli tecnologici 3.10.1 Tecnologie di bordo e sensori Le risoluzioni radiometrica, spaziale e spettrale sono tra loro strettamente legate. In particolare l'osservazione dell'oggetto per tempi più lunghi permette di migliorare la risoluzione radiometrica attraverso operazioni di media del segnale; in tal modo però, per effetto del movimento di scansione dell'immagine, l'area minima osservata associata a tale tempo di integrazione aumenta, ovvero peggiora la risoluzione geometrica. Inoltre un aumento della larghezza di banda di un canale migliora la risoluzione radiometrica; infatti l'osservazione durante il tempo di integrazione di un segnale su una banda di frequenza più ampia corrisponde ad un numero più grande di campioni del segnale che possono essere mediati riducendo pertanto le fluttuazioni intrinseche nel segnale stesso. Si può dimostrare che la risoluzione radiometrica è legata alla radice quadrata del prodotto della banda B per il tempo di integrazione τ. Anche IFOV e FOV sono correlate tra loro e alla quota di ripresa; la risoluzione al suolo è pari, per osservazioni verticali (escludendo particolari sensori quali il radar a vista laterale), al prodotto dell'IFOV angolare per la quota H; a quote più basse pertanto migliora generalmente la risoluzione geometrica ma allo stesso tempo si ha una diminuzione della strisciata. La possibilità, infine, di calibrare in modo continuo, durante la missione, le tensioni elettriche in uscita dai sensori in modo tale da ottenere curve di taratura continuamente aggiornate, che possano essere utilizzate per ottenere dati quantitativi di radianza, è di fondamentale importanza per molte applicazioni. Le curve di taratura (relazione tra i segnali elettrici in uscita dai sensori con i valori di intensità di radiazione) ottenute dalle calibrazioni effettuate a terra non possono essere generalmente applicate ai dati raccolti durante il volo principalmente a causa della "deriva" dei sensori durante la missione. Per ovviare a ciò, alcuni sistemi di telerilevamento spaziale comprendono "corpi di calibrazione" capaci di emettere, ad intervalli regolari, livelli noti di intensità di radiazione sui quali confrontare le tensioni elettriche in uscita dai sensori, da cui ottenere curve di taratura continuamente aggiornate. Dal punto di vista radiometrico l'accuratezza della misura è legata alla presenza di sistemi di calibrazione dei dati. Generalmente ciò è ottenuto confrontando l'uscita del sensore con le misure da esso effettuate su bersagli dalle proprietà di emissione o di riflessione conosciute. Si distinguono i metodi di calibrazione interna, in cui le sorgenti di riferimento sono all'interno del sensore, e metodi di calibrazione esterna in cui esse sono esterne e costituiscono un particolare bersaglio. La calibrazione esterna permette di correggere fattori di errore non legati necessariamente allo strumento (ad esempio dovuti alla piattaforma o all'atmosfera). Solitamente i dati di calibrazione 45 interna vengono raccolti con continuità e continuamente elaborati nella fase di generazione dei prodotti per gli utenti. La calibrazione esterna viene invece effettuata saltuariamente durante campagne specifiche. Dal punto di vista geometrico ci riferiamo all'accuratezza di localizzazione geografica della misura. Nel caso di sensori per immagini può interessare, al posto dell'accuratezza di localizzazione assoluta, il livello di distorsioni interne dell'immagine, riferite genericamente ad un sistema di coordinate geografiche. Dal punto di vista delle tecnologie della piattaforma si deve tener presente come la posizione della stessa, se pure determinata con sistemi di controllo di orbita e di assetto, non coincide mai perfettamente con i valori nominali. In particolare gli errori sulla posizione e sull'assetto hanno un effetto sulla fedeltà geometrica delle immagini ed in genere sulla localizzazione geografica del dato rilevato. Ne consegue una limitazione sulle stesse caratteristiche di risoluzione geometrica nel caso in cui si abbiano perturbazioni dell'assetto significative. I limiti di capacità di trasmissione a terra dei dati dal satellite influenzano poi la risoluzione spaziale (numero di pixel dell'immagine), le caratteristiche spettrali (numero di canali) e la risoluzione radiometrica (livelli di quantizzazione), tutte grandezze che determinano il volume di dati (misurato in bit) da inviare nell'unità di tempo (bit rate). 3.10.2 I fattori ambientali Il principale fattore ambientale che limita il soddisfacimento dei requisiti spettrali di osservazione è l'atmosfera terrestre, eccetto naturalmente nel caso in cui l'osservazione non sia diretta agli strati superiori dell'atmosfera. Quest'ultima è capace di attenuare e ridistribuire in varie direzioni la radiazione proveniente dal bersaglio, in modo variabile a seconda della concentrazione di alcuni suoi componenti gassosi e particellari (aerosol) e della lunghezza d'onda. La limitazione al soddisfacimento dei requisiti spettrali di osservazione è causata da tre modalità di azione dell'atmosfera sulla radiazione: la prima consiste nell'assorbimento quasi-totale in particolari zone dello spettro elettromagnetico, di fatto quindi proibite per il telerilevamento aerospaziale; la seconda consiste nell'introdurre, attraverso i fenomeni dell'assorbimento, dell'emissione e della diffusione, nel campo di radiazione proveniente dal bersaglio, modificazioni altamente variabili nello spazio e nel tempo a seconda della concentrazione di alcuni suoi componenti gassosi e particellari (aerosol, pioggia) e della lunghezza d'onda. La limitazione al soddisfacimento dei requisiti dipende dalla concentrazione dei componenti atmosferici, la cui entità non è sempre nota con sufficiente accuratezza. Tali fenomeni di assorbimento e diffusione sono particolarmente accentuati in presenza di formazioni nuvolose, le quali possono intercettare totalmente la radiazione proveniente dalla superficie terrestre nel campo delle frequenze ottiche. Le nubi invece non costituiscono un ostacolo significativo nel campo delle microonde utilizzato per osservazioni radar. 3.11 Alcune ulteriori definizioni - - Nadir: è il punto che si trova esattamente sotto il satellite, vale a dire il punto di intersezione tra la superficie terrestre e la linea che congiunge il centro della Terra con il centro del satellite; con lo stesso nome si indica anche la direzione dal satellite verso il punto di nadir. Per i satelliti in orbita bassa, la velocità del punto nadir è dell’ordine dei km/s. Strisciata: si dice strisciata (swath) sia la striscia di superficie terrestre osservata dal satellite in un passaggio, sia spesso la larghezza della striscia stessa. Periodo: il periodo di un satellite è il tempo che intercorre tra due passaggi sullo stesso nadir ed è determinato dalle caratteristiche orbitali del satellite e dalla posizione del punto considerato. 46 - Periodo di rivisita: è il tempo che trascorre tra due passaggi nei quali è possibile osservare lo stesso punto, ed è determinato anche dalle caratteristiche del sensore. Trasmissione a Terra: dato che il satellite non rientra a terra durante tutta la sua vita utile, occorre che i dati acquisiti siano spediti a terra via radio. La trasmissione può avvenire direttamente dal satellite verso le stazioni riceventi a terra o, quando questo non sia possibile, tramite ritrasmissione da parte di altri satelliti (DRS). 3.12 Caratteristiche delle immagini Le immagini che contengono i dati telerilevati sono ben più di comuni fotografie; esse sono infatti insiemi di misurazioni quantitative di energia EM. I dati sotto forma di immagine sono memorizzati in un formato regolare a griglia (righe e colonne). I singoli elementi di questa griglia sono detti pixel, che è un’abbreviazione di “picture element”. Per ogni pixel, le misure sono immagazzinate come Numeri Digitali (Digital Number, DN). Ogni pixel risulta così caratterizzato da una terna di valori (M,N,I), dove M e N sono numero di riga e numero di colonna che individuano la sua posizione all’interno dell’immagine digitale, e I è un numero indice correlato alla grandezza rilevata (spesso si tratta della intensità della radianza al suolo). Questi valori interi positivi sono i DN assegnati ai pixel dell’immagine e rappresentano, in realtà, la grandezza misurata nella porzione di superficie terrestre coperta dal pixel considerato (generalmente la radianza spettrale, espressa in mW m-1 sr-1 µm-1). Le immagini da satellite in commercio riportano, all’interno di file ausiliari, i dati per convertire il valore digitale del pixel dell’immagine in valori di radianza. La formula per tale conversione è la seguente: L∗n = a 0 + a1 ⋅ PV (3.2) dove Ln* = la radianza apparente a0 = polarizzazione od offset a1 = guadagno o gain PV = valore numerico del pixel La dimensione dei pixel influisce sulla riproduzione dei dettagli della scena ed è determinata dall’altezza del sistema di ripresa e dalle sue caratteristiche di funzionamento, in particolare dal campo di vista istantaneo (IFOV = Instantaneus Field Of View). Altro elemento importante è il numero di valori discreti utilizzati per rappresentare la misura dell’intensità della radianza della scena, che è invece una grandezza di tipo continuo; per esempio se per misurare questa informazione si usasse un solo bit, si potrebbero rappresentare solo due livelli di radianza, 0 e 1, mentre con 8 bit si possono rappresentare 256 differenti livelli di intensità, da 0 a 255. Tipicamente, per ogni intervallo di lunghezze d’onda rilevato, viene immagazzinato uno strato separato, che prende il nome di banda. 47 Fig. 3. 9 – Sistema di coordinate dell’immagine definite da righe e colonne In questo caso ad ogni pixel è associato non un solo valore, ma un vettore di valori, uno per ognuna delle bande considerate. La qualità delle immagini telerilevate è determinata soprattutto dalle caratteristiche del sistema costituito dal sensore e dalla piattaforma. Tra tali caratteristiche ricordiamo la risoluzione spettrale, la risoluzione radiometrica e quella geometrica, e la risoluzione temporale, le cui definizioni sono state date nel § 3.8.2. Le caratteristiche delle immagini telerilevate sono: - dimensione dell’immagine: il numero di righe e colonne in una scena - numero di bande: il numero di lunghezze d’onda immagazzinate. Per esempio, 1 nel caso di fotografie in bianco e nero, 4 nel caso di immagini SPOT multispettrali, 256 nel caso di dati di spettroscopia. - quantizzazione: il formato usato per immagazzinare le misure di energia. Tipicamente, per ogni misura si utilizza un byte (8 bit), che rappresenta i valori discreti compresi tra 0 e 255. Questi valori sono noti come Digital Numbers (DN). Usando dei parametri di calibrazione specifici per il sensore utilizzato, è possibile convertire i valori dei DN nella potenza incidente misurata. - dimensione del pixel a terra: la copertura dell’area corrispondente ad un pixel sul terreno. La dimensione di un pixel a terra è legata alla risoluzione spaziale, ma non è esattamente la stessa cosa. La dimensione dell’immagine, il numero di bande e la quantizzazione sono le informazioni necessarie per calcolare lo spazio su disco occupato da un dato telerilevato: nel caso di un’immagine SPOT multispettrale essa richiede: 3000 (colonne) × 3000 (righe) × 4 (bande) × 1 (byte) = 36 Mbyte di memoria. 3.12.1 Relazioni tra risoluzioni Uno dei principali fattori limitanti nell’acquisizione dei dati telerilevati è il così detto RAPPORTO SEGNALE/RUMORE, o rapporto tra la potenza del segnale informativo e la potenza del rumore (o segnale indesiderato), indicato con la sigla SNR. L’estrazione dei dati telerilevati risulta tanto più agevole quanto più è alto il SNR; al di sotto di un certo livello di SNR non è più possibile recuperare l’informazione contenuta nei dati. A parità di altri fattori, si può dire che al miglioramento di una delle risoluzioni si accompagna una riduzione del rapporto segnale/rumore. 3.12.2 Agire sulle risoluzioni - la risoluzione geometrica può essere variata cambiando l’altezza del sensore, ma abbassare il sensore significa restringere il campo visivo; 48 - la risoluzione spettrale di solito è determinata dal numero degli elementi sensibili diversi che compongono il sensore; si riferisce alla capacità di discriminare le diverse lunghezze d’onda delle onde elettromagnetiche ricevute. In base al numero di bande che il sensore può acquisire, si distinguono sistemi: MONOSPETTRALI o pancromatici; MULTISPETTRALI (da 2 a poche decine di bande); IPERSPETTRALI (molte decine di bande fino a migliaia di bande). − la risoluzione radiometrica dipende dalla sensibilità dei sensori stessi; − la risoluzione temporale è determinata dal periodo di rivisita e dalle capacità di puntamento del sensore; anche qui però ci sono dei vincoli dovuti alle caratteristiche orbitali ed a quelle di angolo di vista e capacità di puntamento del sensore. 49 CAPITOLO 4 IL TELERILEVAMENTO OTTICO: LA FOTOGRAFIA AEREA 4.1 Introduzione Elemento fondamentale dei sistemi operanti nel visibile e nell'infrarosso è il sistema ottico (telescopio). Esso è costituito da un sistema di lenti, da un diaframma (che determina l'apertura dell'obiettivo), e da un otturatore (che determina il tempo di esposizione). Fig. 4.1 – Schema base di un sistema ottico Per ricavare alcune relazioni fondamentali (ed estremamente approssimate) che definiscono le caratteristiche di questi sistemi si fa riferimento ad uno schema molto semplice (Fig. 4.1). Un sistema ottico (una lente) ha la proprietà di far convergere raggi ottici paralleli (provenienti da un oggetto situato a distanza infinita) in un punto posto ad una distanza dalla lente stessa che viene detta lunghezza focale. Quando l'oggetto si trova ad una distanza finita la radiazione generata da ogni suo punto converge ad una distanza inferiore (che continueremo tuttavia a confondere con la lunghezza focale) generando una immagine virtuale dell'oggetto che risulta ribaltata. Ponendo un elemento sensibile sul piano in cui si genera l'immagine virtuale essa viene registrata. L'elemento sensibile può essere una pellicola fotografica (sistemi fotografici) oppure una serie di rivelatori fotosensibili che generano un segnale elettrico proporzionale all'energia che li investe (sistemi elettro-ottici). I primi presentano diversi vantaggi per quanto riguarda la risoluzione geometrica, la semplicità di realizzazione e l'affidabilità, l'efficienza di memorizzazione dei dati; tuttavia essi richiedono il recupero della pellicola ed il suo trattamento fotografico per cui trovano applicazioni nei sistemi aerotrasportati o nelle missioni spaziali con presenza dell'uomo (ad esempio Space Shuttle). I sistemi elettro-ottici si prestano invece alla trasmissione dei segnali elettrici prodotti e sono una soluzione quasi obbligata per le missioni spaziali con piattaforme non presidiate dall'uomo e non recuperabili; essi inoltre offrono il vantaggio della sensibilità fino all'infrarosso termico (le pellicole all'infrarosso in realtà sono sensibili solo all'infrarosso vicino) e della disponibilità di una uscita numerica che, attraverso opportuni sistemi di calibrazione, può condurre a valutazioni quantitative di parametri radiativi. 50 Fig. 4.2 – Il principio della macchina fotografica e il campo di vista (FOV) In base alla geometria semplificata riportata in Fig. 4.1 la dimensione della pellicola (o della superficie coperta dai rivelatori) definisce la porzione di immagine registrata. Il campo di vista (FOV) angolare del sistema è il rapporto tra tale dimensione e la lunghezza focale (F). La scala dell'immagine fotografica registrata è il rapporto tra la lunghezza focale e la quota di ripresa (H). La risoluzione spaziale di un sistema fotografico è legata alle caratteristiche del sistema ottico ed al potere risolvente della pellicola. Nel caso di sistemi elettro-ottici ogni elemento rivelatore di dimensione lineare D fornisce un segnale mediato su un areola della superficie terrestre (IFOV lineare) ovvero proveniente da un angolo (IFOV angolare) che possono essere determinati dal semplice schema in Fig. 4.2: D (4.1) IFOVangolare = 2 tan − 1 2F Per angoli piccoli, ossia minori di 20° (che è generalmente sempre vero per l’IFOV), la tangente inversa può essere approssimata in maniera accurata tenendo conto del fatto che: tan −1 ( x) ≈ x se x << 1 (4.2) D IFOVangolare = 2 ⋅ 2F (4.3) per cui e quindi: IFOVangolare = D IFOVlineare = DH F (4.4) (4.5) F In realtà tale valutazione della risoluzione è ottimistica e sussistono molte cause di degradazione del potere risolvente del sistema. In particolare citiamo le caratteristiche dell'ottica, gli effetti delle 51 vibrazioni meccaniche del sistema e la necessità di integrare temporalmente il segnale elettrico proveniente da un elemento dell'immagine in concomitanza con il moto della piattaforma o della scansione (come si vedrà successivamente). Pertanto l'effettiva risoluzione viene rappresentata da una quantità detta E.I.F.O.V. (Effective Instantaneous Field Of View) che risulta sempre maggiore dell'IFOV. Fig. 4.3 – Campo di vista istantaneo (IFOV e EIOFV) 4.2 La fotografia aerea La fotografia aerea viene usata sin dall’inizio del ventesimo secolo per ottenere dati spaziali per molteplici applicazioni e rappresenta dunque la più vecchia e comune tecnica di telerilevamento. La fotogrammetria è la tecnica e la scienza di ottenere misurazioni e informazioni spaziali da foto o dati contenuti in immagini. A tutt’oggi, la maggior parte delle mappe topografiche viene realizzata attraverso l’uso di foto aeree. Per l’acquisizione di queste foto, vengono usati dei sensori detti fotocamere, composti fondamentalmente da un sistema di lenti (detto anche OTTICA) che focalizza un’immagine della zona osservata sulla pellicola sensibile. Le caratteristiche dell’immagine acquisita dipendono dalla geometria del sistema e dalle caratteristiche della pellicola, che è generalmente sensibile ad una gamma di lunghezze d’onda comprese tra 300 e 900 nm, con una preferenza (maggiore sensibilità) per le lunghezze d’onda maggiori di 500 nm a causa della loro maggiore robustezza alla diffusione atmosferica. Si possono distinguere due tipi di fotografia aerea; quella verticale (a) e quella obliqua (b). 52 Fig. 4.4 - Fotografia verticale (a) e obliqua (b) La fotografia verticale, che è quella più utilizzata, viene realizzata montando una fotocamera sul pavimento di un aereo. In pratica questo tipo di acquisizione viene realizzato con l’asse focale diretto verso il basso. L’immagine risultante è abbastanza simile ad una mappa e ha una scala che è approssimativamente costante lungo tutta l’immagine stessa. In genere, la fotografia aerea verticale è realizzata in modalità stereo, che consiste nell’acquisire foto successive con un grado di sovrapposizione per pemettere l’interpretazione e le misurazioni sui dati stessi. Le foto verticali sono utilizzate quando l’informazione spaziale conta di più di quella spettrale; infatti, in generale, questi dati hanno risoluzione spettrale scarsa o sono addirittura pancromatiche. La fotografia obliqua può essere realizzata usando una fotocamera tenuta in mano e puntando fuori dal finestrino dell’aereo (aperto, ovviamente). La scala di una foto obliqua varia dal primo piano allo sfondo. Tale variazione di scala complica le misure delle posizioni degli oggetti nell’immagine, per cui la fotografia aerea obliqua non è utilizzata, se non raramente, per scopi relativi alla stesura di mappe. Ciò nonostante, va detto che le immagini oblique possono essere utili qualora si vogliano osservare, ad esempio, i lati degli edifici, o si voglia coprire una vasta area ed evidenziarne il rilievo. Fig. 4.5 - Foto verticale (a) e obliqua (b) degli edifici ITC 53 4.3 Struttura di una fotocamera Quello riportato in Fig. 4.6 è lo schema di una fotocamera aerea. Le grosse dimensioni della fotocamera stessa sono dovute alla necessità, da parte di quest’ultima, di acquisire immagini di aree vaste con un’alta risoluzione spaziale. Fig. 4.6 – Componenti principali di una macchina fotografica aerea Le moderne fotocamere per rilevamento producono un negativo delle dimensioni di 23 cm × 23 cm; su una singola pellicola possono essere registrate fino a 600 fotografie. 4.3.1 Lente conica La lente conica è probabilmente l’oggetto più importante e più costoso della fotocamera. Tale lente è intercambiabile, per cui i produttori realizzano un certo numero di tipi di lenti, ognuna delle quali ha una lunghezza focale diversa. La lunghezza focale determina l’angolo di vista della fotocamera. Più lunga è la focale, più stretto è l’angolo di vista. Le lenti sono solitamente disponibili nelle seguenti lunghezze focali standard: 610 mm (angolo stretto), 305 mm (angolo normale), 210 mm e 152 mm (grandangolo), e 88 mm (supergrandangolo). La lente più usata è quella con lunghezza focale di 152 mm. Fig. 4.7 – La lente conica comprende un sistema di lenti, una struttura piana focale, un otturatore, un diaframma, e dei filtri colorati La lente è la parte della fotocamera che si occupa di “proiettare” l’immagine ottica sulla pellicola. Di conseguenza, l’accuratezza con cui viene effettuata la proiezione dipende dalla qualità della lente. Va detto però che, anche quando vengono usate lenti di ottima qualità, possono verificarsi 54 delle distorsioni, che benchè impercettibili all’occhio umano, inficiano la bontà delle operazioni fotogrammetriche nel caso in cui siano richieste elevate precisioni (al µm). 4.3.2 Contenitore della pellicola e dati ausiliari La fotocamera è munita di un sistema in grado di registrare varie informazioni sul lato del negativo, come per esempio l’identificatore della missione, la data e l’ora, l’altezza di volo e il numero della sequenza. Fig. 4.8 – L’annotazione di dati ausiliari su una fotografia aerea Viene utilizzato un piano con una serie di fori collegati ad un condotto a vuoto pneumatico per appiattire la pellicola nell’istante dell’esposizione; in tutti gli angoli della pellicola vengono registrati i cosi detti punti fiduciali o fiducial marks, necessari per determinare il centro ottico delle foto, senza il quale non è possibile allineare le foto per la stereovisione. I punti fiduciali sono necessari inoltre per registrare la posizione precisa della pellicola in relazione al sistema ottico, ciò che è richiesto nei processi di fotogrammetria. 4.4 Caratteristiche spettrali e radiometriche La registrazione fotografica è un processo che comprende molti passi intermedi tra i quali l’esposizione della pellicola e un processo chimico che è lo sviluppo. Fig. 4.9 – Sezione di una pellicola fotografica che mostra lo strato di emulsione con i cristalli ologenuri di argento Gli strati della pellicola sono (procedendo dall’alto verso il basso): il rivestimento superiore, l’emulsione con grani fotosensibili, lo strato di separazione, lo strato di base e lo strato antialone. Il tipo di emulsione utilizzata determina le caratteristiche spettrali e radiometriche della fotografia. Si definiscono: − Sensibilità spettrale: la gamma di lunghezze d’onda alle quali la pellicola è sensibile; 55 − Sensibilità radiometrica: quanta energia serve per indurre un determinato cambiamento nell’emulsione. 4.5 Fotografia monocromatica La fotografia è un processo multi-passo che comprende l’esposizione, alcuni processi chimici e infine la stampa. Durante l’esposizione nella fotocamera un’immagine ottica della scena originale viene proiettata dalla lente sulla pellicola. Questa immagine non è altro che un campione bidimensionale di luce di intensità variabile. L’illuminazione della pellicola fa sì che i cristalli presenti nell’emulsione assorbano i fotoni. L’assorbimento dell’energia causa la formazione di un certo numero di ioni d’argento vicino alla superficie del cristallo che devono essere convertiti in atomi di argento. Più grande è il numero di fotoni assorbiti, più grande è il numero di atomi d’argento che viene formato. Comunque, nel breve periodo dell’esposizione viene creato un numero di atomi di argento insufficiente per causare un cambiamento visibile nell’aspetto dei cristalli. Questo processo è noto come “formazione dell’immagine latente”. Quando la pellicola viene sviluppata, nei cristalli che contengono l’immagine latente si forma una quantità più grande di atomi di argento, grazie al processo di sviluppo. Di conseguenza, queste aree della pellicola appaiono più nere di quelle in cui non è stata ricevuta alcuna esposizione. L’argento non sviluppato viene successivamente rimosso attraverso l’uso di una soluzione fissante e quindi lavato via dallo strato di emulsione. L’immagine fotografica risultante è chiamata negativo perché in essa le aree luminose appaiono nere e viceversa. Fig.4.10 – Pellicola in negativo e stampa in positivo; le zone luminose (bianche) sul negativo risultano nere (verde) sul positivo Per ottenere l’immagine positiva il negativo deve essere stampato fotograficamente. Questa operazione può essere fatta in due modi, o con un processo di contatto o con un ingrandimento ottico. Il materiale usato nelle stampe fotografiche ha uno strato di emulsione simile a quello della pellicola, ma di solito si trova su una base di carta. Nel processo di stampa, il negativo è illuminato da una sorgente di luce, e in base alla quantità di argento presente in ogni area, più o meno luce riesce a passare attraverso lo strato di metallo. 4.6 La fotografia a colori veri e quella a infrarosso o falsi colori La pellicoli a colori veri è resa sensibile ai colori primari stendendo tre strati, ognuno sensibile ad un colore primario diverso, su una base comune. Ogni strato dunque registra solo uno dei colori 56 primari; come si vede dalla Fig. 4.11, lo strato superiore è sensibile alla luce blu; uno strato di filtro giallo assorbe qualsiasi rimanenza di luce blu impedendo che essa arrivi agli strati inferiori. Lo strato medio è sensibile alla luce verde mentre l’ultimo è sensibile al rosso. Fig. 4.11 – Gli strati di emulsione di una pellicola a colori veri Nel processo di sviluppo l’agente di sviluppo riduce l’argento esposto a metallo e vengono prodotte le tonalità di colore. Durante lo sviluppo in ognuno dei tre strati vengono prodotte delle tonalità sottrattive. Questi strati producono una quantità di tonalità di colori complementari che è proporzionale alla luminosità del colore primario originale. Fig. 4.12 – Il mondo reale; negativo a colori e corrispondente immagine positiva a colori La pellicola a falsi colori del tipo infrarosso colore comprende tre strati: uno strato sensibile al verde, uno sensibile al rosso e uno sensibile all’infrarosso vicino. La pellicola a falsi colori è sensibile alle lunghezze d’onda dell’infrarosso vicino ed è particolarmente utile per registrare informazioni relative alla vegetazione, mentre la pellicola a colori veri è più utile per le mappature topografiche e relative all’urbano. Le foto a colori (veri o IR) rappresentano un caso di rilevazione multibanda, che tuttavia è limitato a tre bande. Separando le diverse lunghezze d’onda tramite un sistema di lenti, prismi e filtri, è possibile fotografare più di tre bande contemporaneamente, utilizzando più pellicole. Va ricordato però come non sia affatto agevole effettuare un’interpretazione manuale di dati rilevati su più di tre bande. 57 4.6.1 Confronto Fig. 4.12 – Confronto tra una foto pancromatica (in alto a sinistra), una in bianco e nero nell’infrarosso (in basso a sinistra), una in colori veri (in alto a destra) e una in falsi colori nell’infrarosso (in basso a destra); le foto sono relative alla stessa area 4.7 Le caratteristiche spaziali Le proprietà più importanti nella fotografia aerea sono due, cioè la scala e la risoluzione spaziale; tali proprietà sono determinate dalle caratteristiche del sensore (soprattutto della lente e della pellicola) e della piattaforma (l’altezza di volo). 4.7.1 La scala Si dice “scala” il rapporto tra una lunghezza sulla carta e la lunghezza corrispondente nella realtà. Indicata con s, è definita come il rapporto tra l’altezza di volo H e la lunghezza della focale della lente f: H s= (4.6) f Come si può ben vedere, la stessa scala si può ottenere combinando opportunamente diverse altezze di volo e lunghezze della focale. Se la lunghezza focale della lente diminuisce mentre l’altezza di volo rimane costante, allora: - Il fattore di scala s dell’immagine aumenta e la dimensione dei dettagli individuali nell’immagine diventa più piccola. - La copertura del suolo aumenta. - Il campo di vista angolare aumenta e la prospettiva dell’immagine cambia. 58 La scala si indica con il simbolo 1: x, dove x rappresenta la lunghezza corrispondente alla lunghezza 1 sulla carta (con unità di misura omogenee). Lo stesso oggetto reale appare tanto più piccolo sulla carta quanto più grande è il numero x. Si usa dire che per numeri piccoli si ha una “grande scala” mentre per numeri numeri grandi si una “piccola scala”, anche se il passaggio tra i due non è netto. 4.7.2 La risoluzione spaziale Con questo termine si intende la capacità di distinguere piccoli oggetti adiacenti. Per le pellicole monocromatiche varia da 40 a 800 linee/mm, ma la risoluzione effettiva del sistema dipende anche da altri diversi fattori: − Il fattore di scala s; − Qualità dell’ottica; − Struttura dei grani dell’emulsione; − Contrasto intrinseco dell’oggetto osservato; − Diffusione atmosferica; − Moto dell’apparecchiatura. 4.8 Le missioni di fotografia aerea 4.8.1 La pianificazione della missione Quando un progetto di mappatura richiede delle fotografie aeree, una delle prime cose da fare è selezionare il fattore di scala richiesto per le foto, il tipo di lente da usare, il tipo di pellicola da usare e la percentuale di sovrapposizione richiesta. Normalmente, la sovrapposizione in avanti richiesta è intorno al 60%, mentre quella laterale è del 20%. La Fig. 4.13 mostra un’area di indagine coperta da un certo numero di linee di volo. La data e l’ora di acquisizione andrebbero considerate in riferimento alla stagione di coltivazione, alle condizioni di luce e agli effetti d’ombra. Fig. 4.13 – Esempio di area di rilevamento per fotografia aerea; si noti che le fotografie si sovrappongono in avanti e nella direzione di volo Una volta stabilito il fattore di scala s si possono calcolare i seguenti parametri: − La quota del volo; − La copertura del terreno per la singola foto; − Il numero delle linee di volo; − Il numero di foto richieste lungo una singola linea di volo. 4.8.2 L’esecuzione della missione Durante l’esecuzione della missione, il navigatore osserva alternativamente il terreno e una mappa di volo; li confronta e suggerisce al pilota le eventuali correzioni; le principali sono: 59 − La correzione contro l’effetto del vento (occorre anche riorientare la fotocamera; in situazione di equilibrio l’orientamento potrebbe non essere più quello corretto); − La regolazione della velocità dell’aeromobile o dell’intervallo tra due esposizioni successive per mantenere il grado di sovrapposizione desiderato tra riprese adiacenti. 4.8.3 Le tecnologie di supporto Nel corso della missione, per semplificare il lavoro degli operatori e per migliorare i risultati, possono essere impiegati diversi dispositivi tecnologici: − GPS e programmi per la pianificazione della missione; − Supporto della fotocamera stabilizzato tramite giroscopio; − Compensazione del moto di avanzamento: durante lo scatto, si fa muovere meccanicamente la pellicola seguendo il movimento apparente dell’immagine dovuto al moto della piattaforma; così facendo si migliora il contrasto evitando che le foto escano “mosse”. Va detto inoltre che stanno cominciando a diffondersi fotocamere per riprese aeree non basate su pellicola sensibile, ma su CCD. 60 CAPITOLO 5 GLI SCANSORI MULTISPETTRALI Gli scansori multispettrali misurano l’energia elettromagnetica riflessa esplorando la superficie della Terra. Come suggerito dal nome “multispettrale”, queste misure vengono effettuate per diversi intervalli dello spettro elettromagnetico. Gli scansori multispettrali vengono usati nel telerilevamento sin dal 1972, anno in cui fu messo in orbita il primo satellite della famiglia LandSat; le applicazioni principali di tali scansori sono la mappatura della copertura del suolo e della vegetazione, la mineralogia delle superfici e lo studio delle superfici idriche. 5.1 La scansione In alternativa all’acquisizione contemporanea di una intera scena (come viene fatto nella fotografia aerea), si può acquisire un pixel o un gruppo di pixel per volta e comporre la scena ripetendo l’acquisizione. L’acquisizione di un pixel o di una striscia di pixel per volta è realizzata per via elettronica (non si usa, cioè, la pellicola fotografica). 5.1.1 Scansione trasversale Comporta l’acquisizione di uno o più pixel per volta formando altrettante linee in direzione trasversale rispetto alla linea di volo, grazie alla rotazione di uno specchio; la strisciata è formata accostando linee (o gruppi di linee) successive, seguendo il movimento della piattaforma. Fig. 5.1 – Esempio di funzionamento di uno scansore trasversale Gli scansori trasversali usano rivelatori allo stato solido per misurare l’energia elettromagnetica incidente. L’ottica può essere composta da lenti o da griglie selettive che mandano ogni frequenza verso il relativo rivelatore. La gamma di radianze che il sensore può gestire si chiama dinamica; l’uscita quantizzata del sensore prende il nome di Digital Number (DN). La minima differenza di ingresso che può essere discriminata prende il nome di risoluzione radiometrica; di solito si suddivide la dinamica in 28, 210 o 216 livelli discretizzati. Vantaggi: − Serve un numero inferiore di sensori; questo comporta una migliore omogeneità delle misure e minori problemi di calibrazione. Svantaggi: − Occorre un meccanismo aggiuntivo in movimento, che peggiora l’affidabilità e può introdurre vibrazioni; 61 − Si ha poco tempo a disposizione per registrare il singolo pixel; questo significa che è difficile ottenere alta potenza di segnale, e quindi ottenere alti livelli di SNR. 5.1.1.1 La geometria Detto IFOV il campo di vista istantaneo (Instantaneous Field of View) e FOV (Field of View) il campo di vista, sia D il diametro della zona istantaneamente osservata (misurato in metri), β l’apertura dello strumento (misurata in radianti) e H l’altezza dello strumento (misurata in metri); si ha allora: D = β ×H (5.1) 5.1.2 Scansione longitudinale o “pushbroom” Questo tipo di scansione comporta l’acquisizione di una riga di pixel per volta, disposta in direzione trasversale rispetto al moto del sensore. Lo spostamento da una linea alla successiva è dovuto al moto della piattaforma; non servono infatti altre parti in movimento. Un esempio di questo tipo di scansione è il sensore HRV dello SPOT. Fig. 5.2 – Esempio di funzionamento di uno scansore longitudinale Vantaggi: − Ogni sensore ha più tempo a disposizione per registrare un pixel, il che migliora la risoluzione radiometrica e/o geometrica, nonchè il SNR; − Non ha parti in movimento, per cui è più affidabile e crea meno disturbi. Svantaggi: − È laborioso calibrare tutti i sensori, per cui si possono avere delle disomogeneità nelle misure. − Le schiere di rivelatori usati non operano nel campo dell’infrarosso termico. − I limiti tecnologici sulla lunghezza degli array non permettono di ottenere FOV (e quindi strisciate) grandi. 62 Fig 5.3 - Metodi di acquisizione dei sensori a scansione. L’ultimo caso a destra si riferisce alla acquisizione contemporanea su tutta la scena, che non si realizza con gli scansori. 5.2 Le tecniche multispettrali Per quanto riguarda la realizzazione di immagini in più bande (immagini multispettrali) vengono utilizzate tecniche in grado di separare le diverse componenti spettrali della radiazione incidente. Un esempio è costituito dai prismi dispersivi come illustrato in Fig. 5.4. Sono anche utilizzati specchi dicroici trasparenti solo a certe bande di frequenza o filtri. Fig. 5.4 – Tecniche di acquisizione di dati multispettrali Nel seguito è descritto il modo di funzionamento di un tipico scanner multispettrale. Uno specchio primario è montato su di un asse parallelo alla direzione di avanzamento del velivolo ed è inclinato rispetto all'asse stesso. Il motore elettrico, facendo ruotare lo specchio, assicura la scansione del terreno in direzione ortogonale alla direzione di moto del velivolo; l'energia elettromagnetica proveniente dal terreno (riflessa ed emessa) viene acquisita dal telescopio, inviata allo specchio primario e rinviata dallo specchio secondario ad un filtro dicroico; qui l'energia 63 elettromagnetica è separata tra energia emessa e riflessa in funzione del contenuto spettrale ed è inviata ai rilevatori fotosensibili, che convertono il segnale luminoso in segnale elettrico. Tale segnale, dopo essere stato convertito in digitale, può essere registrato su nastro magnetico a bordo oppure inviato a terra (nel caso di sistemi su satellite). Gli scanner multispettrali utilizzati sugli aerei dispongono solitamente di un sistema di restituzione dell'immagine su carta termica a bordo del velivolo stesso e di un sistema di registrazione dei dati digitali su nastri magnetici del tipo ad alta densità (HHDT: High Density Digital Tape). 5.3 Fotografia e rilevazione elettronica Tutti i sistemi a scansione o comunque a rilevazione elettronica hanno diversi vantaggi rispetto alla rilevazione fotografica: − Minori problemi di coregistrazione tra le bande; − Gamma di lunghezze d’onda acquisibili più larga; − È più facile misurare precisamente la quantità di energia ricevuta; − Non necessitano di processi di sviluppo, né del trasporto materiale della pellicola (utile per i sistemi satellitari). La fotografia viene utilizzata in quelle situazioni in cui l’informazione spaziale è più importante di quella spettrale, e comunque mai su piattaforme satellitari. 5.4 Termografia I sensori multispettrali in grado di rilevare l’IR nella gamma termica, misurando di fatto la temperatura della superficie degli oggetti osservati vengono chiamati TERMOGRAFI; essi sono generalmente a scansione trasversale, ed utilizzano sorgenti interne di riferimento per calibrare le proprie misurazioni. Gli elementi sensibili sono raffreddati. Le immagini prodotte dai termografi sono dette TERMOGRAMMI; in tali immagini della zona osservata vengono rappresentate con toni di grigio più chiari le zone più calde. La risoluzione raggiungibile è intorno a 0,1° C. Fig. 5.5 – Esempio di termogramma - relativo ad una miniera di carbone - acquisito durante la notte; le parti scure rappresentano zone relativamente fredde, mentre le parti chiare rappresentano le zone più calde. La maggior parte delle zone chiare sono dovute alla combustione sotterranea in giacimenti di carbone, a parte la macchia chiara più grande, che è un lago ancora caldo dopo il tramonto del sole che ha causato invece il raffreddamento rapido del terreno circostante. 5.4.1 Bande termiche − Le immagini generate evidenziano correttamente le differenze di temperatura, mentre i valori assoluti richiedono una calibrazione molto più precisa e complessa. − L’IR termico è emesso, quindi la sua rilevazione non dipende da sorgenti esterne. 64 − Non vi è diffusione apprezzabile, ma l’assorbimento da parte dell’atmosfera limita la gamma di lunghezze d’onda utilizzabili agli intervalli 3-5µm e 8-14µm. 5.4.2 Immagini termiche − La scarsa energia dei fotoni IR costringe ad allargare il campo visivo istantaneo (IFOV), peggiorando la risoluzione; quindi le immagini termiche sono generalmente a risoluzione più bassa delle ottiche riflesse. − Gli impieghi principali, oltre a quelli militari, sono nello studio delle dispersioni di calore dagli edifici e nella rilevazione ed osservazione di incendi boschivi. 5.5 Alcuni scansori multispettrali 5.5.1 Meteosat-5 Meteosat è un satellite geostazionario usato nel programma meteorologico mondiale (World Climate Programme, WCP). Il programma comprende 7 satelliti in totale, dei quali il primo è stato mandato in orbita nel 1977. I satelliti Meteosat sono di proprietà dell’organizzazione europea Eumetsat, avente sede a Darmstadt, vicino a Francoforte sul Meno, in Germania. Attualmente sono in funzione Meteosat-8, con Meteosat-7 che funge da scorta, Meteosat-5 che è stato spostato sull’Oceano Indiano a 63° Est e Meteosat-6 che viene mantenuto in funzione di riserva a circa 10° Est. Il 21 dicembre 2005 è stato lanciato in orbita dalla base europea di Kourou il satellite Meteosat-9. Il satellite Meteosat funziona anche da ripetitore delle immagini trasmesse da altri satelliti geostazionari (GMS, GOMS, GOES) ed in tal modo è possibile disporre delle immagini di qualsiasi zona della terra. Sistema Orbita Sensore Ampiezza Swath Tempo di rivisita Dimensione del pixel al suolo Meteosat-5 Geostazionaria, longitudine 0° VISSR (Visibile and Infrared Spin Scan Radiometer) Full Earth Disc (FOV = 18°) 30 minuti 2,5 km (VIS e WV), 5 km (TIR) Tabella 5.1 – Caratteristiche di Meteosat-5, appartenente alla prima generazione Lanciato nel 29 Agosto del 2002 dal cosmodromo europeo della Guiana Francese mediante il vettore Ariane5, MSG (Meteosat Second Generation) 1 è il primo satellite geostazionario europeo per le risorse metereologiche di seconda generazione. Costruito per conto di EUMETSAT, il satellite è stato infatti ribattezzato Meteosat 8 e dal novembre 2002 ha iniziato ad inviare immagini verso terra coadiuvando l'attività del già longevo Meteosat 7. Meteosat 8 pesa circa 2000 kg rispetto ai 720 kg del precedente e i sistemi di potenza erogano ben 600 Watts contro i 200 Watts del vecchio Meteosat 7. Tuttavia le novità più importanti riguardano il sensore multispettrale il quale garantisce l'osservazione perpetua in 12 bande differenti compresa una ad alta risoluzione. Il nuovo sistema inoltre permette di inviare immagini ogni 15 minuti invece che ogni 30 migliorando la prontezza di previsione per i centri metereologici. 65 Fig. 5.6 – Un satellite Meteosat di seconda generazione (fonte: ESA) (a sinistra) e un’immagine acquisita dal satellite Meteosat che copre l’Europa Occidentale e l’Africa settentrionale (a destra). I dodici canali di ripresa sono cosi suddivisi: Banda 1,2 Banda 3 Banda 4 Banda 5 Banda 6 Banda 7 Banda 8 Banda 9 Banda 10 Banda 11 Banda 12 Larghezza della Banda 0,6 – 0,8 µm (visibile) 1,6 µm (infrarosso) 3,9 µm (infrarosso) 6,2 µm (spettro del vapore acqueo) 7,3 µm (spettro del vapore acqueo) 8,7 µm (infrarosso) 9,7 µm (infrarosso) 10,8 µm (infrarosso) 12,0 µm (infrarosso) 13,4 µm (infrarosso) Nel visibile ad alta risoluzione (HVR) Applicazioni Rilevazione delle nuvole Differenziazione di nuvole,ghiaccio,neve,acqua Per distinguere le nuvole basse dalla nebbia Per evidenziare vari eventi atmosferici Per evidenziare vari eventi atmosferici Per informazioni sulle nuvole Per rilevare l’ozono nella bassa atmosfera Rilevazione della temperatura della sup. terrestre Rilevazione della temperatura della sup. terrestre Rilevazione di anidride carbonica Tabella 5.2 – I dodici canali di Meteosat-8 Il Meteosat 9 è il secondo dei quattro Meteosat di nuova generazione previsti dal programma meteo dell’ESA: il primo, il Meteosat 8, è stato lanciato nell’agosto 2002 ed è oggi pienamente operativo. I Meteosat di nuova generazione hanno una forma cilindrica, piuttosto interessante anche dal punto di vista estetico, con un diametro di 3,2 metri e un altezza di 2,4. La massa al lancio supera di poco le 2 tonnellate, per questo è stato sufficiente un Ariane 5 in configurazione standard, che può mettere in orbita geostazionaria un carico che arriva fino a 6 tonnellate. La gestione scientifica e commerciale spetta a Eumetsat, mentre responsabile industriale del satellite è Alcatel Alenia Spazio. In totale sono coinvolte nel progetto oltre 50 industrie europee, fra le quali le italiane Officine Galileo e la Space Engineering S.p.A. Lo sviluppo e la costruzione sono costati circa 475 milioni di euro, finanziati per 2/3 dall’ESA e per il rimanente da Eumetsat. Che cosa cambia nelle previsioni del tempo con il lancio di Meteosat-9? Ogni satellite ha caratteristiche che permettono di migliorare notevolmente le previsioni del tempo rispetto alla generazione satellitare precedente. Per esempio lo strumento principale il SEVIRI (Spinning Enhanced Visible and Infra-red Imager) compie osservazioni in dodici bande spettrali diverse e non più tre, come in passato. E acquisisce nuove immagini ogni 15 minuti, contro il 30 dei vecchi Meteosat. Anche la risoluzione spaziale è migliorata: nel canale spettrale della luce visibile, per esempio, dai 2,5 km dei vecchi Meteosat si è passati a 1 km dei nuovi satelliti. 66 Questo significa che siamo ora in grado di osservare coperture nuvolose di estensione minore. Ma anche la trasmissione dati è migliorata: utilizzando trasmissione in digitale possiamo otteniamo un trasferimento dati fino a 3,2 milioni di bits al secondo (3,2 Mbps), 20 volte più veloce di quella dei Meteosat di prima generazione: un valore prossimo a quello delle offerte commerciali della banda larga terrestre. I satelliti si trovano in orbita geostazionaria e ruotano sul proprio asse a 100 giri al minuto (100 rpm) per migliorare la stabilità: per i prossimi anni il Meteosat 8 continuerà a essere il satellite principale, mentre il Meteosat 9 si preparerà a sostituirlo. 5.5.2 NOAA-15 NOAA sta per National Oceanic and Atmospheric Administration, che è un organo governativo statunitense. Il sensore a bordo delle missioni NOAA rilevante per l’osservazione della Terra è l’Advanced Very High Resolution Radiometer (AVHRR); attualmente sono tre i satelliti NOAA operativi, precisamente il 16, il 17 e il 18 con il 15 che funziona essenzialmente da riserva. Fig. 5.7 – AVHRR - NOAA Sistema NOAA-15 Orbita 850 km, 98.8°, eliosincrona Sensore AVHRR-3 Ampiezza della strisciata 2800 km (FOV = 110°) Tempo di rivisita 2 – 14 volte al giorno, in base alla latitudine Risoluzione spaziale 1 km (al nadir), 6 km (at limb), IFOV = 1,4 millirad Tabella 5.3 – Caratteristiche di NOAA Fig. 5.8 – Un’immagine acquisita dal sensore AVHRR sull’Alaska (fonte: NOAA) 67 I due satelliti in orbita polare primari, ossia NOAA-16 e NOAA-17 forniscono un passaggio di acquisizione quattro volte al giorno su una certa zona in 6 canali spettrali (in effetti supportano 5 canali spettrali alla volta, ed effettuano uno switch di canale per supportare il sesto canale spettrale di NOAA-17). NOAA-16 e NOAA-17 hanno le stesse capacità dei precedenti satelliti NOAA, fatta eccezione per l’aggiunta in essi di una nuova unità, il cosiddetto AMSU, ossia Advanced Microwave Sounder Unit. Attualmente NOAA-15 è usato come un satellite di backup. Anche se questo satellite continua a fornire immagini e prodotti in maniera continuativa, il suo utilizzo è diventato secondario con l’avvento dei più recenti satelliti NOAA-16 e NOAA-17. tuttavia, alcuni utenti continuano ad aver bisogno dei prodotti di NOAA-15, ad esempio per stabilire i tassi di pioggia e la quantità complessiva di acqua caduta durante una precipitazione. NOAA-16 è stato lanciato il 21 Settembre 2000, mentre NOAA-17 è stato lanciato il 24 Giugno 2002; entrambi sono attualmente in pieno funzionamento con le stesse caratteristiche del NOAA15, fatta eccezione per l’unità aggiuntiva di cui si è detto sopra. NOAA-18 nvece è stato lanciato il 24 Febbraio 2005 ed è attivo con le stesse caratteristiche del NOAA-17. NOAA-17, come anche NOAA-15 e NOAA-16, imbarca i seguenti strumenti: - AVHRR/3 (Advanced VHRR): radiometro per immagini VIS/IR a 6 canali in cui però il canale a 1,61 µm e quello a 3,74 µm sono trasmessi in alternativa (1,61 µm di giorno, 3,74 µm di notte); - HIRS/3 (High-resolution Infra Red Sounde –3): radiometro in 20 canali per il sondaggio in IR di temperatura ed umidità; - AMSU-A (Microwave Sounding Unit–A): radiometro in 15 canali per il sondaggio della temperatura in MW; - AMSU-B (Microwave Sounding Unit–B): radiometro in 5 canali per il sondaggio dell’umidità in MW; - SBUV/2 (Solar Backscatter Ultraviolet-2): spettro-radiometro a 12 canali da 252 a 340 nm per il profilo dell’ozono, visione solo nadir, risoluzione orizzontale 170 Km, verticale 7 km; - DCS/2 (Data Collection System-2), anche denominato ARGOS, sistema di raccolta dati da stazioni automatiche (trasmittenti a 401,65 MHz) con localizzazione della piattaforma; - SARSAT (Search and Rescue Satellite Aided System), sistema di localizzazione di chiamate di emergenza provenienti da trasmettitori a 121.5, 243 e 406 MHz. Il sensore AVHRR è usato soprattutto nelle previsioni giornaliere dove dà delle informazioni più precise rispetto a quelle fornite da Meteosat. Inoltre, viene utilizzato per numerose applicazioni relative alle acque e al terreno. I dati provenienti dal sensore AVHRR sono utilizzati per generare le mappe di temperatura della superficie marina (Sea Surface Temperature maps, le cosiddette SST maps), che possono essere usate nel monitoraggio del clima, nello studio di El Niño, nella individuazione dei vortici per poter guidare le navi in zone ricche di pesce, eccetera. Le mappe di copertura delle nuvole basate su dati AVHRR possono essere inserite in modelli di crescita delle coltivazioni. Un altro prodotto derivato dai dati AVHRR sono le mappe dell’Indice di Vegetazione Normalizzato (Normalized Difference Vegetation Index maps, NDVI; v §9.12.2); queste mappe danno un’indicazione relativa alla quantità di biomassa. I dati di NDVI vengono inseriti in modelli relativi alla crescita della vegetazione e in modelli che analizzano i cambiamenti climatici. Le applicazioni principali dell'AVHRR riguardano: - Meteorologia e climatologia Oceanografia fisica Fisica dell'atmosfera Controllo delle attività vulcaniche Controllo di incendi di vaste dimensioni Temperatura superficiale del mare Temperatura superficiale della Terra 68 5.5.3 LandSat-7 Il programma LandSat è il più vecchio programma di Osservazione della Terra; è iniziato nel 1972 con il satellite LandSat-1 che portava a bordo il sensore multispettrale MSS (Multi-Spectral Scanner System). Nel 1982 tale sensore è stato sostituito con il Thematic Mapper (TM). Nel 1999 è stato lanciato in orbita LandSat-7, che ha a bordo un sensore ETM plus. Attualmente, solo i satelliti LandSat-5 e LandSat-7 sono attivi. Fig. 5.9 – Il satellite Landsat (fonte: NPA Group). 5.5.3.1 Le bande del LandSat Lo strumento TM di Landsat-5 e lo strumento ETM+ di Landsat-7 osservano la Terra con sette filtri diversi o “bande”. Le bande 1, 2, 3, 4, 5 e 7 su entrambi gli strumenti sono sensibili all’energia della luce proveniente dal sole riflessa dalla superficie della Terra. Ogni banda è sensibile ad una parte diversa dell’energia solare riflessa. La banda 6 è diversa da tutte le altre in quanto essa non registra l’energia della luce riflessa ma piuttosto la temperatura della superficie della Terra. Oltre a queste bande, lo strumento ETM+ ha un’ottava banda, detta banda pancromatica, sensibile all’energia della luce riflessa in un vasto intervallo di lunghezze d’onda che comprende il blu, il verde, il rosso e l’infrarosso vicino. - Banda 1 (Blu, 0,45 – 0,52 µm); è utilizzata soprattutto nello studio di aree costiere e delle correnti marine perché è caratterizzata da alta penetrazione in acqua; fortemente influenzata dalla diffusione atmosferica. - Banda 2 (Verde, 0,52 - 0,60 µm); utilizzata soprattutto nella stima dello stato di salute della vegetazione, è anche applicata, assieme ed in rapporto con la banda 1, nello studio di materiali in sospensione in corpi idrici. Nell’ambito di ricerche geologico-strutturali consente verifiche indirette sulla presenza di un dato lineamento; spesso, infatti, zone intensamente fratturate sono sede di una più intensa circolazione idrica sotterranea che induce la crescita di maggiore e talvolta diversificata vegetazione. Consente di distinguere i boschi di conifere da quelli costituiti da piante a foglia caduca. - Banda 3 (Rosso, 0,63 - 0,69 µm); è la banda più indicata per la diversificazione di varie classi di vegetazione per effetto del diverso valore di assorbimento della clorofilla tra le diverse specie; da anche utili indicazioni sui confini tra suolo, vegetazione e roccia. È l’unica tra le bande del visibile a risentire in maniera trascurabile della diffusione atmosferica. 69 - - - Banda 4 (Infrarosso vicino, 0,76 - 0,90 µm); essendo presente anche in questa regione dello spettro un picco di riflettività per la vegetazione, tale banda è indicata per lo studio della biomassa. Di notevole importanza è la discriminazione tra aree interessate da concentrazione d’acqua e zone più aride; ciò è dovuto al forte assorbimento di queste lunghezze d’onda da parte dei corpi idrici. Tale banda rappresenta, assieme alla 7, una tra le più indicate per individuare i lineamenti, che sono degli elementi lineari riconoscibili su un’immagine a cui si può attribuire un significato geologico o geomorfologico (monoclinale, allineamento morenico, asse di piega, spill – away glaciale, imbuto di erosione, orlo di terrazzo, antica linea di costa, faglia, ecc). Inoltre questa banda concentra in sé i vantaggi sia della più facile individuazione di aree più umide o a maggiore circolazione idrica, sia della capacità di riconoscere le zone con vegetazione più o meno rigogliosa. Consente inoltre di distinguere i boschi di conifere rispetto a quelli cedui. Banda 5 (SWIR, 1,55 - 1,75 µm); banda sensibile alla quantità d’acqua nelle piante e come tale utilizzata per il rilevamento dell’umidità della vegetazione. Potere di penetrazione attraverso nubi stratiformi. Utile per la differenziazione tra nuvole, neve e ghiaccio. Banda 6 (Infrarosso termico, 10,4-12,5 µm); è utilizzata per studi sull’attività geotermica e sull’inerzia termica. Banda 7 (SWIR, 2,08-2,35µm); utile per la differenziazione dei diversi litotipi (in particolare coincide con la banda di assorbimento di materiali idrati). Utile per determinare il contenuto di umidità del suolo, questa banda è la più indicata per studi geologici in genere. Fig. 5.10 – Un’immagine Landsat di Santorini. L’isola più grande è Thera, mentre quella più piccola in alto a sinistra è Therasia. 5.5.3.2 Le applicazioni del LandSat Le principali applicazioni dei dati LandSat provenienti dal sensore TM sono la mappatura della copertura del suolo, la mappatura del suolo, quella geologica, quella della temperatura della superficie marina, eccetera. In sostanza, i campi applicativi per i quali l’utilizzo dei dati acquisiti dai satelliti LandSat ha dimostrato una notevole efficacia sono i seguenti: - Cartografia tematica a media scala(1:200.000-1:100.000); - Uso dei suoli; - Agricoltura e foreste; - Vegetazione; 70 - Geologia, Geomorfologia e Geobotanica; - Cartografia a media scala; - Idrogeologia; - Oceanografia; - Inquinamento delle acque (interne ed in zone costiere). Per gli studi sulla copertura del terreno e sull’uso del terreno, vengono preferiti i dati provenienti dal sensore TM del LandSat a quelli provenienti dal satellite SPOT per la presenza, nei primi, della banda dell’infrarosso medio. Il sensore TM del LandSat è infatti l’unico satellite non meteorologico che ha una banda nell’infrarosso termico. I dati termici sono necessari quando si vogliono studiare i processi energetici della superficie terrestre, oppure la variabilità della temperatura delle coltivazioni all’interno di aree irrigate. La tabella 5.4 mostra un elenco delle bande del LandSat con le relative applicazioni. Banda 1 Banda 2 Banda 3 Banda 4 Banda 5 Banda 6 Banda 7 Banda 8 Larghezza della Banda Risoluzione Spaziale 30 m 0,45 – 0,52 µm (blu) 30 m 0,52 – 0,60 µm (verde) 30 m 0,63 – 0,69 µm (rosso) 30 m 0,79 – 0,90 µm (vicino infrarosso) 30 m 1,55 1,75 µm (infrarosso) 60 m 10,4 – 12,50 µm (infrarosso termico) 30 m 2,08 – 2,35 µm (vicino infrarosso) 15 m 0,52 – 0,90 µm (verde – vicino infrarosso) Tabella 5.4 – Elenco delle bande del sensore Landsat e loro applicazioni 5.5.4 SPOT SPOT sta per Systéme Probatoire l’Observation de la Terre ed è di proprietà di un consorzio formato dai governi di Francia, Svezia e Belgio. SPOT-1 è stato lanciato nel 1986 dal CNES (Centre Nationale d'Etudes Spatiales), mentre nel 1998 è stato lanciato SPOT-4, che è stato significativamente migliorato rispetto al precedente. Il sensore HRVIR (High Resolution Visible and Infrared) ha 4 bande invece di 3 e gli è stato aggiunto lo strumento VEGETATION, progettato per monitoraggi frequenti (al limite anche giornalieri) ed accurati di vaste aeree del globo. Attualmente sono tre i satelliti della famiglia SPOT in orbita, precisamente SPOT-2, SPOT-4 e SPOT-5, che è l’ultimo della serie ed è stato lanciato nel Maggio del 2002. Fig. 5.11 – Il satellite SPOT 5 (fonte: CNES/ Ill. D. Ducros). 71 Lo SPOT-4 acquisisce immagini multispettrali secondo due modalità operative: modo multispettrale e modo pancromatico. Per quanto concerne il modo multispettrale, le immagini sono acquisite su quattro bande spettrali con una risoluzione geometrica di 20 m. I canali spettrali di SPOT-4 e SPOT-5 nel modo multispettrale sono i seguenti: - Pancromatico (wide band): 0,49 – 0,69 µm Banda 0 nel visibile: 0,43 – 0,47 µm (solo sullo strumento VEGETATION); Banda 1 nel visibile: 0,50 – 0,59 µm; Banda 2 nel visibile: 0,61 – 0,68 µm; Banda 3 nel visibile: 0,78 – 0,89 µm; Infrarosso onda corta (SWIR): 1,58 – 1,75 µm Fig. 5.12 – Due esempi di immagini SPOT: a sinistra un’immagine di Napoli acquisita con risoluzione 10 m, mentre a destra un’immagine di Stoccolma con risoluzione 5 m; (fonte: Spatial Mapping LTD) Il satellite SPOT-5 possiede uno strumento HRS (High Resolution Stereoscopic), capace di acquisire immagini in stereoscopia per poter ottenere DSM aventi precisione secondo l’asse z di 10 metri. SPOT-5 possiede la capacità di acquisire immagini con risoluzione di 2,5 m nella banda pancromatica grazie ad una procedura di campionamento detta Supermode. Questo metodo processa due immagini pancromatiche a 5 m di risoluzione acquisite simultaneamente per generare una immagine singola a risoluzione di 2,5 m. Sistema Orbita Sensore Ampiezza della strisciata Tempo di rivisita Risoluzione spaziale SPOT-5 835 km, 98.7°, eliosincrona, passaggio a 10:30 AM, ciclo di ripetizione 26 giorni Due sensori HRVIR (High Resolution Visibile and Infrared) 60 km (vettore CCD di 3000 pixel) 4 – 6 giorni (in base alla latitudine) 10 m (PAN), 20 m (bande 1 -4) Tabella 5.5 – Caratteristiche di SPOT Nel modo di funzionamento pancromatico le immagini sono acquiste in un unico canale spettrale con una risoluzione geometrica di 10 m (che può arrivare fino a 2,5 m nel caso di SPOT-5). I principali campi applicativi dei dati SPOT sono i seguenti: - Uso dei suoli - Agricoltura e foreste - Vegetazione - Cartografia a grande scala (1:25.000-1:50.000) - Oceanografia costiera 72 - Modelli digitali di elevazione del terreno. 5.5.5 IKONOS IKONOS è stato il primo satellite commerciale ad alta risoluzione posto in orbita nello spazio. È di proprietà di SpaceImaging, una compagnia americana che si occupa di Osservazione delle Terra. Esso fornisce la più alta risoluzione spaziale finora raggiunta da un satellite civile. Si prevedono molte applicazioni per i dati IKONOS; ci si aspetta che, nel lungo periodo, il 50% della fotografia aera sarà rimpiazzata da immagini ad alta risoluzione provenienti dallo spazio. Il primo obiettivo di IKONOS è quello di acquisire dati delle maggiori città americane. Finora, la mappatura e il monitoraggio dallo spazio delle aree urbane (non solo in America) è stato possibile solo fino ad un certo punto. I dati IKONOS possono essere usati per mappe topografiche da piccola a media scala, non solo per produrre nuove mappe, ma anche per aggiornare quelle esistenti. Sistema Orbita IKONOS 680 km, 98.2°, eliosincrona, attraversamento 10:30 AM, ciclo di ripetizione 14 giorni Sensore Optical Sensor Assembly (OSA) Ampiezza della strisciata 11 km (12 µm elementi CCD ) Tempo di rivisita 1 – 3 giorni Risoluzione spaziale 1 m (PAN), 4 m (bande 1 -4) Tabella 5.6 – Caratteristiche di IKONOS Fig. 5.13 – Il satellite Ikonos (a sinistra) e un’immagine da esso acquisita sulla città di Londra 5.5.6 QuickBird Lanciato il 18 ottobre 2001; è attualmente il satellite commerciale che possiede la più elevata risoluzione spaziale disponibile. Permette di ottenere immagini aventi una larghezza di circa 16,5 Km, ed il sensore acquisisce immagini pancromatiche a 61cm di risoluzione ed a 2,44m in modo multispettrale. E’ evidente che a queste risoluzioni tutte le infrastrutture di una città sono visibili. 73 Larghezza della Banda Risoluzione Spaziale 0,6 – 0,72 m Pancromatico 2,44 – 2,88 m Banda 1 0,45 – 0,52 µm (blu) 2,44 – 2,88 m Banda 2 0,52 – 0,60 µm (verde) 2,44 – 2,88 m Banda 3 0,63 – 0,69 µm (rosso) 2,44 – 2,88 m Banda 4 0,76 - 0,90 µm (vicino infrarosso) Tabella 5.7 – Caratteristiche delle bande di Quickbird Fig. 5.14 – Il satellite Quickbird (a sinistra) e un’immagine a colori reali ad alta risoluzione (60 cm) della città di Teheran, in Iran, acquisita l’11 agosto 2003(fonte: DigitalGlobe). 5.5.7 TERRA – ASTER Advanced Spaceborne Thermal Emission and Reflection Radiometer (ASTER), lanciato nel dicembre del 1999, possiede un sensore capace di ottenere immagini ad alta risoluzione (da 15 a 90m) su 14 differenti canali, sensibili allo spettro luminoso tra il visibile e l’infrarosso termico. Banda 1 Banda 2 Banda 3 Banda 4 Banda 5 Banda 6 Banda 7 Banda 8 Banda 9 Banda 10 Banda 11 Banda 12 Banda 13 Banda 14 Larghezza della Banda 0,52 – 0,60 µm (verde) 0,63 – 0,69 µm (rosso) 0,76 – 0,86 µm (vicino infrarosso) 1,60 – 1,70 µm (SWIR) 2,145 – 2,185 µm (SWIR) 2,185 – 2,225 µm (SWIR) 2,235 – 2,285 µm (SWIR) 2,295 – 2,365 µm (SWIR) 2,36 – 2,43 µm (SWIR) 8,125 – 8,475 µm (infrarosso termico) 8,475 – 8,825 µm (infrarosso termico) 8,925 – 9,275 µm (infrarosso termico) 10,25 – 10,95 µm (infrarosso termico) 10,95 – 11,65 µm (infrarosso termico) Risoluzione Spaziale 15 m 15 m 15 m 30 m 30 m 30 m 30 m 30 m 30 m 90 m 90 m 90 m 90 m 90 m Tabella 5.8 – Caratteristiche delle bande del sensore ASTER di TERRA La dimensione delle immagini copre una superficie di 60Km × 60Km ed il satellite trova interessante impiego nell’interpretazione geologica, ambientale e nella produzione di DSM. 74 Fig. 5.15 – Il satellite TERRA (fonte: NASA) (a sinistra) e un’immagine acquisita dal satellite TERRA sulla città di New York (a destra). 5.5.8 Il sensore MERIS di Envisat-1 Il sensore MERIS (Medium Resolution Imaging Spectrometer) è uno spettrometro ad immagine a media risoluzione, legato essenzialmente allo studio degli oceani. Fig. 5.16 – Il sensore MERIS Si è stimato che circa la metà del calore che l’Equatore trasferisce ai Poli sia trasportato dall’oceano, e dato che è questo flusso di calore a rendere abitabili le regioni di media latitudine, si comprende facilmente come diventi necessario poter acquisire informazioni accurate sulla circolazione oceanica. MERIS è il primo sensore europeo nello spazio per l’osservazione della biologia oceanica e la qualità dell’acqua marina attraverso l’osservazione del colore del mare. La sua missione primaria è volta ad offrire un contributo ai progetti scientifici che hanno come obiettivo lo studio del ruolo degli oceani e della produttività oceanica nel sistema climatico. Gli obiettivi secondari della missione MERIS includono osservazioni dei parametri atmosferici associati alle nuvole, vapore acqueo e particelle gassose, oltre a parametri di superficie terrestre, come quelli legati ai processi di sviluppo della vegetazione. 75 Gli obiettivi di MERIS sono molteplici, per cui si suddivide la missione di questo sensore in tre parti principali: - la missione oceano: MERIS permette lo studio degli strati superiori dell’oceano attraverso la misura del potenziale fotosintetico grazie alla rilevazione del fitoplancton; inoltre permette la rivelazione di sostanza gialla (materiale organico dissolto) e la rilevazione di materiale sospeso (sedimenti trasportati dai fiumi). In aggiunta, grazie ad esso, sono possibili indagini sulla qualità dell’acqua, riprese video di estese aree inquinate e osservazioni topografiche. - la missione atmosferica: l’equilibrio della radiazione del sistema Terra/atmosfera dipende dal vapore acqueo, dall’anidride carbonica e dalle nuvole, nonché dalle particelle gassose. Prima di MERIS il controllo delle proprietà delle nuvole e dei loro processi non era sufficientemente accurato; MERIS è stato concepito, di conseguenza, per fornire dati sull’altezza massima delle nuvole, sul loro spessore e sul contenuto di vapore acqueo. - la missione terrestre: il ruolo che la superficie terrestre ricopre nella dinamica climatica e dei cicli biochimici non è affatto trascurabile; di conseguenza diventano necessarie delle misurazioni fisiche accurate per poter quantificare i processi di superficie e migliorare la comprensione della dinamica della vegetazione stagionale e delle risposte allo stress ambientale. 5.5.8.1 I requisiti della missione I requisiti della missione possono essere suddivisi in: - Requisiti geometrici: siccome i dati MERIS sono utilizzati sia in studi globali che regionali, sono stati previsti due modi di funzionamento. Il Full Resolution mode (FR) acquisisce i dati a 300 m e viene richiesto soprattutto in zone costiere e su terra, mentre il Reduction Resolution mode (RR) si procura i dati a 1200 m ed è utilizzato in studi ad ampia scala. Il largo campo di visuale di percorso trasversale è di 68,5 gradi e quando è unito alle caratteristiche dell’orbita di ENVISAT-1 produce una fascia di circa 1150 km. In questo modo viene soddisfatta la necessità di avere una copertura globale nel giro di tre giorni, come richiedono le indagini oceanografiche ed atmosferiche. - Requisiti spettrali: MERIS è uno spettrometro di riflessione a bande programmabili che ha in sé la possibilità di cambiare la posizione e la larghezza di banda durante il suo funzionamento. Tenuto conto degli scopi della missione e delle priorità dello strumento, si sono scelte 15 bande per applicazioni oceanografiche e interdisciplinari. Tali bande sono elencate nel dettaglio in Tabella 5.6. La gamma spettrale di MERIS è ristretto alla parte visibile e infrarossa dello spettro, tra 390 nm e 1040 nm. La larghezza di banda spettrale varia tra 1,25 e 30 nm in relazione alla larghezza della caratteristica spettrale da osservare ed in relazione alla quantità di energia necessaria in una banda per eseguire una osservazione adeguata. - Requisiti radiometrici: i segnali che provengono dall’oceano sono piuttosto deboli, di conseguenza diventa difficile individuarli e quantificarli. Per questo motivo l’accuratezza radiometrica diventa un requisito essenziale dello strumento. Inoltre l’accuratezza radiometrica è necessaria per la correzione atmosferica, che è di importanza critica, dal momento che circa il 90% del segnale che raggiunge il sensore viene originato dall’atmosfera. In aggiunta MERIS è stato progettato per avere una bassa sensibilità alla polarizzazione della luce sparsa che arriva dall’atmosfera grazie all’uso dell’ottica depolarizzata. 76 No. Centro Banda (nm) Band width (nm) Potenziali applicazioni 1 412,5 10 Sostanza gialla, torbidezza 2 442,5 10 Massimo assorbimento di clorofilla 3 490 10 Clorofilla e altri pigmenti 4 510 10 Torbidezza, sedimenti sospesi, flussi rossi 5 560 10 Riferimento di clorofilla, sedimenti sospesi 6 620 10 Sedimenti sospesi 7 665 10 Assorbimento di clorofilla 8 681,25 7,5 Fluorescenza della clorofilla 9 708,75 10 Correzione atmosferica 10 753,75 7,5 Riferimentodi assorbimento di ossigeno 11 760,625 3,75 Assorbimento di ossigeno 12 778,75 15 Vegetazione, particelle gassose 13 865 20 Correzione aerosols sopra gli oceani 14 885 10 Riferimento di assorbimento del vapore acqueo 15 900 10 Vegetazione, assorbimento di vapore acqueo Tabella 5.9 - Elenco delle bande di MERIS Il sensore MERIS può essere separato in tre sottosistemi principali: - l’ottica dello strumento; - il piano focale di rilevazione; - la catena di elaborazione. Lo strumento ha un campo di visuale di 68,5 gradi diviso tra cinque camere identiche, ciascuna delle quali ha un campo di visuale di circa 14 gradi. Le camere sono state disposte in una configurazione a ventaglio che fa sì che i campi di visione si sovrappongano leggermente uno all’altro; l’uscita di ogni camera è elaborata separatamente. 77 Fig. 5.17 – L’ottica della strumento L’ottica di MERIS è composta da una finestra esterna, uno specchio pieghevole, un ground imager e uno spettrometro. La finestra disturba la luce polarizzata che giunge dalla Terra rendendo lo strumento meno sensibile ai cambiamenti in polarizzazione; la finestra serve anche a proteggere il resto degli elementi ottici. I rilevatori ottici della camera sono schiere di CCD (Charge Coupled Device) sviluppati apposta per MERIS. Il CCD copre la gamma spettrale con un campione di intervallo spettrale di 1,25 nm. I CCD operano in modalità di trasferimento di quadro ed il periodo di quadro è di 44 ms. Dopo l’integrazione, le immagini sono rapidamente trasferite dalla zona di rilevazione a quella di memoria; la trasmissione di un quadro è seguita da un nuovo periodo di integrazione nella zona di rilevazione, mentre viene letta la zona di memoria. Ogni camera ha una catena di elaborazione specializzata. Un’elaborazione analogica è intrapresa dall’unità elettronica video, le cui funzioni sono: - estrarre il segnale utile in 15 bande selezionate; - compensare la variazione di offset usando il pixel di riferimento; - amplificare il segnale; - digitalizzare il segnale video a 12 bit. 5.5.8.2 Le prestazioni dello strumento Il campo di visuale di MERIS consente una copertura globale in due o tre giorni, che è il lasso di tempo richiesto dalle investigazioni oceanografiche, terrestri ed atmosferiche. Poiché MERIS opera nel visibile e nell’infrarosso vicino, la qualità radiometrica dei dati acquisita dipende dall’illuminazione della terra. L’angolo solare dello zenith varia con il giorno dell’anno, con la posizione angolare nel campo di visuale dello strumento e con il tempo di attraversamento nodale dell’orbita ENVISAT-1. Per il recupero dei dati geofisici di MERIS è necessario un angolo zenith solare minore di 80 gradi. 78 Fig. 5.18 – Copertura della terra da parte di MERIS Fig. 5.19 – Immagine acquisita dal sensore MERIS il 24 Marzo 2002 sul Mar dei Carabi. L’isola maggiore è Cuba; a sud di Cuba è visibile la Giamaica (fonte: ESA). 5.5.8.3 I dati MERIS MERIS opera sia a piena risoluzione (FR con 300 m di risoluzione) che a risoluzione ridotta (RR con 1200 m di risoluzione) e questi due flussi di dati sono disponibili in parallelo a bordo di ENVISAT-1. I dati MERIS RR vengono registrati ed elaborati a bordo per il tratto di superficie illuminata dal sole, mentre i dati FR vengono acquisiti solo quando richiesti per soddisfare sia altri programmi della missione che le richieste degli utenti. In particolare per il recupero di questo tipo di dati si applica la seguente strategia: - i dati sull’Europa vengono recuperati direttamente attraverso dei collegamenti in banda X (zona di ricezione Kiruna e Fucino); - i dati fuori dall’Europa vengono recuperati quando possibile attraverso il satellite di comunicazione ARTEMIS; 79 - i dati esterni alla zona di ricezione delle stazioni in banda X dell’ESA e di ARTEMIS vengono registrati a bordo e scaricati in differita da una delle stazioni dell’ESA attraverso collegamenti in banda X o in banda Ka; - i dati richiesti dall’operatore di stazione o dai distributori nell’interesse di un operatore di stazione vengono trasmessi in banda X. I dati MERIS vengono sistematicamente elaborati in tempo reale per generare vari livelli di fornitura di dati definiti dall’ESA: - dato di Livello 0: è il dato in uscita dallo strumento; in pratica è il dato nel suo formato più grezzo, che generalmente non è reso disponibile per gli utenti; - dato di Livello 1b: è il dato annotato, calibrato radiometricamente e geolocato. Per MERIS questa è la radianza calibrata “Top of the atmosphere”(TOA); - dato di Livello 2: questo tipo di dato contiene sia parametri geofisici geolocati sia parametri di radianza/riflettanza che dipendono dal tipo di superficie; - il prodotto Browse: viene elaborato sistematicamente ad una risoluzione di 4 km per l’intero segmento orbitale. Consiste di tre radianze compresse TOA, selezionate dalle 15 bande MERIS per migliorare la rappresentazione visuale della terra, del mare e delle caratteristiche delle nuvole. Fig. 5.20 – I prodotti di MERIS 5.6 Le distorsioni nel telerilevamento ottico 5.6.1 Origine Le distorsioni geometriche dell’immagine telerilevata si verificano in tutte le acquisizioni di dati; esse rappresentano un problema intrinseco del telerilevamento, che -va detto- cerca di rappresentare su un piano la superficie terrestre che piana non è. Il modo di manifestarsi della distorsione non è unico, ma dipende dalle modalità di acquisizione. 5.6.2 Cause specifiche Le cause che possono determinare una distorsione sono molteplici, come ad esempio: − La prospettiva dell’ottica del sensore: gli errori di prospettiva sono presenti soprattutto nelle foto aeree, ma anche (in forme diverse) nei rilevamenti a scansione. Le differenze del terreno causano una distorsione nella relazione geometrica tra i dati contenuti nell’immagine e il terreno. 80 Fig. 5.21 – Effetti della topografia terrestre sulla relazione tra A-B (sul terreno) e a-b (sulla fotografia); differenza tra terreno piatto (a) e con un’altezza significativa (b) Con riferimento all’immagine di Fig. 5.21, vediamo a sinistra la rappresentazione di una situazione in cui viene acquisita una fotografia aerea veramente verticale su un terreno piatto. Le distanze (A-B) e (a-b) sono proporzionali alla larghezza totale della scena osservata e alla sua immagine sul negativo, rispettivamente. In questa situazione possiamo quindi calcolare (A-B) da una misura di (a-b) sul negativo. Nella situazione di destra invece, c’è una significativa differenza nel rilievo del terreno. Come si può osservare, la distanza tra i punti a e b nel negativo è diventata più grande, benchè quando misurata nel sistema del terreno è ancora la stessa vista nella situazione di sinistra. Questo fenomeno non si presenta nel centro della foto ma diventa via via predominante muovendosi verso i margini della foto. Questo effetto è noto come spostamento del terreno: i punti sul terreno la cui altezza è sopra o sotto un’altezza scelta come riferimento vengono spostati rispettivamente lontano dal punto di nadir o verso di esso. L’ampiezza dello spostamento apparente dovuto alla prospettiva indicato con δ r (misurato in mm), è dato da: r×h δr = (5.2) H dove r è la distanza radiale dal nadir (misurata in mm), h è l’altezza del terreno sul piano di riferimento e H (misurata in m) è l’altezza di volo sul piano di riferimento (dove il nadir interseca il terreno). Questa equazione mostra che la quantità di spostamento del terreno è nulla al nadir (r = 0), più grande ai bordi della foto ed in ogni caso inversamente proporzionale all’altezza di volo. Oltre a questo tipo di spostamento, si può facilmente immaginare come anche edifici e altri oggetti alti possano causare spostamento (in questo caso detto spostamento di altezza); questo effetto si incontra soprattutto quando si ha a che fare con foto su larga scala di aree urbane o foreste. − Il movimento del sistema di scansione: la scansione trasversale soffre della distorsione prospettica, ma solo in direzione trasversale. Tuttavia, alla distorsione prospettica, si aggiungono le eventuali instabilità della piattaforma e la cosi detta “distorsione tangenziale di scala”, ovvero l’allargamento in direzione trasversale alla linea di volo della proiezione a terra della zona sensibile dello strumento quando la direzione di osservazione si allontana dal nadir. . La scansione longitudinale invece, evita i problemi legati alla rotazione dello 81 specchio (principalmente la distorsione di scala tangenziale) ed è meno sensibile alle instabilità della piattaforma. − Il moto, voluto o indesiderato, della piattaforma. − L’orografia del terreno. − La curvatura e la rotazione della Terra. 82 CAPITOLO 6 I RADAR 6.1 Introduzione Il telerilevamento a microonde usa le onde elettromagnetiche con lunghezza d’onda tra 1 mm e 1 m; tali λ relativamente lunghe hanno il vantaggio notevole di poter penetrare le nuvole e di essere praticamente insensibili alle condizioni atmosferiche, come la presenza di nebbia. Anche nel telerilevamento a microonde ci sono sensori attivi e passivi. I sensori passivi operano in modo simile ai sensori termici rilevando l’energia a microonde emessa naturalmente. Tali sensori sono usati in meteorologia, idrologia e oceonagrafia. Nei sistemi attivi l’antenna trasmette segnali a microonde verso la superficie della Terra dove questi vengono retrodiffusi. La parte dell’energia elettromagnetica che ritorna nella direzione dell’antenna viene rilevata dal sensore, come si può vedere in Fig. 6.1. Fig. 6.1 – Principio di funzionamento del telerilevamento attivo a microonde Vi sono numerosi vantaggi che derivano dall’utilizzo dei sensori attivi, che hanno una sorgente di energia propria; tra questi ricordiamo: − La possibilità di acquisire dati in qualsiasi momento del giorno, incluse le ore notturne (come avviene nel telerilevamento termico); − Il pieno controllo delle caratteristiche del segnale (come la lunghezza d’onda, la polarizzazione, l’angolo di incidenza, la fase, eccetera), dato che le onde sono create in maniera attiva. I sensori attivi si dividono, come già ricordato, in sensori d’immagine e sensori non d’immagine; i sensori RADAR appartengono alla classe più comunemente usata dei sensori di immagine attivi a microonde. Il termine RADAR è un acronimo e sta per RAdio Detection And Ranging, ovverosia Rilevazione e valutazione della distanza tramite onde radio. Infatti range è un altro termine usato per indicare la distanza. I sensori Radar, inizialmente nati per applicazioni militari, trovano attualmente larga applicazione anche nel settore civile, come ad esempio il monitoraggio ambientale. Al gruppo degli strumenti a microonde non di immagine appartengono gli altimetri, che raccolgono informazioni riguardanti le superfici (ad esempio l’altezza della superficie del mare), e i diffusimetri (o scatterometers), che acquisiscono dati sulla diffusione delle microonde e possono derivare informazioni circa le proprietà degli oggetti (come la velocità del vento). Le risoluzioni ottenibili coi sistemi radar vanno da decine di metri a meno di un metro; al variare della risoluzione variano ovviamente i costi delle immagini, che vanno da pochi € a decine di € al Kmq; le immagini radar trovano le principali applicazioni nel monitoraggio ambientale e nella rilevazione dei disastri. La Fig. 6.2 mostra delle zone allagate nelle vicinanze del fiume Po. 83 Fig. 6.2 - Esempio di immagine radar in cui sono visibili gli effetti di un’esondazione del fiume Po; le zone alluvionate, come quella indicata dalla freccia, appaiono particolarmente scure. Si noti la traccia brillante creata dalla retrodiffusione delle onde sul ponte della Becca, costituito in gran parte di metallo, alla confluenza di Ticino e Po. 6.2 Principi di acquisizione di immagini radar I sistemi radar di acquisizione di immagini comprendono numerosi componenti: un trasmettitore, un ricevitore, un’antenna e un registratore. Il trasmettitore viene usato per generare i segnali a microonde e trasmettere l’energia all’antenna da dove essa viene emessa verso la superficie della Terra. Il ricevitore accetta il segnale retrodiffuso come ricevuto dall’antenna, lo filtra e lo amplifica nella maniera necessaria perché esso sia registrabile. A questo punto il registratore serve per immagazzinare il segnale ricevuto. I radar d’immagine acquisiscono un’immagine in cui ogni pixel contiene un numero digitale in accordo con l’intensità dell’energia retrodiffusa ricevuta dal terreno. La capacità che ha un radar di rilevare un bersaglio è espressa attraverso una relazione nota come equazione radar, la cui dimostrazione offre fondamentali informazioni sul funzionamento dello strumento ed è perciò utile ricavarla da considerazioni generali. Un costituente essenziale del radar è certamente l’antenna, un dispositivo volto ad irradiare o ricevere energia elettromagnetica. Le sue funzioni principali sono quelle di focalizzare la potenza in una data direzione in modo da aumentare la sensibilità, garantire il controllo del fascio esploratore in modo da perlustrare una certa area di copertura e infine permettere la misurazione di informazioni angolari in modo da determinare la direzione di un bersaglio. Un parametro fondamentale che racchiude in sé le caratteristiche fondamentali dell’antenna è il guadagno di potenza G(θ,φ) o semplicemente guadagno G, che esprime la capacità dell’antenna di concentrare la potenza irradiata in una determinata direzione. Tale parametro comprende il concetto di perdite che si verificano attraverso il riscaldamento dell’antenna stessa, attraverso il terreno, assorbimenti vari, perdite delle guide d’onda e di polarizzazione, attraverso qualsiasi accoppiamento con l’antenna oltre che attraverso la potenza irradiata nei lobi laterali. In generale un’antenna in cui G è costante, e che quindi ha la caratteristica di irradiare la potenza in modo uniforme in tutte le direzioni e cioè sull’intero angolo solido (4π steradianti), viene definita omnidirezionale o radiatore isotropo. Si può ora definire il guadagno di potenza come il rapporto fra l’intensità di radiazione nel lobo principale dell’antenna e l’intensità di radiazione di un’antenna isotropa con un’efficienza del 100% avente lo stesso assorbimento di potenza: G (θ , ϕ ) = 84 4π ∆θ ⋅ ∆ϕ (6.1) dove ∆θ e ∆ϕ sono rispettivamente l’ampiezza del fascio in direzione azimutale e in direzione ascensionale, tutto misurato in radianti. L’angolo azimutale θ fornisce le informazioni direzionali o di posizione e, come in una bussola magnetica, viene misurato in senso orario partendo dal nord. L’altezza φ, invece, viene misurata partendo dall’orizzonte verso l’alto. In alternativa il guadagno stesso può essere definito come: 4π ⋅ Aeff G = (6.2) 2 λ dove Aeff è l’area efficace dell’antenna che solitamente è inferiore all’area reale. Fig. 6.3 – Azimut, elevazione ed ampiezza di fascio I diagrammi dell’antenna sono direzionali in tre dimensioni, produrne uno è un po’ come schiacciare un pallone sferico per ottenere una sporgenza. Se si vuole G > 1 in qualche direzione particolare si deve schiacciare il resto ed ammettere G < 1 da qualche altra parte. Il punto importante è che il guadagno integrato su tutte le direzioni attorno ad un’antenna ammonta al valore unitario. La potenza irradiata da un’antenna isotropa PT si distribuisce in modo uniforme su di una sfera in modo tale che il flusso di potenza Φ T ad una distanza RT dall’antenna è dato da: PT (6.3) 4πRT2 Tuttavia le antenne reali non sono omnidirezionali ma concentrano la propria potenza in una data direzione. Per questo è opportuno modificare la precedente equazione tenendo conto della direzione tramite il guadagno d’antenna in modo da ottenere la seguente relazione per il flusso di potenza: Φ T ( RT ) = Φ T ( RT , θ , ϕ ) = PT GT (θ , ϕ ) 4πRT2 (6.4) Tale flusso di potenza investe un bersaglio che espone ad esso una superficie nota come sezione d’urto radar σ (RCS, radar cross section), dipendente dalla forma dell’oggetto colpito, dal materiale che lo costituisce, dalla lunghezza d’onda incidente, etc., per cui il bersaglio reirradierà isotropicamente una potenza data dal prodotto tra il flusso di potenza incidente e la sezione d’urto radar: 85 Preirradiata = Φ T σ = PT GT σ 4πRT2 (6.5) Ad essa è associato un flusso che si ottiene considerando che tale potenza si distribuisce, nel suo tragitto verso il ricevitore, su una sfera di raggio R R pari alla distanza tra il bersaglio e il ricevitore stesso: ΦR = PT GT σ (4πRT2 )(4πRR2 ) (6.6) Del flusso inviato al ricevitore solo una parte sarà intercettata dall’antenna, che è in grado di raccogliere una potenza proporzionale alla sua area efficace Aeff , cosicché la potenza al ricevitore PR risulta essere pari a: PR = PT GT σAeff (4πRT2 )(4πRR2 ) (6.7) Utilizzando la relazione 6.2 per l’area efficace si ottiene la fondamentale equazione radar generale, riferibile immediatamente al caso forward-scatter: PR = PT GT G Rσλ2 (4π ) 3 RT2 RR2 (6.8) L’equazione radar nel caso back-scatter si può ottenere direttamente dalla precedente tenendo conto che Rt = Rr = R PR = PT GT G Rσλ2 (4π ) 3 R 4 (6.9) 6.3 Le bande comunemente usate Similmente a quanto visto nel telerilavemento ottico, i sensori radar operano su diverse bande. Per una migliore identificazione, è stato definito uno standard che definisca degli intervalli di lunghezze d’onda usando delle lettere, per distinguere tra varie bande. La missione europea ERS e quella canadese Radarsat usano la banda C. Proprio come le bande multispettrali, le varie bande radar forniscono informazioni riguardo alle caratteristiche di differenti oggetti. Fig. 6.4 – Lo spettro delle microonde e l’identificazione delle bande attraverso le lettere La frequenza radar può inoltre essere scelta in modo che il suo assorbimento da parte delle molecole atmosferiche (ossigeno e vapore acqueo) sia basso. La figura 6.5 mostra le bande di assorbimento in termini di trasmissione atmosferica percentuale in funzione della frequenza (lunghezza d’onda). 86 Possiamo notare che nella regione 1-10 Ghz (3-30 cm) la trasmissività è prossima al 100%. Di conseguenza, essendo praticamente indipendente dalla copertura nuvolosa o dalle precipitazioni, che costituiscono un fattore fortemente limitante nel telerilevamento ottico, un SAR operante in questo intervallo di frequenze è sempre in grado di acquisire immagini relative alla superficie terrestre. L’utilizzo di sensori SAR è dunque di enorme importanza in quelle zone regolarmente coperte da foschia o nuvole, come ad esempio le foreste tropicali, dove la topografia e la mappatura tematica erano praticamente impossibili prima dell’avvento dei radar di immagine. L’indipendenza dalle condizioni meteorologiche combinata con la capacità di operare sia di giorno che di notte hanno fatto del SAR un dispositivo di monitoraggio per l’intera superficie terrestre, obiettivo, questo, non raggiungibile con i sensori ottici. All’aumentare della frequenza nella zona delle microonde, l’attenuazione di trasmissione aumenta. A 22 GHz c’è una banda di assorbimento di vapore acqueo che riduce la trasmissione a circa l’85% mentre vicino ai 60 GHz la banda di assorbimento dell’ossigeno impedisce praticamente a qualsiasi segnale di raggiungere la superficie terrestre. Intorno a queste bande di assorbimento vi sono numerose finestre in cui è possibile acquisire immagini della superficie terrestre a microonde in alta frequenza. Tali finestre sono utili per sistemi radar ad apertura reale come altimetri e radiometri a microonde. Inoltre, per un sistema SAR interferometrico, l’accuratezza di mappatura dell’altezza topografica aumenta con la separazione della baseline dell’antenna, o equivalentemente al decrescere della lunghezza d’onda. Per questa applicazione, la finestra intorno ai 35 GHz è particolarmente adatta dal punto di vista delle possibilità operative. Fig. 6.5 – Trasmissione percentuale attraverso l’atmosfera terrestre per la porzione dello spettro elettromagnetico relativa alle microonde. Le immagini radar contengono informazioni abbastanza diverse rispetto a quelle ottenute con sensori che lavorano nell’ottico o nell’infrarosso. Mentre nell’intervallo ottico la responsabilità delle caratteristiche di riflettività dell’oggetto è principalmente delle risonanze molecolari, nella regione delle microonde le proprietà geometriche e dielettriche diventano rilevanti per la retrodiffusione. Le immagini radar inoltre enfatizzano il rilievo e la struttura morfologica del terreno osservato cosi come i cambiamenti nella conduttività del suolo, per esempio causati da 87 differenze nell’umidità del suolo. A causa della sensibilità alle proprietà dielettriche le immagini SAR in teoria possono anche fornire informazioni relative alla condizione della vegetazione, il che è di grande importanza per applicazioni in materia di agricoltura e foreste. La lunghezza d’onda del sistema radar influenza in qualche misura la profondità a cui le onde penetrano nella superficie degli oggetti. In più, essa determina la dimensione degli oggetti con cui le onde possono interagire. Grazie alla loro grandi lunghezze d’onda le microonde sono in grado di penetrare la vegetazione e anche il suolo, almeno fino ad una certa profondità. Le capacità di penetrazione dipendono dalla lunghezza d’onda così come dalle costanti dielettriche complesse, dalle conduttività e dalle densità dei bersagli osservati.. Per esempio, una microonda corta, in banda X (= circa 3 cm) potrà penetrare solo le foglie sulla cima di un albero, mentre nel caso di banda L (23 cm) la radiazione penetra nel tetto di foglie. Infatti, lunghezze d’onda più corte - come quelle in banda X - mostrano tipicamente un’attenuazione alta e vengono retrodiffuse principalmente sulla superficie o sulla parte superiore della vegetazione; di conseguenza a queste lunghezze d’onda si ottengono principalmente informazioni relative a questo strato. Lunghezze d’onda maggiori, come quelle in banda L o banda P di solito penetrano in profondità nella vegetazione e spesso anche nel terreno. La retrodiffusione quindi contiene contributi provenienti dall’intero oggetto. Di conseguenza la polarizzazione delle microonde gioca un ruolo importante nell’interpretazione della forma e dell’orientazione di piccoli elementi diffondenti che formano la superficie dell’oggetto. Quindi, l’uso delle microonde con diverse polarizzazioni porta ad avere immagini diverse che potrebbero aiutare nell’identificazione degli oggetti. 6.4 Le polarizzazioni delle microonde Come visto nel § 2.2.2, la polarizzazione di un’onda elettromagnetica è una caratteristica importante nel campo del telerilevamento radar. Infatti, a seconda della direzione e dell’orientazione dell’onda radar trasmessa e ricevuta, la polarizzazione darà luogo a immagini diverse. È possibile lavorare con onde radio polarizzate orizzontalmente, verticalmente e miste. Usando polarizzazioni diverse e diverse bande radar, è possibile ottenere informazioni utili per particolari applicazioni, come ad esempio, la classificazione dei campi agricoli. Nelle descrizioni dei sistemi radar si possono incontrare solitamente queste abbreviazioni: − HH: trasmissione orizzontale e ricezione orizzontale; − VV: trasmissione verticale e ricezione verticale; − HV: trasmissione orizzontale e ricezione verticale; − VH: trasmissione verticale e ricezione orizzontale. In particolare, le polarizzazioni HH e VV, quelle cioè che si ottengono quando le polarizzazioni in trasmissione e in ricezione sono uguali, sono dette co-polarizzazioni, mentre le polarizzazioni HV e VH, ossia quelle in cui le polarizzazioni in trasmissione e in ricezione sono ortogonali l’una all’altra, sono dette polarizzazioni incrociate. Queste ultime hanno ragione di esistere dal momento che esistono sia bersagli con intensità della risposta diversa a seconda della polarizzazione incidente, sia bersagli in grado di modificare lo stato di polarizzazione dell’onda incidente. I più semplici sistemi SAR spesso operano con una sola polarizzazione a causa dei costi elevati di implementazione. I sistemi SAR utilizzati per scopi di ricerca invece tendono ad avere polarizzazioni multiple, e in alcuni casi dispongono di tutte le polarizzazioni possibili (nel qual caso sono detti “quad-pol”). Le polarizzazioni multiple aiutano a distinguere la struttura fisica delle superfici illuminate: - allineamento rispetto al radar (HH contro VV); - la casualità della diffusione (esempio: vegetazione – HV); - le strutture ad angolo (esempio: fase tra HH e VV); - diffusione di Bragg (esempio: oceani – VV). 88 6.5 Proprietà geometriche del radar La piattaforma su cui il sensore è montato si muove lungo l’orbita. Il fascio di microonde illumina un’area sulla superficie terrestre, detta strisciata o swath con una certa obliquità rispettoal nadir. La direzione lungo la traccia è chiamata azimut, la direzione perpendicolare è detta distanza o range. Fig. 6.6 – Geometria del telerilevamento radar 6.5.1 Geometria del radar Per interpretare correttamente i dati radar è necessario tenere conto della geometria di acquisizione. I radar usati per il telerilevamento del terreno sono quasi sempre sistemi di tipo side-looking, ossia ad osservazione laterale della scena, mentre molti strumenti ottici sono di tipo nadir-looking, ossia con osservazione nadirale. Qiesta differenza esiste perché gli strumenti ottici sono in grado di distinguere tra bersagli sulla base della loro distanza angolare dal nadir del sensore. Invece un radar può distinguere i ritorni provenienti da vari bersagli generalmente solo sulla base del tempo di arrivo dei segnali ricevuti. Un radar ad acquisizione nadirale non sarebbe in grado di distinguere tra due bersagli a e b (Fig. 6.7) che sono ugualmente distanti dal sensore in quanto un singolo fronte d’onda incidente illumina entrambi i punti nello stesso istante, e di conseguenza i ritorni retrodiffusi da entrambi i punti arrivano all’antenna ricevente simultaneamente. Questo causa un’ambiguità destra/sinistra per tutti i punti simmetrici rispetto al nadir. Se invece l’illuminazione del radar viene limitata ad un lato della piattaforma, il fronte d’onda illumina gli stess due punti ad istanti diversi; di conseguenza i loro ritorni retrodiffusi arrivano al sensore in istanti di tempo differenti e sono quindi distinguibili l’uno dall’altro. Fig. 6.7 – Acquisizione di tipo nadir-looking (a) e side-looking (b) La porzione dell’immagine più vicina alla traccia del nadir del satellite che porta il sensore radar è chiamata distanza corta o near range. La parte dell’immagine che risulta essere la più lontana dal nadir è chiamata distanza lunga o far range. L’angolo di incidenza del sistema è definito come l’angolo tra la direzione di propagazione dell’onda incidente e la verticale. Andando dal near range 89 verso il far range tale angolo aumenta. È importante distinguere tra l’angolo di incidenza del sensore e l’angolo di incidenza locale, che cambia a seconda dell’inclinazione del terreno. Questo ultimo angolo è definito come l’angolo tra il fascio del radar e la normale locale alla superficie. Il sensore radar misura la distanza tra l’antenna e l’oggetto; questa distanza è detta distanza in portata o slant range. La vera distanza orizzontale lungo il terreno corrispondente ad ogni punto di misura è detta distanza a terra o ground range. Fig. 6.8 – Angolo di incidenza e angolo di incidenza locale nel radar 6.6 Risoluzione spaziale Nel telerilevamento radar, le immagini sono create a partire dai segnali trasmessi e retrodiffusi. Se ogni impulso singolo trasmesso forma un elemento nell’immagine il sistema è detto Radar ad Apertura Reale. Le risoluzioni spaziali in direzione slant range e in azimut sono definite attraverso la lunghezza dell’impulso e la larghezza del fascio dell’antenna, rispettivamente. Dato che i parametri che determinano le due risoluzioni sono diversi, è ovvio che la risoluzione spaziale nelle due direzioni è diversa. Per il trattamento e l’interpretazione delle immagini radar è utile ricampionare le immagini che contengono i dati con una spaziatura regolare in entrambe le direzioni, che nel caso del SAR di ERS-1 è 30 m × 30 m. Fig. 6.9 – Rappresentazione delle direzioni slant range e ground range 90 6.6.1 Risoluzione in slant range La risoluzione in slant range è pari a : ρ sr = τ ⋅c 2 Per una spiegazione più approfondita di tale formula si rimanda al § 6.8. (6.10) 6.6.2 Risoluzione in ground range (o distanza al suolo) In ground range la risoluzione spaziale è definita come la distanza che due oggetti sul suolo devono avere tra di loro per dare due echi differenti nel segnale di ritorno. In altre parole, due oggetti saranno distinti nella direzione di distanza se sono separati da almeno metà della lunghezza dell’impulso. La risoluzione in distanza è indipendente dalla distanza stessa. Comunque, nella geometria del ground range, la risoluzione dipende dall’angolo di incidenza. La risoluzione in ground range è legata a quella in slant range attraverso il seno dell’angolo di vista: ρ gr = τ ⋅c 2 sin ϑ (6.11) 6.6.3 Risoluzione in azimut La risoluzione lungo l’azimut corrisponde alla minima distanza a cui deve trovarsi (nella direzione di volo della piattaforma, ossia lungo l’azimut) un punto P’ dal punto P affinché essi appaiano separati. Essa dipende dall’ampiezza β del fascio lungo l’azimut, ossia: ρ az = r ⋅ β = h⋅β cos ϑ (6.12) dove r è lo slant range, ossia la distanza tra il radar e il punto P. Ricordando che l’ampiezza di fascio a -3 dB per un’antenna ad apertura la cui lunghezza nella direzione di volo della piattaforma sia L è esprimibile come: h⋅λ ρ az = (6.13) L ⋅ cos ϑ direttamente proporzionale alla quota e inversamente proporzionale alla lunghezza dell’antenna. Di conseguenza, più lunga è l’antenna, più stretto è il fascio e più alta è la risoluzione spaziale in azimut. I radar di immagine la cui risoluzione in azimut è legata all’ampiezza del fascio azimutale dell’antenna sono detti Radar ad Apertura Reale (RAR, Real Aperture Radar). Consideriamo, ad esempio, un RAR posto su piattaforma aerea ed avente le seguenti caratteristiche: - λ = 3,1 cm (Banda X); - L = 10 metri; - h = 7 Km; - ϑ = 29°. In tal caso la risoluzione lungo l’azimut sarà pari a circa 24 metri. Lo stesso radar a bordo di un satellite, ad un’altezza di 700 km avrebbe una risoluzione lungo la direzione del moto 100 volte peggiore, ossia di circa 3 km. È questa la ragione principale per la quale un RAR su piattaforma satellitare è improponibile. Una tecnica che permette di ottenere immagini radar con risoluzione azimutale buona e, soprattutto, indipendente dalla quota della piattaforma (come la risoluzione in range) è la tecnica del Radar ad Apertura Sintetica (SAR). 6.7 Radar ad Apertura Sintetica (Synthetic Aperture Radar, SAR) Ovviamente ci sono dei limiti fisici alla lunghezza dell’antenna impiegabile in un radar; primo tra tutti, la massima lunghezza della struttura che può essere montata a bordo di un aereo o di un 91 satellite. D’altra parte, accorciare le lunghezze d’onda porta ad avere una limitata capacità di penetrazione delle nuvole e, soprattutto, delle idrometeore. Per uscire da questo dilemma è stato sviluppato un approccio in cui la lunghezza dell’antenna viene aumentata in maniera virtuale, sintetizzando così un’antenna più grande del reale. I sistemi che usano tale approccio sono detti Radar ad Apertura Sintetica o SAR (Synthetic Aperture Radar). Lo sviluppo del radar ad apertura sintetica ha avuto inizio nel 1951 con Carl Wiley, che pensò di usare l’informazione Doppler per migliorare la risoluzione in azimut del convenzionale radar ad apertura reale ad osservazione laterale (SLAR). Sulla base di quest’idea e dei successivi sviluppi, la prima immagine SAR fu prodotta dai ricercatori dell’Università del Michigan nel 1958. Oltre alle tradizionali applicazioni (geografia, topografia e creazione di mappe tematiche), oggi i sensori SAR vengono utilizzati in settori come l’oceanografia, lo studio delle foreste, l’agricoltura, la pianificazione urbana, le scienze ambientali nonché la previsione e la quantificazione di disastri naturali. I sensori SAR operano nella regione delle microonde dello spettro elettromagnetico con lunghezze d’onda tipiche tra 1 cm e alcuni metri, e hanno caratteristiche fisiche del tutto simili a quelle dei radar ad apertura reale presentate all’inizio del capitolo. Benché la presenza del sole non sia rilevante nel processo di acquisizione delle immagini, essa può tuttavia condizionare le caratteristiche di diffusione del bersaglio. La sintetizzazione della lunghezza dell’antenna viene ottenuta avvantaggiandosi del moto di avanzamento della piattaforma e usando per uno stesso bersaglio un numero considerevole di segnali retrodiffusi per simulare un’antenna molto lunga. Il funzionamento del SAR è basato sul fatto che l'antenna radar, montata su satellite o su aereo, si muove con una certa velocità. Ogni volta che essa emette l'impulso RF (solitamente un chirp) e ne riceve l'eco, essa si trova in una posizione diversa in virtù del moto della piattaforma. Se si raccolgono e si memorizzano tutti questi echi relativi a diversi istanti si può pensare che essi derivino da porzioni diverse di una medesima antenna (o meglio di una schiera) di dimensioni globali di gran lunga superiori a quelle dell'antenna reale. Elaborando opportunamente tali echi è possibile ricostruire quello che sarebbe stato il segnale di ritorno dell’antenna lunga. Da ciò si comprende la denominazione di radar ad apertura sintetica. La risoluzione che si riesce ad ottenere a terra è quindi legata alla lunghezza dell'antenna sintetica piuttosto che a quella dell'antenna reale. Infatti, come verrà descritto più nel dettaglio in seguito, più corta è l’antenna reale, più ampio è il fascio, quindi lo stesso bersaglio viene osservato per un tempo maggiore, e di conseguenza viene raccolta maggiore informazione riguardo ad esso. È possibile dimostrare che la risoluzione teorica nella direzione di azimut è pari alla metà della lunghezza dell'antenna reale e non dipende dalla quota di volo e dalla frequenza. Utilizzando antenne più piccole è infatti teoricamente possibile "allungare" l'antenna sintetica e quindi aumentare la risoluzione a scapito di una maggiore complessità nel sistema di elaborazione. (In realtà, altri fattori, tra cui l'atmosfera, contribuiscono a determinare un limite alla risoluzione raggiungibile). Antenne più piccole, infatti, generano fasci più larghi e quindi sono in grado di illuminare lo stesso oggetto da terra da un numero maggiore di posizioni lungo la linea di volo. 92 Fig. 6.10 – Principio di funzionamento del SAR; realizzazione dell’antenna sintetica nella direzione di azimuth Ponendoci da un'altro punto di vista nello spiegare il principio di funzionamento di questo tipo di radar, è anche possibile affermare che il radar ad apertura sintetica discrimina zone della superficie che si trovano all'interno del lobo d'antenna (reale) in virtù del fatto che il loro ritorno radar presenta uno spostamento doppler diverso a seconda della posizione lungo una linea di azimuth. I punti che non presentano spostamento doppler sono, per inciso, quelli posti lungo la normale alla direzione di volo (trascurando la rotazione terrestre). Uno dei principali problemi nell’analisi dei dati SAR è collocare esattamente i diversi contributi di retrodiffusione in modo da permetterne la corretta sovrapposizione. L’informazione desiderata è contenuta nel dato ma non è accessibile in quanto può essere misurata solo la retrodiffusione totale nella quale confluiscono in ogni istante i contributi di diversi diffusori (ricordiamo che il fascio reale ha un’apertura piuttosto larga). La relazione tra i dati misurati ed i parametri di interesse è spesso ambigua e non può essere risolta senza dell’informazione a priori. Un altro problema è che l’esatta origine della retrodiffusione è in principio sconosciuta dato che la geometria SAR ha una simmetria cilindrica o, se si preferisce, circolare su ogni sezione perpendicolare alla direzione di moto della piattaforma. Di conseguenza l’angolo di elevazione da cui è visto l’oggetto retrodiffondente e quindi la sua altezza topografica restano sconosciuti. Per risolvere queste ambiguità si fa spesso ricorso all’interferometria. Fig. 6.11 – Dipendenza dalla lunghezza d’onda delle capacità di penetrazione delle microonde nella vegetazione e nel suolo. 93 L’Interferometria SAR (INSAR) è una tecnica che analizza la differenza di fase tra due immagini SAR acquisite da posizioni leggermente differenti. Questa differenza di fase è legata alla topografia del terreno della scena e può essere usata per generare modelli di elevazione del terreno digitali ad alta risoluzione (DEMs). Oltre alla mappatura topografica, per ottenere una mappatura precisa dei cambiamenti nell’elevazione è possibile utilizzare una versione estesa dell’interferometria SAR, detta interferometria differenziale. Tale tecnica permette l’individuazione delle deformazioni della superficie su una scala più piccola della lunghezza d’onda del radar, solitamente nella gamma dei millimetri. I dati SAR interferometrici hanno un contenuto di natura diversa rispetto ai semplici dati SAR. La correlazione o la coerenza tra due immagini SAR è molto sensibile ai cambiamenti delle impostazioni dei diffusori all’interno delle celle di risoluzione. In particolare, la coerenza di dati multitemporali, multifrequenza o multipolarizzazione può essere usata per analizzare e caratterizzare dei processi mutanti, come ad esempio quelli che avvengono negli strati vegetativi o sulle superfici naturali. La Polarimetria SAR (POLSAR) è un’altra delle principali estensioni della formazione di immagini SAR a singolo canale. Come tutte le onde elettromagnetiche anche le microonde hanno una natura vettoriale, e una completa descrizione del problema di retrodiffusione nella scienza radar richiede una formulazione vettoriale matriciale. Questo è uno degli obiettivi della polarimetria radar, una tecnica che ebbe inizio a partire dall’introduzione del concetto di matrice di diffusione da parte di G. W. Sinclair nel 1948. Dato che la polarimetria radar richiede l’impiego di dispositivi elettronici hardware avanzati, che non erano disponibili alla fine degli anni ’40 e negli anni ’50, la polarimetria radar rimase solo un concetto teorico e non vide riconosciuto il suo utilizzo pratico per applicazioni civili. La situazione cambiò nei primi anni ’80 grazie alla messa a disposizione di dati SAR polarimetrici da parte del sistema aviotrasportato AIRSAR di proprietà della NASA/JPL. A partire da allora la polarimetria SAR è diventata progressivamente una tecnica consolidata del telerilevamento. Essa è supportata dal crescente numero di sensori polarimetrici aviotrasportati quali il sistema E-SAR del DLR o il sistema AIRSAR della NASA/JPL, che forniscono dati polarimetrici ad alta risoluzione in numerose bande di frequenza. Inoltre, nel 1994 ebbero luogo due missioni degli shuttle SIR-C e X-SAR, che acquisirono per la prima volta dallo spazio dei dati pienamente polarimetrici in banda C ed L. Una caratteristica speciale della polarimetria SAR è che essa permette la discriminazione dei diversi tipi dei meccanismi di retrodiffusione. Questo diventa possibile in quanto le firme polarimetriche osservate dipendono fortemente dal processo di retrodiffusione in atto. Rispetto ai convenzionali SAR a singolo canale, l’inclusione della polarimetria SAR può portare ad un miglioramento significativo della qualità dei risultati di classificazione e di segmentazione. Alcuni modelli di retrodiffusione polarimetrica forniscono anche un’interpretazione fisica diretta del processo di retrodiffusione, rendendo dunque possibile una stima dei parametri fisici del suolo come umidità e rugosità del terreno, così come metodi di classificazione non supervisionata con identificazione automatica delle caratteristiche di diffusori diversi e di diversi tipi di bersaglio. La polarimetria SAR offre delle limitate capacità di separazione dei meccanismi di diffusione multipla che avvengono all’interno della stessa cella di risoluzione; questo può essere considerato il primo passo nella risoluzione del problema dell’ambiguità di collocazione del diffusore nel SAR. Con le tecniche di decomposizione polarimetrica un segnale ricevuto può essere diviso in una somma di tre contributi di diffusione con firme polarimetriche ortogonali (intrinsecamente quattro nel caso del SAR, ma ipotizzando una retrodiffusione simmetrica reciproca le due componenti di cross-polarizzazione sono uguali). Ciò può essere usato per estrarre i tipi di bersagli corrispondenti nell’immagine, anche nel caso in cui essi avvengano sovrapposti. Inoltre, se il segnale è disturbato da contributi ortogonali indesiderati, in questo modo si possono estrarre le componenti rilevanti, migliorando i risultati per diverse applicazioni. Inoltre, l’interferometria SAR polarimetrica (POLINSAR) combina le capacità dell’interferometria per estrarre l’informazione di altezza con tecniche di decomposizione polarimetrica. Con la POLINSAR si può ottenere un’immagine di volume (anche se con certe restrizioni), permettendo 94 per esempio una stima delle altezze degli alberi o della topografia del suolo. In tempi recenti si è cominciato a prestare sempre maggiore attenzione alla stima dei parametri sulla base di dati polarimetrici interferometrici. Questa tecnica cerca di invertire modelli di diffusione per determinare i parametri fisici di interesse dai segnali misurati. I concetti della polarimetria SAR oggigiorno vengono applicati in molti settori scientifici, come l’agricoltura e lo studio delle foreste per il monitoraggio delle colture, per l’identificazione delle specie e la stima della biomassa. Anche in geologia e in idrologia la possibilità di caratterizzare la rugosità del terreno così come l’umidità del suolo e della neve fanno della polarimetria SAR un argomento di grande interesse. In ultimo, essa è usata in oceanografia per monitorare i sistemi di onde e per stimare l’età dei ghiacci e lo spessore delle regioni polari. 6.8 Principi di acquisizione radar L’obiettivo del radar di immagine è di generare una mappa di riflettività bidimensionale di una scena osservata nella regione delle microonde dello spettro elettromagnetico. Abbiamo già visto come si determina l’intensità del ritorno (vedi § 6.2.), ora ci occupiamo dell’aspetto della collocazione dei ritorni in una mappa radar. Un sistema di radar di immagine normale monostatico è costiuito da un trasmettitore e da un ricevitore a microonde, che operano su una piattaforma in movimento come un aereo o un satellite. Nel caso più semplice l’antenna è orientata parallelamente alla direzione di volo, cioè guarda di lato rispetto al suolo. La direzione di osservazione dell’antenna è detta normalmente “range” o “slant-range”. Il trasmettitore emette consecutivamente brevi e veloci impulsi radar al suolo. Questi impulsi vengono riflessi da un diffusore presente al suolo e dopo un certo ritardo di tempo ∆t essi raggiungono nuovamente il ricevitore. Questo ritardo di tempo è una funzione della distanza r tra il sensore e il diffusore: 2r ∆t = (6.14) c dove c indica la velocità della luce. È possibile risolvere (=distinguere) diffusori differenti finché i loro echi non si sovrappongono neanche parzialmente, finché cioè rimane possibile percepire la fine del primo ritorno (dal diffusore più vicino) e successivamente l’inizio del secondo ritorno (dal diffusore un po’ più lontano). Di conseguenza, la risoluzione raggiungibile in slant-range δ sr è dipendente dalla lunghezza dell’impulso trasmesso τ : cτ δ sr = (6.15) 2 La risoluzione in portata è invece indipendente dalla distanza tra il diffusore e il sensore, perché le considerazioni sopra scritte non cambiano con la distanza. Per ottenere una risoluzione fine in portata, sono necessarie durate di impulso molto brevi, ma se si vuole mantenere l’energia costante per non peggiorare il rapporto segnale/rumore occorre aumentare l’ampiezza per compensare la minore durata, e le potenze risultanti possono porre problemi. Invece nei radar moderni di solito è possibile raggiungere una risoluzione fine senza concentrare troppo l’energia, trasmettendo un impulso più lungo con una modulazione lineare di frequenza (chirp). L’energia di questo impulso viene distribuita su una durata più lunga, ma può essere di nuovo compressa dopo la ricezione con un’operazione di filtraggio adattato. In questo caso la risoluzione in slant range in funzione della larghezza di banda W dell’impulso è : c δ sr = (6.16) 2W Per esempio, una larghezza di banda di 100 MHz corrisponde ad una risoluzione di 1,5 m. Nella direzione lungo la traccia o azimut la risoluzione di un semplice radar a scansione laterale corrisponde alla dimensione dell’impronta a terra del fascio. La risoluzione angolare α ra di 95 un’antenna di lunghezza L nella direzione di azimut è limitata a causa degli effetti di diffrazione sulla sua apertura. Per una lunghezza d’onda di λ essa è data da: α ra = λ L La risoluzione spaziale in azimut ad una data portata r0 risulta data da: δ az = α ra r0 = (6.17) λr0 (6.18) L Evidentemente, la risoluzione in azimut peggiora all’aumentare delle altezze di volo e delle corrispondenti distanze dall’oggetto. Fig. 6.12 – Sinistra: geometria di acquisizione SLAR/SAR in modalità strip mode; destra: rappresentazione geometrica della larghezza massima possibile dell’apertura sintetica Lsa. 6.8.1 Risoluzione di un radar ad apertura sintetica Un radar ad apertura sintetica (SAR) supera tutti i problemi citati ed è progettato per raggiungere alte risoluzioni con piccole antenne su lunghe distanze. Un sistema SAR trae vantaggio dal fatto che la risposta di un diffusore al suolo è potenzialmente contenuta in più di un singolo ritorno radar, e mostra una storia della fase tipica sul tempo durante il quale il bersaglio rimane illuminato. Una combinazione coerente appropriata di numerosi impulsi porta alla formazione delle antenne allargate sinteticamente – la cosiddetta “apertura sintetica”. Gestire questa struttura è molto simile a gestire una schiera di antenne, con la differenza che in questo caso fisicamente viene utilizzata una sola antenna e i diversi elementi della schiera sintetica sono generati sequenzialmente nel tempo attraverso il movimento della piattaforma. La risoluzione angolare di un’apertura sintetica di lunghezza Lsa è nuovamente data dal limite di diffrazione, ed è due volte più alta di quella di un’apertura reale della stessa lunghezza: α sa = λ (6.19) 2 Lsa Il fattore 2 è il risultato della formazione dell’apertura sintetica: le differenze di fase tra elementi nell’antenna sintetica risultano dalla differenza di un cammino andata e ritorno e sono di conseguenza due volte più grandi che nel caso di un’antenna reale. La lunghezza massima dell’apertura sintetica è la lunghezza della linea di volo da cui un diffusore viene illuminato. Questa è uguale alla dimensione dell’impronta a terra dell’antenna alla distanza r0 , dove il diffusore è situato a: Lsa = α ra r0 = λr0 (6.20) L Se si sfrutta tutta l’apertura sintetica, la risoluzione spaziale azimutale alla distanza r0 risulta essere: L δ az = α sa r0 = (6.21) 2 96 È interessante notare che la risoluzione ottenuta è ora totalmente indipendente dalla distanza in portata ed è determinata solo dalla dimensione dell’antenna reale. Questo è il risultato della lunghezza dell’apertura sintetica, crescente con la distanza del bersaglio. In contrasto rispetto a quanto avviene nei sistemi SLAR (ad apertura reale), un’antenna più corta produce risoluzioni più alte. Comunque, altri fattori intervengono a limitare la risoluzione raggiungibile; ad esempio la maggiore distanza rende più debole il ritorno, quindi per poter raggiungere gli stessi rapporti segnale/rumore serve un’antenna reale più grande, che significa un peggioramento della risoluzione. A causa di queste e numerose altre limitazioni tecniche (potenza disponibile, velocità di trasmissione), un SAR montato su satellite ha tipicamente una risoluzione più bassa (approssimativamente 5 m) di un SAR montato su aereo (fino a 30 cm). Comunque, con i sistemi SAR diventa possibile acquisire immagini radar ad alta risoluzione anche in caso di distanze molto lunghe in portata. 6.8.2 Storia della fase di un bersaglio puntiforme Fig. 6.13 – Geometria di acquisizione di un sistema SAR. La Fig. 6.13 mostra l’illuminazione di un bersaglio puntiforme da parte di un sensore SAR durante l’acquisizione dei dati. Il sensore viene mosso lungo l’asse x (azimut) ed emette gli impulsi radar al suolo perpendicolarmente alla direzione di volo. La distanza tra il sensore alla posizione x e il bersaglio può essere espressa tramite il teorema di Pitagora come: r = x 2 + r02 (6.22) dove r0 indica la minima distanza tra i due a x = 0 , ossia la distanza perpendicolare bersaglio – linea di volo. Dato che il bersaglio solitamente rimane visibile per un tratto che è una piccola frazione della distanza dal sensore, si può procedere all’approssimazione seguente: r02 x2 x2 x2 r = r0 2 + 2 = r0 1 + 2 ≈ r0 + x << r0 (6.23) 2r0 r0 r0 r0 Dove l’uguaglianza approssimata corrisponde allo sviluppo in serie di potenze dell’espressione arrestata al termine di secondo grado. La fase degli echi ricevuti sarà dunque: 2π x 2 4πr0 2πx 2 = ϕ ( x) = 2 r0 + + = k1 + k 2 ⋅ x 2 (6.24) 2r0 { λ λ λr0 cos tan te Se si assume una velocità del sensore costante pari a ν e si trascura il termine costante che non è di interesse per le fasi, utilizzando l’abbreviazione k = 2πν 2 λr0 , si ottiene un comportamento della fase quadratico col tempo: 97 ϕ (t ) = k1 { + k 2 x 2 = k 2 (ν t ) 2 = k 22ν 2 t 2 = kt 2 { trascurato (6.25) cos tan te Il comportamento quadratico della fase corrisponde ad un cambiamento lineare nella frequenza ricevuta, che viene detto effetto Doppler. 1 ∂ϕ (t ) k f (t ) = (6.26) = t 2π ∂t π L’approssimazione lineare alla base di tale effetto Doppler è accurata solo finché x è molto piccolo rispetto a r0 . In caso contrario bisogna ricostruire esattamente la storia iperbolica delle fasi. Questo succede solitamente per i radar SAR con un’apertura sintetica molto lunga (x diventa grande) e per i radar con osservazione obliqua in azimut (squinted). Il massimo tempo di illuminazione di un bersaglio puntiforme è definito dall’estensione in azimut del fascio dell’antenna (pari a sua volta all’apertura sintetica). Tale lunghezza, uguale alla lunghezza dell’apertura sintetica, è data da: θ r I t max = sa = ra 0 (6.27) υ υ La banda del segnale in azimut Ba è quindi pari a: Ba = f (t max 2) − f (− t max 2) (6.28) Sapendo che f (t ) = k π e k = k 2ν 2 = 2 (6.29) t π 2 ν λr0 (6.30) sostituendo f (t ) nell’espressione si ottiene: k θ ra r0 k θ ra r0 k θ ra r0 Ba = − − =− π 2ν π 2ν π ν Sostituendo poi k si ottiene: 2θ raν k θ ra r0 2πν 2 1 θ ra r0 Ba = = ⋅ ⋅ = π ν λr0 π ν λ 123 (6.31) (6.32) k L’espressione della banda Doppler: Ba = 2θ raν (6.33) λ rappresenta anche la larghezza di banda della storia di fase del bersaglio. Il SAR funziona ad impulsi, quindi la storia di fase è costituita da campioni: uno per ogni impulso SAR. Perché la storia di fase conservi tutta l’informazione è necessario che sia soddisfatto il teorema di Nyquist. La larghezza di banda della deriva Doppler impone quindi, attraverso il teorema di Shannon, un limite inferiore alla frequenza di ripetizione degli impulsi (PRF): PRFmin = f Nyquist = 2 Ba = 2 ⋅ 2θ arν λ = 4θ arν λ (6.34) 6.8.3 Elaborazione in azimut L’eco di un singolo bersaglio puntiforme è contenuta nei ritorni di più impulsi, quindi l’informazione è distribuita e sovrapposta a quella di altri bersagli; si dice che il segnale SAR non è focalizzato. Lo scopo dell’elaborazione del dato SAR, anche detta focalizzazione, è di concentrare tutta l’energia del segnale di ritorno da un singolo bersaglio, in un unico punto, a t = 0 . Per 98 raggiungere questo scopo viene utilizzata la storia della fase tipica che proviene dal processo di acquisizione dei dati. Assumendo che la retrodiffusione di un bersaglio puntiforme sia indipendente dal tempo e dall’angolo, e anche dominante rispetto ad altri segnali come rumore e riflessione da bersagli secondari, il segnale ricevuto in direzione di azimut può essere scritto come: S a (t ) = A0 exp(iϕ (t )) = A0 exp(ikt 2 ) (6.35) in cui A0 denota la massima ampiezza del segnale ricevuto (valore complesso). L’idea della compressione in azimut è dunque di rendere tutti questi valori della fase pari ad uno stesso valore, sommandoli poi in maniera coerente. A questo scopo viene effettuata la correlazione di S a (t ) con − ikt 2 una funzione di riferimento R(t ) = e . Questa funzione di riferimento viene costruita in modo che essa abbia in ogni punto esattamente la fase opposta della risposta all’impulso ideale visto nell’equazione 6.22. Dato che la lunghezza dell’apertura sintetica è limitata, e con essa anche la lunghezza del segnale, ha senso limitare anche la lunghezza della funzione di riferimento con una funzione di peso rettangolare: 1 per − tmax 2 < t < + tmax 2 W (t ) = (6.36) altrimenti 0 R(t ) = W (t ) exp(−ikt 2 ) (6.37) Il risultato della correlazione è allora V (t ) = = ∞ ∫S a −∞ ∞ ∫A 0 (ξ ) R (t + ξ )dξ (6.38) exp(ikξ 2 ) exp(−ik (t + ξ ) 2 )W (t + ξ )dξ (6.39) −∞ ∞ = A0 exp(−ikt ) ∫ W (t + ξ ) exp(−2ikξt )dξ 2 (6.40) −∞ Sapendo che solo i valori piccoli di t sono importanti, si può adottare l’approssimazione W (t + ξ ) ≈ W (ξ ) . Nel prosieguo, indicheremo con FT[…..] la trasformata di Fourier. Il risultato della correlazione può essere scritto come: V (t ) = A0 exp(−ikt 2 ) 2π ⋅ FT2 kt [W (ξ )] (6.41) FT2 kt [W (ξ )] = t max 2 ∫ exp(− 2ikξt )dξ (6.42) − t max 2 = exp(−ikt max t ) − exp(ikt max t ) − 2ikt = sin( kt max t ) − 2i sin(kt max t ) = t max − 2ikt kt max t (6.43) (6.44) sin(kt max t ) V (t ) = A0 t max 2π exp(−ikt 2 ) (6.45) kt max t Il risultato dell’operazione di correlazione è l’immagine. La forma principale della risposta impulsiva risultante corrisponde alla trasformata di Fourier della funzione di peso. Se la funzione di ⇒ 99 peso è di tipo gradino, come visto sopra, la risposta impulsiva è una funzione sinusoidale (sinc o sin( x) x ). In Fig. 6.15 viene illustrato questo processo. Il segnale ricevuto, chiamato anche “chirp”, ha ampiezza costante e un andamento di fase parabolico (viene mostrata solo la parte reale del segnale complesso). La funzione di riferimento ha un’ampiezza pari a 1 e come fase esattamente la fase opposta a quella del segnale stesso. Dopo la correlazione con R (t ) il segnale appare ben centrato a t = 0. La sua ampiezza massima aumenta da A0 a 2π t max A0 e il picco della fase è zero. In realtà, qui appaiono anche sia il termine trascurato, proporzionale al doppio della distanza tra l’oggetto e il sensore così come la fase dell’oggetto. Fig. 6.14 – Compressione del segnale. Parte reale del segnale complesso di risposta proveniente da un obiettivo puntiforme ideale (sinistra) e ampiezza del segnale compresso (destra). Si può osservare che più diventa grande t max , cioè più diventa lunga l’apertura sintetica, più V (t ) appare simile ad una funzione delta di Dirac. Definendo la risoluzione come la metà della distanza tra il primo minimo del picco principale a t = ± π kt max , l’apertura sintetica ha di conseguenza una risoluzione in azimut pari a: l πυ υ δ sa = = = ra (6.46) kt max Ba 2 Se si usa la definizione più corretta della risoluzione come metà della larghezza a metà del massimo, si ottiene un valore del 14% più grande. I primi lobi laterali sono solo 13dB più bassi del picco principale. Ciò può causare dei problemi, soprattutto se un bersaglio forte è vicino a dei bersagli più deboli. Di conseguenza, invece di usare una funzione di peso a gradino, spesso vengono impiegate altre forme, le cui trasformate di Fourier mostrano un miglior rapporto Picco/Lobi Laterali (PSLR). Una funzione molto comune per questi usi è la cosiddetta funzione di peso di Hamming: 2πt α + (1 − α ) cos per − t max 2 < t < + t max 2 (6.47) W (t ) = t max 0 altrimenti Fig. 6.15 – Compressione del segnale ottenuta utilizzando una funzione di peso di Hamming. 100 Scegliendo α = 0,54 i primi lobi laterali della trasformata di Fourier vengono soppressi completamente. Il PSLR è dunque ora molto migliore ed ha un valore di -43 dB. Il processo di focalizzazione in azimut è molto impegnativo dal punto di vista computazionale, in quanto bisogna calcolare una correlazione per ogni singolo pixel, dando luogo quindi ad un gran numero di addizioni e moltiplicazioni. Tale processo può essere significativamente accelerato utilizzando il teorema di convoluzione: ∫ f (ξ ) g (t − ξ )dξ = f (t ) ⊗ g (t ) = FT −1 ( FT ( f (ω )) FT ( g (ω ))) (6.48) Grazie a questo teorema, la convoluzione di due funzioni è uguale alla moltiplicazione delle loro trasformate di Fourier nel dominio spettrale. La correlazione rappresenta una convoluzione con una funzione inversa nel tempo: f (t ) ⊗ g (−t ) = ∫ f (ξ ) g (t + ξ )dξ (6.49) Di conseguenza, il segnale compresso desiderato può anche essere ottenuto come sotto: V (t ) = FT −1 [FT [S A (t )]FT [R(−t )]] (6.50) In pratica la frequenza doppler del segnale dipende da ro e varia con la distanza dal bersaglio. È quindi necessario adattare la funzione di riferimento (risposta impulsiva) alla riga dell’immagine che si sta elaborando, dato che per ogni riga si ha una diversa ro. Una volta determinata la funzione di riferimento corretta, essa può essere utilizzata per focalizzare un’intera linea in direzione azimut (o riga dell’immagine) sfruttando il teorema della convoluzione. 6.8.4 Elaborazione in portata In direzione portata un SAR può operare esattamente come un radar convenzionale. Per ottenere un’alta risoluzione in direzione perpendicolare alla direzione di volo, è necessaria una breve durata τ dell’impulso. In pratica, può essere problematico generare un impulso molto breve ma con potenza elevata può essere problematico, dato che le densità di energia risultanti sono difficili da trattare. Un’alta risoluzione è quindi equivalente ad un’alta larghezza di banda del segnale. Una seconda possibilità di generare una larghezza di banda di segnale alta è di usare un impulso lungo ma modulato in frequenza. È comune usare per questo una modulazione di frequenza lineare (chiamata “chirp”): B f (t ) = r t per − τ 2 < t < τ 2 (6.51) τ con Br che indica la larghezza di banda dell’impulso emesso. Come in azimut questo introduce una storia “tipica” della fase nel segnale, che può essere usato per comprimere il segnale. Il chirp rate k è ora: Bπ k = r (6.52) τ Per comprimere il segnale esteso, bisogna costruire una nuova funzione di riferimento, che tenga in considerazione la variazione di frequenza tipicamente più veloce confrontata al caso dell’azimut. La compressione del segnale avviene nello stesso modo, cioè è necessario calcolare la correlazione del segnale con la nuova funzione di riferimento, e il risultato di questa operazione è: sin(kτ t ) Vr (t ) = A0τ 2π exp(ikt 2 ) kτ t La risoluzione risultante in direzione di portata è: 101 (6.53) δ sr = c 2 Br (6.54) Se si elabora il dato grezzo SAR in azimut e portata, si ottiene una risposta impulsiva bidimensionale, che rappresenta il prodotto delle due risposte individuali all’impulso monodimensionale. Questa funzione rappresenta la distribuzione di intensità di un obiettivo puntiforme nell’immagine SAR finale. Fig. 6.16 – Risposta bidimensionale di un obiettivo puntiforme (senza funzione di peso). 6.8.5 Caratteristiche delle immagini SAR Da quanto detto finora è facile aspettarsi che le immagini radar abbiano un aspetto molto diverso da quello delle immagini acquisite dai sensori ottici. Dato che nei due tipi di acquisizione vengono usate parti diverse dello spettro elettromagnetico, il contenuto informativo nei due casi non è confrontabile. Inoltre, l’uso di geometrie diverse nella formazione delle immagini cosi come l’uso di un sistema di sensori coerenti nel caso del SAR, fa sì che i due tipi di immagini risultino ancora più diversi. Per una corretta interpretazione delle immagini SAR diventa dunque necessaria una comprensione dettagliata delle loro caratteristiche. Prima di tutto va detto che a causa della memorizzazione coerente dei dati le immagini SAR hanno valori dei pixel complessi (ampiezza e fase), in contrasto con quanto avviene nelle immagini ottiche in cui viene memorizzata la sola immagine di ampiezza. Per ottenere un’immagine SAR di solito viene impiegata solo l’ampiezza per l’immagine di luminosità in quanto la fase delle immagini ha una distribuzione casuale. Ciò nondimeno la fase delle immagini diventa importante nelle applicazioni di polarimetria e interferometria SAR. Se si guarda ad un diffusore distribuito, cioè ad un pixel dell’immagine in cui sono situati molti diffusori individuali diversi, ognuno di essi dà un contributo alla retrodiffusione complessiva. A causa dell’onda radar coerente, ogni onda retrodiffusa individualmente interferisce nella formazione del segnale totale. Come mostrato in Fig. 6.17 il risultato è un vettore coerente somma di tutti i contributi che ha una fase casuale ed un’ampiezza che è distribuita tra le reali ampiezze di retrodiffusione dei diffusori individuali. Come si vedrà più avanti questo fenomeno dà luogo al così detto rumore speckle. 102 Fig. 6.17 – Somma vettoriale coerente dei contributi individuali di retrodiffusione all’interno di un elemento di risoluzione. 6.9 Distorsioni nelle immagini radar A causa della geometria di vista del sensore radar, che –ricordiamo- guarda di lato e colloca i diffusori sulla base del tempo di ritorno dell’onda, le immagini radar risentono di serie distorsioni geometriche e radiometriche. Nelle immagini radar si incontrano variazioni di scala (geometria slant range), distorsione prospettica o foreshortening (accorciamenti), scavalcamenti o layover, ombre (dovute all’elevazione del terreno) ed effetti di speckle. 6.9.1 Distorsioni di scala Il radar misura la distanza dagli oggetti in termini di distanza dal sensore piuttosto che di vere distanze orizzontali lungo il terreno. Quindi, l’immagine ha scale differenti procedendo dalla distanza corta a quella lunga. Infatti nell’immagine iniziale prodotta da molti sistemi radar, le posizioni dei ritorni radar in direzione distanza sono basati sulle loro distanze in slant range. Dato che l’angolo delle riflessioni radar varia in direzione distanza, la scala orizzontale dell’immagine in slant range non è costante. Gli oggetti della parte dell’immagine vicini alla linea di volo (il near range) appaiono compressi in direzione distanza se confrontati con gli oggetti presenti nel far range. Utilizzando l’altezza del sensore e l’assunzione di terreno piatto, è possibile elaborare un’immagine in slant range per produrre un’approssimazione delle posizioni reali dei ritorni radar. Il risultato di questa elaborazione è un’immagine in ground range, come si osserva in Fig. 6.18. Questa operazione viene comunemente detta slant-to-ground projection. Fig. 6.18 – Esempio di trasformazione di un’immagine da slant range a ground range 6.9.2 Distorsioni introdotte dal terreno Similmente a quanto accade per i sensori ottici che operano in acquisizione obliqua (ad esempio SPOT), le immagini radar sono soggette a distorsioni dovute al rilievo. Nel caso del radar, queste distorsioni possono essere notevoli. Tre effetti sono tipici del radar: distorsione prospettica, scavalcamento ed ombra. 103 Distorsione prospettica (foreshortening) Il radar misura le distanze in slant range, di conseguenza le aree in pendenza vengono compresse. A seconda dell’angolo che la pendenza forma in relazione con l’angolo del fascio radar la pendenza sarà accorciata in modo più o meno accentuato. La distorsione è al suo massimo se il fascio del radar è quasi perpendicolare alla pendenza. Le aree accorciate risultano molto luminose nelle immagini radar perché vi si sovrappongono più ritorni rispetto a quelli che si avrebbero in una zona piatta. In pratica questo effetto è tale per cui un rilievo risulta compresso nel versante che guarda il radar e allungato nella direzione opposta. Fig. 6.19 – Distorsioni geometriche nelle immagini radar dovute all’elevazione del terreno Scavalcamento (layover) Se il fascio del radar raggiunge la cima della pendenza prima della sua base, la pendenza viene mostrata nell’immagine con la parte superiore più vicina rispetto a quella inferiore; come risultato, nell’immagine la cima della montagna sembra essersi mossa nella direzione del radar al punto da avere scavalcato la sua stessa base, da cui il nome. Lo scavalcamento è un caso estremo di distorsione prospettica, per cui anche in questo caso le zone affette da scavalcamento appaiono molto luminose. Ombre (shadowing) Quando l’angolo d’incidenza è troppo largo, il fascio radar non riesce ad illuminare i versanti delle montagne che guardano in direzione opposta al sensore. Quindi, non c’è energia che possa essere retrodiffusa verso il sensore e queste regioni rimangono nere nell’immagine. Le ombre radar vanno ben distinte dalle aree d’ombra delle immagini ottiche dove i valori radiometrici sono alterati a causa della ridotta illuminazione del Sole. 6.9.3 Distorsioni radiometriche Le distorsioni menzionate sopra hanno un’influenza anche sull’energia ricevuta. Dato che l’energia retrodiffusa viene raccolta in slant range, l’energia ricevuta derivante da un pendio lungo viene immagazzinata in un’area più corta dell’immagine, cioè è compressa in meno pixel dell’immagine di quanto non sarebbe se ci si trovasse nel caso di geometria ground range. Questo porta ad avere DN con valori più alti perché l’energia raccolta da più oggetti viene combinata insieme. Sfortunatamente questo effetto non può essere corretto se non avendo a disposizioni informazioni sul rilievo da altre fonti. Tali zone sono comunque utili perché contribuiscono ad avere una veduta tridimensionale dell’immagine e quindi aiutano la comprensione del terreno e la topografia. 104 6.9.3.1 Il rumore speckle Quando un’onda elettromagnetica viene diffusa da un punto (x,y) della superficie terrestre, le proprietà del terreno causano dei cambiamenti sia nella fase φ ( x, y ) che nell’ampiezza A( x, y ) dell’onda. il SAR infatti misura la coppia di numeri ( A cos φ , A sin φ ) nei canali in fase e in quadratura del ricevitore. Questa stima della riflettività locale ad ogni pixel può essere rappresentata da un numero complesso Ae iφ ; in questa forma, il dato SAR è conosciuto come immagine complessa. Dall’immagine complessa è possibile estrarre un certo numero di altri prodotti, come ad esempio l’immagine rappresentante la parte reale A cos φ (cioè la componente in fase) oppure quella rappresentante la parte immaginaria A sin φ (cioè la componente in quadratura), l’immagine di ampiezza A, l’immagine di fase φ , l’immagine di intensità I = A 2 , o l’immagine di intensità logaritmica log I . Per un sistema calibrato in maniera adeguata, queste immagini rappresentano misurazioni corrette delle proprietà di diffusione della superficie terrestre, ma esse producono delle rappresentazioni molto diverse l’una dall’altra dal punto di vista visivo. Di solito, le immagini di parte reale e parte immaginaria mostrano le strutture presenti in esse, ma sono estremamente rumorose, l’immagine di fase è rumorosa e non mostra alcun tipo di struttura, mentre le immagini di ampiezza, di intensità e di intensità logaritmica, benché rumorose, sono più facilmente interpretabili. Di queste ultime immagini, normalmente vengono preferite l’immagine di ampiezza e di intensità logaritmica in quanto l’ampio intervallo dinamico dell’immagine di intensità può ridurre la percezione dei dettagli. Il rumore che affligge questi tipi di immagini è detto rumore speckle. Esso dà un aspetto granuloso all’immagine; tale aspetto è conosciuto come salt and pepper o “sale e pepe”, così detto perché richiama un miscuglio di queste due sostanze. Lo speckle è causato dall’interazione tra le microonde retrodiffuse dai diversi oggetti contenuti in ciascun pixel dell’area in esame. L’interazione tra onde è detta interferenza. L’interferenza fa sì che i segnali di ritorno vengano smorzati o amplificati a seconda della fase relativa delle retrodiffusioni che interagiscono, dando luogo a dei pixel scuri o luminosi casualmente distribuiti nell’immagine anche quando il sensore sta osservando una zona piuttosto omogenea. Lo speckle è una forma di rumore che degrada la qualità dell’immagine e rende l’interpretazione della stessa più difficoltosa. Va detto tuttavia che il rumore speckle non è vero rumore, dal momento che esso trae origine da reali misurazioni elettromagnetiche, che vengono sfruttate,ad esempio, in alcune applicazioni di interferometria. Assunto che il SAR effettua misurazioni reali delle proprietà di diffusione della Terra, perché si verificano questi effetti? Un modello semplice di come il mondo appare al radar suggerisce la risposta a tale domanda. Nei bersagli distribuiti possiamo pensare che ogni cella di risoluzione contenga un certo numero di diffusori discreti. Dato che l’onda interagisce con il bersaglio, ogni diffusore dà un contributo rappresentato da un’onda retrodiffusa con un cambiamento in ampiezza e fase; di conseguenza l’onda diffusa è: Ae iφ = N ∑ A eφ k =1 i k k (6.55) Tale somma coerente è effettuata sul numero di diffusori illuminati dal fascio. Le singole ampiezze Ak e fasi φ k di diffusione non sono osservabili in quanto i singoli diffusori hanno scale molto più piccole della risoluzione del SAR, e di conseguenza in una cella di risoluzione sono presenti numerosi diffusori. Dall’equazione sopra riportata si può immediatamente trarre una conclusione piuttosto ovvia: il segnale osservato sarà affetto da fenomeni di interferenza come conseguenza delle differenze di fase tra i vari diffusori. Infatti lo speckle può essere inteso come un fenomeno di interferenza in cui la causa principale delle caratteristiche che lo rendono assimilabile al rumore è proprio la distribuzione dei termini di fase φ k . 105 6.9.3.1.1 Il modello di rumore moltiplicativo per lo Speckle Il modello di diffusori discreti per bersagli distribuiti implica che tutta l’informazione ad ogni pixel in un dato a singolo canale è portata dalla potenza media incoerente σ, appropriata per quel particolare insieme di diffusori. L’intensità osservata ad ogni pixel ha la probabilità condizionale: 1 −I PI ( I | σ ) = e σ (6.56) σ con I ≥ 0 . Effettuando un cambio di variabile I =σ n (6.57) si ottiene una funzione densità di probabilità (PDF, Probability Density Function) Pn (n) = e − n , con n ≥ 0 (6.58) Di conseguenza, l’intensità osservata ad ogni punto può essere considerata come un valore deterministico della RSC (Radar Cross Section) moltiplicato per uno speckle distribuito esponenzialmente con media unitaria. In maniera del tutto equivalente, la riflettività complessa ad ogni pixel può essere scritta come: S = S 1 + iS 2 = σ (m1 + im2 ) in cui il contributo speckle m = m1 + im2 ha funzione densità di probabilità: Pm , m (m1 , m2 ) = 1 2 1 π exp(− m12 − m22 ) (6.59) (6.60) che significa che le componenti dello speckle in fase e in quadratura sono variabili casuali gaussiane a media nulla indipendenti, ognuna con varianza pari a ½. Ancora una volta possiamo dire che il segnale osservato può essere considerato come il prodotto del termine RCS e del termine di speckle. Benché la sezione radar RCS che si nasconde sotto i valori osservati è essenzialmente deterministica, la sua dimensione non è nota e di solito viene descritta in maniera più utile attraverso l’impiego di un modello probabilistico. Dato un insieme di N pixel, abbiamo bisogno di considerare la distribuzione congiunta della RCS σ = (σ 1 , σ 2 ,.........., σ N ) e i valori dello speckle n = (n1 ,.............., n N ) . Se assumiamo che i valori di speckle siano indipendenti l’uno dall’altro e dalla RSC, possiamo scrivere: N Pσ, n (σ, n) = Pσ (σ )∏ Pn (nk ) (6.61) k =1 I corrispondenti valori di intensità I = ( I 1 ,............, I N ) sono dati da I k = σ k n k . Un cambio di variabili consente di scrivere la distribuzione congiunta dell’intensità e dello speckle come: N P (n ) (6.62) PI , n ( I , n) = Pσ ( I 1 n1 ,........, I N n N )∏ n k nk k =1 Integrando sui termini di speckle otteniamo la PDF congiunta dell’intensità come: N Pn (nk ) dn (6.63) nk k =1 Dall’equazione 6.61 risulta chiaro come i valori di intensità non siano indipendenti, ma ovviamente lo sarebbero se lo fossero i σ i . Un caso particolare di questa situazione si verifica quando i σ i sono tutti costanti, con lo stesso valore σ cosi che: PI (I ) = ∫ Pσ ( I1 n1 ,........, I N n N )∏ 106 Pσ (σ ) = N ∏ δ (σ k =1 − σk ) (6.64) Quindi PI (I ) = N 1 ∏σe −I k σ (6.65) k =1 6.9.3.1.2 Elaborazione multi-look È possibile ridurre il rumore speckle per mezzo di un’elaborazione multi-look o per mezzo di filtraggi spaziali. Nel caso dell’elaborazione multi-look, il periodo di osservazione dei ritorni viene diviso in diversi sottoperiodi più corti. Durante ogni sottoperiodo lo strumento getta uno ‘sguardo’ (look) all’oggetto. Usando la media di queste “occhiate” si ottiene l’immagine finale. L’elaborazione multi-look ha lo svantaggio di ridurre la risoluzione spaziale. Fig. 6.20 – Immagine originale (a) e filtrata per diminuire l’effetto del rumore speckle (b) 6.9.3.1.3 I filtri anti-speckle Un altro modo per ridurre lo speckle è quello di applicare dei filtri spaziali all’immagine. I filtri speckle sono disegnati per adattarsi alle variazioni locali dell’immagine per appianare i valori in modo da ridurre lo speckle ma contemporanemente da intensificare le linee e i bordi per salvaguardare la chiarezza dell’immagine. Il filtro di Lee Il filtro di Lee permette di rendere più “liscia” l’immagine senza eliminare i contorni e le forme caratteristiche degli oggetti presenti in essa. Il rumore speckle viene di solito approssimato nelle immagini SAR con un modello moltiplicativo di errore. Nel filtro di Lee, il modello moltiplicativo viene prima approssimato con un modello lineare, a cui viene poi applicato il criterio dell’errore minimo quadratico medio (minimum mean square error model). Il valore di livello di grigio risultante R per il pixel modificato è allora: R = I c ⋅ W + I m ⋅ (1 − W ) dove: 2 2 - W = 1 − C u C i (funzione di peso); - C i = S I m (coefficiente di variazione dell’immagine); - Cu = 1 - I c = valore di intensità del pixel centrale della finestra del filtro; I m = valore medio di intensità dei pixel all’interno della finestra; S = deviazione standard dell’intensità all’interno della finestra. N look (coefficiente stimato della variazione del rumore); 107 (6.66) Fig. 6.21 – Immagine originale e filtrata con il filtro di Lee per diminuire l’effetto del rumore speckle. Il filtro di Lee migliorato Il filtro di Lee è stato migliorato da Lopes, il quale ha proposto di dividere un’immagine in aree di tre classi diverse. La prima classe corrisponde alle aree omogenee in cui lo speckle può essere eliminato semplicemente applicando un filtro passa basso (e, in maniera del tutto equivalente, attraverso un’operazione di media o di multi-look). La seconda classe corrisponde alle aree eterogenee in cui lo speckle può essere ridotto preservando le tessiture presenti nell’immagine. La terza classe contiene infine punti isolati di cui il filtro può preservare il valore osservato. Il valore di grigio del pixel risultante è dunque: R = Im per C i ≤ C u (6.67) R = I m ⋅ W + I c ⋅ (1 − W ) per C u < C i < C max (6.68) R = I c per C i ≥ C max (6.69) in cui: - W = exp (− DAMP(C i − C u ) (C max − C i )) - Cu = 1 - Ci = S I m - C max = N look (1 + 2 N look ) - I c = valore di intensità del pixel centrale della finestra del filtro; - I m = valore medio di intensità dei pixel all’interno della finestra; - S = deviazione standard dell’intensità all’interno della finestra. - DAMP =fattore di smorzamento esponenziale. Il filtro di Lee migliorato minimizza la perdita di informazione radiometrica e tessiturale. Il filtro di Frost Il filtraggio di Frost è un algoritmo di filtraggio adattativo, che usa un nucleo convoluzionale che si adatta alle caratteristiche dell’immagine effettuando delle considerazioni sulle statistiche locali. Il 108 filtro di Frost è diverso da quello di Lee e da quello di Kuan, che verrà definito più avanti in questo stesso paragrafo, in quanto la riflettività della scena viene stimata convolvendo l’immagine osservata con la risposta impulsiva del sistema SAR. La risposta impulsiva del sistema SAR viene ottenuta minimizzando l’errore quadratico medio tra l’immagine osservata e il modello di riflettività della scena che si assume essere un processo autoregressivo. L’implementazione di questo filtro consiste nella definizione di un filtro circolare simmetrico con un insieme di pesi (weighting values) M per ogni pixel: M = exp(- A ⋅ T ) (6.70) in cui: 2 - A = DAMP ⋅ C i - Ci = S I m - I m = valore medio di intensità dei pixel all’interno della finestra; - S = deviazione standard dell’intensità all’interno della finestra. - T = valore assoluto della distanza in pixel del pixel centrale dai pixel che gli stanno intorno nella finestra del filtro. Il valore di grigio R risultante per il pixel spianato è: R = (P1 ⋅ M 1 + P2 ⋅ M 2 + ....... + Pn ⋅ M n ) (M 1 + M 2 + ..... + M n ) (6.71) in cui: - P1,….,Pn sono i valori di grigio di ogni pixel presente nella finestra di filtraggio; - M1,….Mn sono dei pesi per ogni pixel. Fig. 6.22 – Immagine originale e filtrata con il filtro di Frost per diminuire l’effetto del rumore speckle Il filtro di Frost migliorato Il filtro di Frost è stato migliorato da Lopes. L’uscita dal filtro è: R = I se C i < C u R = Rf se C u ≤ C i ≤ C max R = C pixel se C i > C max (6.72) (6.73) (6.74) in cui R f è il risultato della convoluzione dell’immagine con un filtro simmetrico circolarmente i cui valori di peso M per ogni pixel sono dati da: 109 M = exp(− DAMP ⋅ (C i − C u ) (C max − C i ) ⋅ T ) (6.75) in cui: - T valore assoluto della distanza in pixel del pixel centrale dai pixel che gli stanno intorno nella finestra del filtro.; - V è la varianza dei livelli di grigio presenti nella finestra del filtro; - I è il livello di grigio medio nella finestra del filtro; - C pixel è il livello di grigio del pixel centrale nella finestra del filtro; - N look è il numero di look dell’immagine radar; - Ci = V I - Cu = 1 - C max = 1 + 2 N look N look Il valore del livello di grigio R f per il pixel “smussato” è: R = (P1 ⋅ M 1 + P2 ⋅ M 2 + ....... + Pn ⋅ M n ) (M 1 + M 2 + ..... + M n ) (6.76) in cui: - P1,….,Pn sono i valori di grigio di ogni pixel presente nella finestra di filtraggio; - M1,….Mn sono dei pesi per ogni pixel. Tutti i pixel vengono filtrati; per filtrare pixel collocati in prossimità dei contorni dell’immagine, i valori di tali pixel vengono replicati per fornire dati sufficienti. Per le immagini di ampiezza, ogni livello di grigio verrà elevato al quadrato e di conseguenza sarà necessario estrarre la radice quadrata del risultato finale. Il filtro Gamma È un altro filtro adattativo basato sull’assunzione che l’intensità dell’immagine informativa (priva di speckle) abbia una distribuzione delle intensità di tipo Gamma: x − µ β f ( x) = γ −1 x − µ exp − β β Γ(γ ) x ≥ µ; γ , β > 0 (6.77) ∞ Γ(a ) = ∫ t α − 1e − t dt (6.78) 0 Una volta assunta una distribuzione di tipo Gamma per le intensità presenti nella scena, il filtro Gamma può essere ottenuto nella forma seguente: R = I m se C i < C u R = Rf se C u ≤ C i ≤ C max R = I c se C i > C max dove: - Rf = B ⋅ Im + ( D ) (2 ⋅ A) - Ci = S I m - Cu = 1 - C max = 2 ⋅ C u I m = valore medio di intensità dei pixel all’interno della finestra; S = deviazione standard dell’intensità all’interno della finestra; N look 110 (6.79) (6.80) (6.81) - I c = pixel centrale nella finestra del filtro; - A = 1 + Cu Ci − Cu B = A − N look − 1 D = I m ⋅ I m ⋅ B ⋅ B + 4 ⋅ A ⋅ N look ⋅ I m ⋅ I c - ( 2 )( 2 2 ) Fig. 6.23 – Immagine originale e filtrata con il filtro Gamma per diminuire l’effetto del rumore speckle Il filtro di Kuan Anche questo tipo di filtro rimuove il rumore speckle senza eliminare i contorni o le caratteristiche di forma degli oggetti presenti nell’immagine. Esso però è applicabile solo alle immagini di intensità. Il filtro di Kuan trasforma il rumore moltiplicativo in un modello di rumore additivo dipendente dal segnale e successivamente applica a questo modello il criterio del minimo errore quadratico medio. Il filtro risultante ha la stessa forma del filtro di Lee ma con una funzione di peso diversa. Dato che il filtro di Kuan non effettua alcuna approssimazione del modello originale, può essere considerato migliore del filtro di Lee. Il valore di grigio del pixel risultante è: R = I c ⋅ W + I m ⋅ (1 − W ) dove: ( - W = 1 − Cu Ci - Ci = S I m 2 2 ) (1 + C 2 u ) - Cu = 1 - I m = valore medio di intensità dei pixel all’interno della finestra; S = deviazione standard dell’intensità all’interno della finestra; I c = pixel centrale nella finestra del filtro. N look 111 (6.82) Fig. 6.24 – Immagine originale e filtrata con il filtro di Kuan per diminuire l’effetto del rumore speckle 6.10 Applicazioni del radar I dati radar forniscono informazioni complementari a quelle fornite dai dati del telerilevamento nel visibile e nell’infrarosso. Nel caso delle foreste, le immagini radar possono essere usate per ottenere informazioni sulla presenza di foglie, sulle biomasse e sui diversi tipi di foresta. Inoltre le immagini radar permettono di differenziare tra diversi tipi di copertura del suolo come le aree urbane, i campi agricoli, i corpi d’acqua, eccetera. Nell’identificazione delle colture agricole l’uso di immagini radar acquisite con diverse polarizzazioni si è dimostrato abbastanza efficace. Per le applicazioni dell’agricoltura è cruciale acquisire i dati in un certo periodo di tempo (legato alla stagione) per ottenere i parametri necessari. Questo è reso possibile dalla capacità del radar di lavorare indipendentemente dal tempo o dalle condizioni di luce del giorno. In geologia e geomorfologia il fatto che il radar fornisca informazioni circa la composizione e la rugosità della superficie gioca un ruolo fondamentale nella rivelazione dei contorni e della mappatura geologica. Altre applicazioni di successo del radar sono la modellizzazione idrologica e la stima dell’umidità del suolo, basati sulla sensibilità delle microonde alle proprietà dielettriche della superficie osservata. L’interazione delle microonde con le superfici oceaniche e i ghiacci forniscono dei dati molto utili per l’oceanografia e il monitoraggio dei ghiacci. 6.11 Differenze tra le immagini ottiche e le immagini radar Dal punto di vista geometrico una differenza essenziale rispetto alle immagini ottiche è legata al fatto che, mentre queste ultime distinguono i vari pixel sulla base di una discriminazione in angolo (l'IFOV del sistema ottico), le immagini radar vengono create sulla base di una discriminazione temporale nella direzione di range (che corrisponde, come abbiamo visto, ad una discriminazione in distanza nella direzione obliqua di osservazione dell'antenna). Ne consegue una deformazione geometrica dipendente dall'angolo di incidenza (angolo tra la direzione di osservazione dell'antenna e la normale alla superficie terrestre) che in genere viene corretta (correzione slant-to-groundrange). Tuttavia va detto che questa “deformazione” non costituisce una vera e propria distorsione, ma piuttosto un cambiamento di coordinate. Nel caso di presenza di rilievi l'effetto deformante diventa molto complesso per cui l'eventuale sovrapposizione ad una immagine ottica richiede di effettuare opportune correzioni geometriche che utilizzano un modello di elevazione del terreno. L'altra fondamentale differenza tra i due tipi di immagini è legata, e sembra di dire una banalità, al fatto che sono relative a diverse bande dello spettro elettromagnetico. In effetti mentre un'immagine 112 ottica può essere interpretata alla luce del nostro stesso senso della vista, l'immagine radar ha delle proprietà che, se rapportate ancora al senso della vista, risultano addirittura controintuitive. 6.12 Alcuni sistemi Radar 6.12.1 SeaSat Il primo sistema radar di uso civile è stato il Seasat della NASA. Lanciato nel giugno 1978, funzionò per soli 99 giorni prima della rottura di un circuito. Durante la sua pur breve vita utile, fornì le prime immagini in banda L (lunghezza d’onda di 23,5 cm), con polarizzazione HH, vista a destra del satellite, e con un angolo di 20 gradi dalla verticale, o nadir. 6.12.2 SIR-C Le missioni dello Shuttle con radar a bordo sono state tre, nell’aprile 1994, ottobre 1994 e febbraio 2000. In tutti i casi si è usato un radar in banda C completamente polarimetrico, con risoluzione a terra di circa 15 m. Contemporaneamente, sono stati ottenuti dati in banda L, P e X. 6.12.3 ERS I satelliti ERS-1 e -2 sono stati lanciati dall’ESA nel 1991 e nel 1995, rispettivamente. ERS-1 ha smesso di funzionare nel 2000, ed ERS-2 attualmente continua a funzionare ma con capacità ridotte. Il radar è a polarizzazione VV, in banda C. Nel periodo di tempo in cui sono “convissuti”, i due satelliti avevano orbite sincronizzate in modo da dare immagini della stessa area a terra a distanza di un giorno (missione “tandem”). 6.12.4 Radarsat-1 Il satellite è canadese, lanciato nel novembre del 1995. Ha una risoluzione spaziale migliore degli altri sensori (fino a 7 m nel “fine mode”) e ha diverse possibilità di angoli di vista (7 fasci o beam). Il radar è in banda C, polarizzazione VV. Grazie alla possibilità di avere diversi angoli, può dare immagini ogni pochi giorni. Sarà presto affiancato dal Radarsat-2, che verrà lanciato in orbita nel 2006, e garantirà continuità di acquisizione con Radarsat-1, avrà capacità polarimetriche, oltre a più ampie possibilità di puntamento e risoluzione più fine. 6.25 – Il satellite Radarsat-1 Massa Totale Array Power Batterie Design Lifetime 2,750 Kg 2,5 kW 3 × 48 Ah NiCd 5 anni Tabella 6.1 - Caratteristiche del vettore di Radarsat-1 113 Frequenza/Lunghezza d’onda 5,3 GHz/C-band 5,6 cm Larghezza di banda RF 11,6 17,3 o 30 Mhz Potenza del trasmettitore (di picco) 5 kW Potenza del trasmettitore (media) 300 W Data Rate massimo 85 Mb/s (recorded) – 105 Mb/s (R/T) Dimensione dell’antenna 1,5 × 1,5 m Polarizzazione dell’antenna HH Tabella 6.2 - Caratteristiche dello strumento SAR di Radarsat-1 6.26 – Un’mmagine acquisita da Radarsat-1 sul delta del fiume Orinoco, in Venezuela, il 7 dicembre 1996 (Fonte: Radarsat/ CSA Canadian Space Agency) 6.12.5 La costellazione COSMO/SkyMed È una costellazione costituita da tre satelliti con sensori ottici IR/NIR e quattro satelliti con un sensore SAR. Le caratteristiche operative sono: Tempo di risposta rapido (12 ore) Immagini ad alta qualità con risoluzione a terra adeguata (da 100 m a 2 m) Dati da misure radar e multi/iperspettrali - Capacità di operare in qualsiasi situazione di tempo Il lancio di questa costellazione è previsto a partire dal 2008. 114 6.13 Envisat-1: il nuovo satellite europeo Envisat-1, partito il 1° marzo 2002, è l’ultimo satellite in ordine di tempo lanciato dall’ESA (European Space Agency) e finalizzato allo studio della Terra. Fig. 6.27 – Il satellite Envisat-1 (fonte: ESA) Per la parte radar, è l’ideale continuazione di ERS-1 ed ERS-2. Envisat-1 fornirà per un periodo di cinque anni misure sull’atmosfera, sugli oceani, sulla terra e sui ghiacci, assicurando la continuità di misurazione dei dati dei satelliti ESA ERS, e inoltre, grazie al suo innovativo carico utile, supporterà la ricerca scientifica e permetterà il monitoraggio dei cambiamenti climatici ed ambientali. Envisat-1 vola in un’orbita polare eliosincrona (con ciclo di ripetizione di 35 giorni) ad un’altezza di circa 800 km e, grazie ai suoi sensori, fornisce una copertura completa del globo in un tempo che va da 1 a 3 giorni. In tabella 6.3 sono riportati i parametri orbitali: La missione Envisat-1 è suddivisa in: • Missione Globale, i cui obiettivi sono: - previsioni delle condizioni del mare su varie scale; - monitoraggio della temperatura della superficie del mare; - monitoraggio di alcune specie atmosferiche, quale l’ozono; - monitoraggio di alcune variabili atmosferiche (come temperatura, pressione, vapore acqueo, nuvole alte, radiazioni dalla terra etc.); - monitoraggio del colore dell’oceano come sostegno alla pesca e controllo dell’inquinamento. • Missione Regionale, i cui obiettivi sono: - monitoraggio del traffico navale; - monitoraggio dell’umidità del terreno, dell’agricoltura e delle foreste. - rilevamento del ghiaccio in alto mare; - produttività primaria degli oceani; - inquinamento degli oceani naturale e prodotto dall’uomo; - sostegno a vasti programmi internazionali. 115 Orbite al giorno 14 11/35 Ciclo di ripetizione (giorni) 35 Orbite in un ciclo 501 Periodo dell’orbita (min) 100,59 Ora locale media al nodo discendente 10:00 Inclinazione (gradi) 98,55 Semiasse maggiore [Raggio dell’orbita] (km) 7159,5 Velocità orbitale (km/s) 7,45 Altezza media (km) 799,8 Intervallo di altezze orbitali (km) 780 - 820 Tabella 6.3 – I parametri orbitali Mentre alcuni degli obiettivi globali richiedono prodotti disponibili in modalità non in linea (da giorni a settimane dal rilevamento), alcuni degli obiettivi regionali richiedono dati in tempo reale (che può significare pochi giorni dal rilevamento) generati su richiesta degli utenti. Il sistema Envisat-1 comprende diversi elementi: - Il satellite stesso (Envisat-1 Space Segment) che include la Piattaforma Polare (PPF) ed il carico utile; - L' Envisat-1 Ground Segment che consiste nel “payload data segment” (PDS) e nel “flight operation segment” (FOS). 6.13.1 Capacità di registrazione a bordo Il sistema di registrazione a bordo è composto da 3 registratori a nastro (TR), ciascuno della capacità di 30 Gbits e da un registratore allo stato solido (SSR o Solid State Recorder) della capacità di 70 Gbits. I registratori a nastro possono solo registrare i dati globali a bassa velocità (4,6 Mbps) e operano indipendentemente l’uno dall’altro, nel senso che un TR può funzionare in scaricamento mentre un altro TR sta registrando. Il SSR permette la registrazione dei dati globali a bassa velocità, nonché dei dati a più alta risoluzione, quali i MERIS FR e i dati ASAR HR. In più il SSR permette la registrazione in parallelo di più dati. Esso viene usato per la Missione Regionale con scarico dei dati attraverso il satellite ARTEMIS all’utente terminale di terra. In effetti, ARTEMIS è il satellite che Envisat-1 utilizza per colloquiare con la Terra, come mostrato in Fig. 6.29. Il sistema di trasmissione dei dati è possibile: - su 2 collegamenti in banda X funzionanti uno alla volta; - su 2 collegamenti in banda Ka funzionanti uno alla volta; - i trasmettitori in banda X e Ka funzionano in modo indipendente quindi possono essere usati in modo simultaneo su 2 collegamenti in banda X e su 2 collegamenti in banda Ka. Per la trasmissione dei dati a più alta risoluzione in tempo reale è necessario il pieno utilizzo di un canale RF a 100 Mbps. 116 Fig. 6 28 – La struttura del sistema Envisat-1 6.13.2 La piattaforma polare La piattaforma polare (PPF) rappresenta, con il suo carico utile, il più grande satellite europeo mai realizzato finora ed è stata concepita come una piattaforma multimissione, comprensiva di due grossi moduli: - Il modulo di servizio (SM = Service Module), che fornisce le principali funzioni di supporto del satellite, come comando e controllo, comunicazione con il terreno, potenza, controllo di attitudine e propulsione; - Il modulo carico utile (PLM = PayLoad Module), su cui sono posti gli strumenti di Envisat-1 e di equipaggiamento e supporto del PPF (scambio di dati e comunicazioni, distribuzioni elettriche). Questa separazione permette di isolare comodamente il sottosistema SM e l’equipaggiamento necessario per ogni missione, dagli strumenti del PLM che sono dedicati a missioni specifiche. 6.13.3 Gli strumenti del carico utile L’ambiente terrestre costituisce un sistema complesso da controllare e misurare, in quanto parti di esso, come l’atmosfera e gli oceani, interagiscono tra di loro su ampie scale temporali e spaziali. Al fine di garantire un contributo utile quanto ad informazioni acquisite, un apposito Comitato ha selezionato in sede di progettazione di Envisat-1 una serie di strumenti multidisciplinari complementari, tenendo conto sia del budget finanziario disponibile, sia delle limitazioni dei sistemi fisici. Il carico utile derivato da tale selezione è composto da una serie di strumenti per misurare l’atmosfera e da strumenti per misurare la superficie terrestre attraverso l’atmosfera; questi strumenti operano in una vasta banda dello spettro elettromagnetico, che si estende da onde “centimetriche” fino all’ultravioletto, come mostrato in Fig. 6.29. La lista degli strumenti (illustrata in Fig. 6.30) comprende due strumenti radar, tre spettrometri di caratteristiche e misure diverse, due radiometri (uno a banda larga e l’altro a banda stretta), un interferometro spaziale ad alta risoluzione (il primo nato per osservazioni a lungo termine), e due strumenti per misure di distanza. 117 Fig. 6.29– Bande di frequenza dei vari dispositivi Fig. 6.30 – La struttura del satellite Envisat-1 (fonte: ESA) Gli strumenti sono indicati qui di seguito: Michelson Interferometer for Passive Atmospheric Sounding (MIPAS): è uno spettrometro basato sulla trasformata di Fourier per la misura dell’emissione gassosa sulla superficie terrestre che opera nel vicino e medio infrarosso dove molti dei gas che giocano un ruolo importante nella chimica atmosferica hanno caratteristiche importanti di emissione. - Global Ozone Monitoring by Occultation of Stars (GOMOS): è uno strumento preposto al monitoraggio dell’ozono; negli ultimi decenni si è visto che la composizione chimica dell’atmosfera sta cambiando su scala globale, in parte a causa del comportamento dell’uomo. L’ozono gioca un ruolo fondamentale nella chimica dell’atmosfera, in quanto è largamente responsabile del riscaldamento della stratosfera attraverso l’assorbimento della radiazione UV e in quanto è responsabile dell’effetto serra. La scoperta del buco nell’ozono sull’Antartico ha fatto sì che si ponesse finalmente l’attenzione sul budget globale dell’ozono. Questo strumento rileva l’ozono tramite osservazione dello spettro apparente di emissione di alcune stelle di riferimento; si confronta lo spettro rilevato quando le stelle sono visibili direttamente con quello rilevato quando le stesse stelle sono visibili solo attraverso l’atmosfera (cioè quando 118 - - - - - sono basse sull’orizzonte). La differenza è ovviamente legata alla composizione chimica dell’atmosfera. Scanning Imaging Absortion Spectrometer for Atmospheric Cartography (SCIAMACHY): è uno spettrometro il cui obiettivo primario è quello di fornire misure globali delle tracce di gas nella troposfera e nella stratosfera. Medium Resolution Imaging Spectrometer (MERIS): è uno spettrometro a immagine a media risoluzione la cui ragion d’essere principale è legata allo studio degli oceani. Advanced Along Track Scanning Radiometer (AATSR): è uno strumento legato principalmente al monitoraggio delle temperature dei mari e allo sviluppo del telerilevamento terrestre, con particolare attenzione allo studio della vegetazione in termini di biomassa, umidità e stadio di crescita. Advanced Synthetic Aperture Radar (ASAR): è un radar avanzato ad apertura sintetica il cui impiego è previsto in numerose applicazioni. Radar Altimeter 2 (RA-2): è uno strumento utilizzato per determinare il ritardo dell’eco delle pulsazioni radar riflesse Microwave Radiometer (MWR): è un radiometro a microonde. il cui obiettivo principale è la misura della colonna di vapore acqueo atmosferico e del contenuto di acqua liquida nelle nuvole. Doppler Orbitography and Radiopositioning Integrated by Satellite (DORIS): è un sistema di inseguimento che fornisce misurazioni sui segnali; i dati vengono processati a terra fornendo l’orbita del satellite con una precisione dell’ordine del centimetro e a bordo per fornire la posizione del satellite in tempo reale con una accuratezza di alcune decine di centimetri. Laser Retro-Reflector (LRR): è un laser a retroriflettore montato su un sostegno attaccato vicino all’antenna RA-2 le cui due funzioni principali sono fornire un supporto all’allineamento del satellite ed effettuare la calibrazione dell’altitudine per RA-2. 6.13.4 Il sensore ASAR Il radar avanzato ad apertura sintetica ASAR operante in banda C (5,331 GHz) assicura la continuità con il sensore AMI (Active Microwave Instrument) di ERS-1 ed ERS-2. Il radar è caratterizzato da una grande capacità in termini di copertura, varietà di angoli di incidenza, polarizzazione e modalità operative. Questa capacità è stata resa possibile dalle modalità con cui è stata progettata l’antenna a schiera (completamente attiva), attrezzata con moduli per la trasmissione e la ricezione che danno dei fasci di trasmissione e ricezione differenti e con un'elaborazione digitale della forma d’onda per la generazione di impulsi. Rispetto al sensore radar di ERS, ASAR presenta un miglior controllo in elevazione del fascio; questo miglior controllo, sfociato nella tecnica ScanSAR, permette di saltare tra diverse fasce di terreno in sequenza, e di ottenere con questa tecnica una strisciata di più di 400 km. Le caratteristiche e la specificità del sensore ASAR hanno reso possibile suddividere gli obiettivi della missione in due parti principali: gli obiettivi della Missione Oceano (rilevazioni e misurazioni finalizzate a previsioni del tempo, instradamento delle navi, rilevamento di iceberg, inquinamento da petrolio, etc) e gli obiettivi della Missione Terrestre (misurazioni e rilevazioni finalizzate a classificazioni della superficie terrestre, cartografia, studi tettonici, processi di trasformazione della terra, etc). Tutti questi obiettivi possono essere raggiunti in varie modalità, caratterizzate da diverse risoluzioni. 6.13.4.1 La struttura dello strumento ASAR è costituito da due gruppi funzionali principali: - l’antenna; - l’unità elettronica centrale. La caratteristica principale di ASAR è l’antenna che permette un controllo indipendente dalla fase e dall’ampiezza dei radiatori in differenti zone della sua superficie; essa è un’antenna a schiera a fase 119 attiva coerente, montata con l’asse longitudinale allineato alla direzione di volo (asse Y) e contiene 20 blocchi con 16 moduli T/R per ognuna, in tutto 320 moduli T/R distribuiti in modo tale che, adattando la fase e il guadagno dei moduli individuali, sia possibile guidare e configurare i fasci in trasmissione ed in ricezione. Fig. 6.31 – L’antenna ASAR (fonte: ESA) Attraverso l’uso dell’antenna attiva è possibile dunque utilizzare sia la modalità stripmap che la modalità ScanSAR. Quando opera in modo stripmap, la schiera di antenne conferisce ad ASAR la flessibilità necessaria per selezionare una fascia di terreno cambiando l’angolo di incidenza del fascio e l’ampiezza del fascio in elevazione. Inoltre per eliminare ambiguità inaccettabili nelle prestazioni e segnali di ritorno nadir indesiderati, viene selezionata la corretta frequenza di ripetizione degli impulsi PRF (Pulse Repetition Frequency). Questa modalità di funzionamento può essere ulteriormente suddivisa in una modalità immagine e in una modalità onde. Nella modalità immagine, ASAR opera su una fascia di terreno scelta tra sette possibili, con radiazione polarizzata verticalmente o orizzontalmente e con la stessa polarizzazione impiegata sia in trasmissione che in ricezione. La modalità onde, benché utilizzi le stesse fasce di terreno e le stesse polarizzazioni usate dalla modalità immagine, ha la particolarità di vedere visualizzate di volta in volta piccole aree dell’oceano, particolarità, questa, che determina una bassa velocità di trasmissione dei dati, in modo che questi possano essere immagazzinati a bordo del satellite e non scaricati direttamente alla stazione a terra. Quando opera in modalità stripmap, ASAR si limita ad una fascia di terreno stretta, a causa delle limitazioni imposte dall’ambiguità della ricezione del segnale. Queste restrizioni vengono superate impiegando la tecnica ScanSAR, che permette un ampliamento della fascia di terreno grazie all’uso di un fascio dell’antenna la cui apertura viene controllata elettronicamente. Le immagini radar vengono quindi sintetizzate per mezzo di una scansione dell’angolo di incidenza, sintetizzando in sequenza immagini relative alle diverse posizioni del fascio. L’area visualizzata da ogni singolo fascio forma una cosiddetta sottofascia; la tecnica ScanSAR si basa sulla condivisione del tempo di operazione del radar tra due o più sottofasce separate in modo da ottenere una copertura più ampia. 6.13.4.2 Prestazioni dello strumento: modalità operative della missione globale e regionale I dati ASAR possono essere acquisiti in diverse modalità: - il monitoraggio globale (GM): in questa modalità ASAR fornisce immagini a bassa risoluzione (1 km) usando la tecnica ScanSAR su una fascia di terreno larga 405 km con polarizzazione HH o VV; 120 Fig. 6.32 – Modalità di monitoraggio globale - la modalità onde (wave mode o WM): nella modalità onda ASAR misura i cambiamenti della retrodiffusione della superficie del mare dovuti all’azione delle onde dell’oceano. Esso creerà quindi delle immagini, della grandezza minima di 5 km × 5 km, simili alla modalità onda di ERS AMI, distanziate di 100 km nella direzione longitudinale, con polarizzazione HH o VV. Fig. 6.33 – Modalità onda Entrambe queste modalità sono a bassa velocità di trasmissione dati e di conseguenza hanno capacità operativa fino al 100% dell’orbita. La tabella 6.4 sotto riportata riassume le prestazioni di ASAR per quanto riguarda queste modalità di funzionamento. Parametri dello strumento Larghezza della strisciata Velocità dei dati Potenza Monitoraggio globale > 400 km 0,9 Mbit/s 713 W Tabella 6.4 – Prestazioni di ASAR 121 Modalità onda Finestre di 5 km 0,9 Mbit/s 647W Le modalità operative della missione regionale possono essere suddivise in: - modalità immagine; - modalità di polarizzazione alternata; - modalità di strisciata larga. Queste modalità hanno tutte un’alta velocità di trasmissione dati ed un tempo di operazione limitato sia dal funzionamento dello strumento (30 minuti per orbita con inclusi i 10 minuti in eclisse) sia dalla visibilità della stazione a terra o del satellite ARTEMIS. Nella modalità immagine (image mode o IM) ASAR crea dei prodotti ad alta risoluzione spaziale (30 m) e acquisisce in polarizzazione HH o VV su una delle sette strisciate aventi angoli di incidenza che vanno dai 15° ai 45° , come è mostrato in Fig. 6.34. Fig. 6.34 – Modalità immagine La modalità di polarizzazione alternata (alternate polarisation o AP) fornisce prodotti ad alta risoluzione in una qualsiasi delle sette strisciate dette sopra, ma con polarizzazione che varia a seconda dell’apertura. Viene impiegata una tecnica scanSAR che dà come risultato due immagini della stessa scena con una combinazione diversa della polarizzazione (HH/VV o HH/HV o VV/VH) con una risoluzione di circa 30 m e una risoluzione radiometrica ridotta rispetto alla modalità immagine. 122 Fig. 6.35 – Modalità di polarizzazione alternata Nella modalità di fascia larga (wide swath o WS) la tecnica scanSAR è utilizzata per fornire immagini di una striscia di terreno di 405 km con una risoluzione media (150 m), con polarizzazione HH o VV. La strisciata totale è composta da cinque sottostrisciate; ASAR trasmette una sequenza di impulsi ad ognuna delle sottostrisciate a turno, creando così un’immagine continua per ciascuna sottostrisciata. Fig. 6.36 – Modalità di fascia larga 123 In tabella 6.5 sono riassunte le prestazioni di ASAR per le varie modalità di funzionamento della missione regionale. Parametri dello strumento Larghezza della strisciata Tempo di funzionamento Velocità di trasmissione dei dati Potenza Modalità immagine > 100 km Polarizzazione alternata > 100 km Strisciata larga > 400 km Oltre 30 minuti per orbita Oltre 100 Mbit/s 1365 W 1395 W 1200 W Tabella 6.5 - Prestazioni di ASAR nelle varie modalità di funzionamento 6.13.4.3 I dati ASAR Il sensore ASAR fornisce una vasta gamma di dati che ESA ha suddiviso in vari livelli: si parte dal Livello 0 per poi arrivare a livelli più avanzati come il Livello 1b e il Livello 2. I dati di ASAR ad alta risoluzione vengono sistematicamente elaborati in tempo quasi reale per generare dati a media risoluzione (150 m) e prodotti “browse” (provini) disponibili in rete; i prodotti ad alta risoluzione vengono elaborati in tempo quasi reale o in differita in base alle richieste degli utenti. I modi immagine di ASAR ad alta e media risoluzione vengono trasmessi tramite collegamento in tempo reale (in banda X diretta o attraverso collegamento via ARTEMIS in banda Ka) e registrati a bordo sul registratore a stato solido per un successivo invio a terra. Il Livello 0 è composto da dati sincronizzati in uscita dal sensore. Questo tipo di dati, della grandezza massima di 22500 MB, ha una copertura che varia a seconda della modalità con la quale è stato acquisito; in particolare i dati acquisiti in modalità immagine e in modalità di polarizzazione alternata hanno una copertura di 100 km × 12000 km (l’acquisizione lungo la traccia può essere continua, da cui i differenti ordini di grandezza), mentre i dati ottenuti in modalità strisciata larga (WS) hanno una copertura di 400 km × 12000 km. La modalità immagine ASAR, come è già stato detto, opera di volta in volta su una fascia di terreno scelta fra sette, con ampiezza da 55 a 100 km e polarizzazione HH o VV. I dati di Livello 1b forniti da questa modalità di funzionamento sono: - l’immagine single look complex (SLC): questo tipo di immagine, come il nome lascia intendere, contiene informazione di fase sul ritorno e viene realizzata, a partire dai dati di Livello 0 della stessa modalità di funzionamento, con l’aggiunta di alcuni parametri ausiliari aggiornati al momento dell’elaborazione. L’uso di questi dati, che vengono prodotti solo su specifica richiesta, riguarda la valutazione della qualità dell’immagine e le applicazioni interferometriche. Ogni scena di questo tipo di dati è caratterizzata da una grandezza massima di 714 MB e da una copertura massima di 100 km × 100 km. - L’immagine di precisione: viene ottenuta dai dati della modalità immagine di Livello 0, elaborati con dati ausiliari e corretti a causa del guadagno di elevazione dell’antenna. Questo prodotto viene elaborato su specifica richiesta da parte dell’utente che desidera effettuare una visualizzazione multitemporale e derivare i coefficienti di retrodiffusione. La grandezza massima di questo tipo di dati è di 134 MB per scena e la copertura massima è di 100 km × 100 km. - L’immagine geocodificata: viene creata a partire dai dati di Livello 0 con un’applicazione delle migliori correzioni strumentali disponibili, con una allocazione precisa e con la creazione di una mappa. La sua grandezza massima è di 282 MB per scena e la copertura massima è di 100 km × 100 km. I dati di Livello 1b della modalità di polarizzazione alternata sono simili a quelli della modalità immagine, con in più l’aggiunta di una seconda immagine con una diversa combinazione di polarizzazione. Le combinazioni della polarizzazione sono: 124 - copolarizzazione (un’immagine HH e un’immagine VV); - polarizzazione incrociata H (un’immagine HH e un’immagine HV); - polarizzazione incrociata V (un’immagine VV e un’immagine VH). Le immagini provenienti dai due canali di polarizzazione differenti vengono registrate contemporaneamente. I dati a media risoluzione sono invece prodotti di Livello 1b creati in modo sistematico a partire dai dati di Livello 0 mentre lo strumento si trova in modalità WS, AP o IM. Questo tipo di prodotto copre un’area continua lungo la fascia di visualizzazione fino ad un massimo di 10 minuti ed è elaborato con una risoluzione di circa 150 m; la risoluzione radiometrica tipica di questi dati li rende adatti per applicazioni sul ghiaccio. I provini, poi, sono prodotti con immagini compresse a bassa risoluzione, creati per mezzo di un ricampionamento del prodotto a media risoluzione. Questi tipi di dati vengono generati in diverse modalità di funzionamento, come la modalità immagine, quella di polarizzazione alternata , quella di strisciata (o fascia) larga e di monitoraggio globale. A seconda della modalità in cui vengono prodotti, hanno una diversa grandezza massima (che va dai 3 MB della modalità strisciata larga ai 18 MB della modalità di monitoraggio globale) e una diversa copertura (che va dai 100 km × 4000 km della modalità immagine ai 400 km × 40000 km della modalità di monitoraggio globale). 6.14 L’interferometria SAR L’Interferometria SAR (INSAR) è una tecnica che analizza la differenza di fase tra due immagini SAR acquisite da posizioni leggermente differenti. Anche se i radar tipici memorizzano solo immagini di ampiezza, il fatto che il SAR sia un sistema di acquisizione coerente che immagazzina sia le informazioni di ampiezza che quelle di fase nell’eco radar durante l’acquisizione dei dati, è di grande importanza per numerose applicazioni. L’interferometria SAR sfrutta questa coerenza, usando le misure di fase per dedurre il differential range (differenza tra le distanze percepite dal radar dallo stesso bersaglio e due punti di vista differenti) e il range change (differenza tra le differenze viste sopra, generalmente tra due coppie d’immagini; solitamente segno che si è verificato uno spostamento del bersaglio tra le due acquisizioni) in due o più immagini SAR della stessa superficie. 6.14.1 Stima dell’altezza topografica mediante l’uso del SAR Consideriamo due antenne radar, A1 e A2, che osservano simultaneamente la stessa superificie e che sono separate da un vettore linea di base o baseline B con lunghezza B e angolo α rispetto all’orizzontale. A1 è situata ad un’altezza h sopra una superficie di riferimento. La distanza tra A1 e il punto al suolo che viene acquisito è il range ρ , mentre ρ + δρ è la distanza tra A2 e lo stesso punto. Nell’esempio riportato una stessa antenna trasmette e riceve il segnale radar, mentre l’altra funziona solo da ricevitore. La differenza di fase è sensibile sia alla geometria di vista che all’altezza del punto z sulla superficie di riferimento (in Fig. 6.37 h = 0). Se la geometria di vista è controllabile o almeno conoscibile con sufficiente accuratezza, allora si può dedurre la topografia z ( y ) dalla misura della fase fino ad una precisione di alcuni metri. 125 Fig. 6.37 – Geometria di base dell’acquisizione di immagini nell’interferometria SAR. A1 e A2 rappresentano due antenne che guardano simultaneamente la stessa superficie, oppure una singola antenna che osserva la stessa superficie su due passaggi separati. Nel prosieguo vengono riportate le equazioni rilevanti. Dalla geometria di acquisizione possiamo vedere che: z ( y ) = h − ρ cos θ (6.84) dove θ è l’angolo di vista del radar. Ricordando la regola dei coseni ( c 2 = a 2 − 2ab cos(C ) ), dove a, b, e c sono i lati di un triangolo e C è l’angolo opposto al lato c, si ha: ( ρ + dρ ) 2 = ρ 2 + B 2 − 2 ρB cos(θ + 90 − α ) ρ 2 + B 2 − 2 ρB sin(θ − α ) (6.85) ρ + B + 2 ρB sin(α − θ )) 2 2 Da qui è possibile ottenere : sin(α − θ ) = [( ρ + dρ ) 2 − ρ2 − β 2 2 ρβ ] (6.86) La quantità misurata è la differenza di fase d tra le due antenne, ed è direttamente proporzionale a dr , con costante di proporzionalità 2 p / λ . dρ = λϕ 2π (6.87) La fase ϕ nell’equazione riportata sopra è la fase frazionaria (valore tra 0 e 2π radianti) responsabile dell’ambiguità in range. Per risolvere per un numero intero di lunghezze d’onda e per ottenere il range assoluto sono necessarie delle tecniche aggiuntive, quali il phase unwrapping o “srotolamento della fase”. È possibile combinare le equazioni viste fino ad ora per esprimere la topografia ignota z ( y ) in termini della fase osservabile e i parametri del sistema radar, come segue: 126 {[ ] } z ( y ) = h − (λϕ 2π ) − B 2 / 2 B sin(α − θ ) − (λϕ 2π ) cos θ (6.88) Le stime delle altezze sono mediate su un elemento di risoluzione della superficie dell’immagine radar (conosciuto come “picture element” o più comunemente “pixel”, tipicamente di diametro dell’ordine delle decine di metri. Quanto si deve conoscere bene la geometria di vista per ottenere delle stime delle altezze ragionevolmente accurate? L’incertezza in altezza, σ z , è legata all’incertezza nell’angolo di orientazione, σ α , tramite la relazione: 2 σ z = ρ sin(θ )σ α (6.89) Per un sistema montato su satellite, dove ρ è grande (anche numerose centinaia di chilometri), l’equazione sopra riportata mostra che per ottenere un’accuratezza nell’altezza accettabile l’errore σ α deve essere molto piccolo. Per esempio, per ottenere un’accuratezza nell’altezza di 2 m da un sistema satellitare a 500 km di altitudine con θ = 30° , l’errore di posizione deve essere non più grande di 1 arcosecondo. Per un sistema radar in banda L con B = 1 km , questo implica un’accuratezza relativa nella misurazione della posizione (cioè, una conoscenza della posizione di un’antenna rispetto all’altra) di circa 5 mm. Tale accuratezza è ottenibile con le moderne tecniche di localizzazione da satellite, (spacecraft- tracking) come il Global Positioning System (GPS) od il suo analogo europeo, Galileo. Errori nell’orientazione della linea di base causano errori nell’elevazione assoluta, cioè rispetto al centro della massa della Terra, ma le altezze relative all’interno della strisciata (swath) radar non vengono influenzate in maniera significativa. Ciò implica che è possibile impiegare solo pochi punti di controllo (ground control points) per calibrare le stime delle altezze assolute anche in assenza di informazione relativa alla posizione. 6.15 La polarimetria SAR 6.15.1 Principi di base della polarimetria SAR 6.15.1.1 Introduzione alle onde elettromagnetiche e alle loro proprietà Un’onda piana elettromagnetica ha componenti di campo magnetico ed elettrico varianti nel tempo in un piano perpendicolare alla direzione di movimento. I due campi sono ortogonali l’uno all’altro e sono descritti dalle equazioni di Maxwell. Questi campi si propagano alla velocità della luce nello “spazio libero”, concetto che comprende non solo il vuoto ma anche l’atmosfera almeno nella maggior parte delle condizioni atmosferiche più comunemente riscontrate. Per descrivere la propagazione delle onde elettromagnetiche in un dato mezzo sono necessari e sufficienti tre parametri: la costante dielettrica (o permettività), la permeabilità e la conduttività. In generale, quando un’onda elettromagnetica viene emessa da una sorgente, come un’antenna radar, essa si propaga in tutte le direzioni possibili, (con una intensità e una fase di campo specifiche in ogni direzione). A grande distanza dall’antenna e per porzioni sufficientemente piccole dello spazio, possiamo assumere che i fronti d’onda giacciano in un piano, piuttosto che sulla superficie di una sfera. Dato che siamo interessati solo a ciò che accade alle onde lungo una direzione specifica, l’assunzione di onda piana è appropriata. La polarizzazione è una proprietà importante delle onde elettromagnetiche piane e riguarda l’allineamento e la regolarità delle componenti di campo elettrico e magnetico dell’onda, in un piano perpendicolare alla direzione di propagazione. Ci interesseremo solo della componente di campo elettrico dell’onda, dato che la componente di campo magnetico “segue” quella di campo elettrico attraverso le equazioni di Maxwell. Per questo motivo, l’onda elettromagnetica può essere caratterizzata attraverso il comportamento del vettore di campo elettrico come funzione del tempo. 127 Fig. 6.38 – Propagazione dell’onda piana elettromagnetica. Il vettore di campo elettrico ha componenti orizzontale (in verde) e verticale (in blu) che si combinano per dare luogo al vettore di campo elettrico totale (rappresentato in rosso). 6.15.1.2 L’ellisse di polarizzazione Il campo elettrico di un’onda piana può essere descritto come somma di due componenti ortogonali, tipicamente una componente orizzontale e una verticale. Le due componenti sono caratterizzate dalla loro ampiezza e dalla fase relativa tra esse. Quando si guarda lungo la sua direzione di propagazione l’estremità superiore (la punta) del vettore di campo elettrico di un’onda completamente polarizzata traccia una forma regolare. Nel caso più generale, la forma è un’ellisse, come mostrato in Fig. 6.39: Fig. 6.39 – L’ellisse di polarizzazione che mostra l’angolo di orientazione ψ e l’ellitticità maggiore e minore a e b. χ , funzioni dei semiassi L’ellisse ha un semiasse maggiore di lunghezza a, e un semiasse minore di lunghezza b; l’angolo del semiasse maggiore, misurato in direzione antioraria dall’asse orizzontale positivo, è l’”orientazione” ψ dell’onda elettromagnetica, e può assumere valori compresi tra 0° e 180° . La misura in cui l’ellisse è ovale è descritto da un parametro di forma detto eccentricità o ellitticità, definita come χ = arctan(b a) , che può assumere valori tra − 45° e + 45° . La forma dell’ellisse è influenzata dall’ampiezza e dalla fase relativa tra la componente orizzontale e verticale del vettore di campo elettrico. La Fig. 6.39 mostra l’effetto della fase relativa tra le componenti, quando le ampiezze delle componenti sono uguali. Quando le componenti sono in fase, la polarizzazione è lineare (ellitticità χ = 0 ), con un’orientazione di 45° . Quando l’angolo di fase relativa aumenta fino a π 2 radianti, l’orientazione rimane a 45° , ma l’ellitticità aumenta fino a 45° , rappresentando la polarizzazione circolare. La sequenza è mostrata nella prima riga della figura 6.40 (più la prima rappresentazione della seconda riga), in cui la fase aumenta a passi di π 8 . 128 Fig. 6.40 – Forma dell’ellisse di polarizzazione al variare della fase relativa tra le componenti orizzontali e verticali da 0 a 15π 8 radianti in passi di π 8 . Quando la fase relativa passa da π 2 a 3π 2 radianti, l’orientazione passa a 135° , e quindi l’ellitticità passa da 45° a zero e quindi a − 45° . Tale sequenza è mostrata nelle righe 2 e 3 di Fig. 6.40 (più la prima della immagine della quarta riga). Infine nella riga 4, la fase relativa va da 3π 2 a 15π 8 , l’orientazione passa a + 45° , e l’ellitticità tende di nuovo a zero. La figura mostra come il cerchio e una linea retta siano casi limite dell’ellisse. Se l’angolo di fase tra le componenti orizzontali e verticali è zero o π radianti, l’ellisse diventa una linea retta. In tal caso, l’ellitticità è zero e la polarizazione è detta lineare. In questa figura si assume che le componenti orizzontali e verticali siano uguali, ma se esse non sono uguali, l’orientazione può assumere qualunque valore tra 0° e 180° . Se l’ellitticità è zero e l’orientazione è ψ = 0 ( 180° è equivalente)m la polarizzazione è lineare orizzontale (la componente verticale è zero), e se ψ = 90° , la polarizzazione è lineare verticale (la componente orizzontale è zero). Queste sono le due polarizzazioni linearidi uso comune. Se l’angolo di fase tra le componenti orizzontale e verticale è 90° , e le componenti orizzontali e verticali sono uguali, l’ellisse diventa un cerchio. In questo caso, l’ellitticità è pari a 45° , e l’orientazione non è definita. Un’ellitticità di χ = +45° corrisponde ad una polarizzazione circolare sinistra mentre χ = −45° corrisponde ad una polarizzazione circolare destra. Se l’onda viene osservata lungo la direzione di propagazione, la polarizzazione è verso sinistra se la rotazione del vettore di campo elettrico è antioraria. In Fig. 6.41 vengono mostrati un esempio di polarizzazione lineare, ellittica e circolare, insieme alla rotazione del vettore di campo elettrico. 129 Fig. 6.41 – Il vettore di campo elettrico (in rosso) e il luogo tracciato dalla punta di esso (in blu) perpendicolare alla direzione di propagazione; caso di polarizzazione rispettivamente lineare, ellittica e circolare. 6.15.1.3 La polarizzazione nei sistemi radar Come vengono create le onde polarizzate da un sistema radar? Il radar usa un’antenna che è progettata per trasmettere e ricevere onde elettromagnetiche aventi una polarizzazione specifica. In un semplice sistema radar, la stessa antenna è spesso configurata in modo da la essere sensibile in ricezione alla stessa polarizzazione. Per creare un’onda con polarizzazione arbitraria sono necessari segnali con componenti ortogonali o in polarizzazioni di base. Le due polarizzazioni di base più comuni sono la lineare orizzontale o H, e la lineare verticale o V. Per alcune applicazioni si usano anche delle polarizzazioni circolari, come avviene ad esempio nei radar meteorologici. Le componenti di base sono indicate con R per la circolare destrorsa e L per la circolare sinistrorsa. In sistemi radar più complessi, l’antenna può essere progettata per trasmettere e ricevere onde a più di una polarizzazione. In trasmissione, onde di polarizzazioni diverse possono essere inviate separatamente, usando un commutatore per dirigere l’energia a diverse parti dell’antenna in sequenza. In alcuni casi le due parti possono essere usate congiuntamente, per esempio, un segnale polarizzato circolarmente può essere trasmesso alimentando le parti H e V dell’antenna simultaneamente, con segnali di uguale ampiezza e una differenza di fase pari a 90° . Dal momento che il bersaglio può cambiare la polarizzazione dell’onda diffusa fino a renderla diversa dalla polarizzazione dell’onda incidente, l’antenna radar spesso viene progettata per ricevere le diverse componenti di polarizzazione dell’onda EM simultaneamente. Per esempio, le parti H e V di un’antenna possono ricevere le due componenti ortogonali dell’onda in arrivo e i sistemi elettronici provvedono a mantenere i due segnali separati. Indicando le polarizzazioni trasmesse e ricevute con una coppia di simboli, un sistema radar che usa polarizzazioni H e V può avere i seguenti canali: - HH: per trasmissione orizzontale e ricezione orizzontale; - VV: per trasmissione verticale e ricezione verticale; - HV: per trasmissione orizzontale e ricezione verticale; - VH: per trasmissione verticale e ricezione orizzontale. 6.15.1.3.1 Il modo HH Il modo HH è un modo operativo del radar in cui l’antenna trasmittente crea un campo elettrico orientato nel piano orizzontale, e la componente polarizzata orizzontalmente dell’energia retrodiffusa viene registrata dall’antenna ricevente. Il modo HH è la combinazione di polarizzazioni preferita per un certo numero di applicazioni. Per esempio, nello studio dell’umidità del suolo, le colture orientate verticalmente, come il grano e l’orzo, permettono una maggiore penetrazione da parte delle onde con polarizzazione orizzontale, così che l’energia retrodiffusa viene dominata dall’umidità del suolo (che può pertanto essere misurata) piuttosto che dalla coltura. La combinazione HH è inoltre molto utile per separare il ghiaccio marino dall’acqua, dal momento che è meno sensibile alla rugosità dell’acqua rispetto alla combinazione VV, e quindi produce un 130 contrasto migliore tra il ghiaccio e l’acqua. Per una ragione simile, la combinazione HH è migliore della VV nell’individuazione delle navi. Fig. 6.42 – Il modo HH 6.15.1.3.2 Il modo VV È un modo operativo del radar in cui l’antenna trasmittente crea un campo elettrico orientato nel piano verticale, e la componente polarizzata verticalmente dell’energia retrodiffusa viene registrata dall’antenna ricevente. Il modo VV è la combinazione di polarizzazioni preferita per un certo numero di applicazioni. Per esempio, negli studi su piccola scala della rugosità delle onde capillari sulla superficie dell’acqua, la combinazione VV risulta essere migliore della combinazione HH o di quelle miste HV o VH in quanto l’effetto della diffusione di Bragg dà un SNR più alto nel canale VV. Tale combinazione è usata largamente per applicazioni oceanografiche come l’estrazione della velocità dei venti di superficie. I sistemi spaziali SAR che hanno avuto una singola banda con polarizzazione verticale in trasmissione e ricezione sono numerosi, per esempio il sistema europeo ERS e la banda C del satellite (anch’esso europeo) Envisat-1. Fig. 6.43 – Il modo VV 6.15.1.3.3 Il modo HV È un modo operativo del radar in cui l’antenna trasmittente crea un campo elettrico orientato nel piano orizzontale, e l’antenna ricevente registra la componente polarizzata verticalmente dell’energia retrodiffusa. Questa combinazione di polarizzazioni in trasmissione e ricezione è detta anche cross-polarizzata, mentre i modi HH e VV sono detti co-polarizzati. Assumendo la reciprocità del bersaglio, la quantità di energia retrodiffusa nei modi HV e VH è la stessa. Comunque, il rumore del ricevitore è diverso nei canali HV e VH, sicché nell’elaborazione dei dati questi canali vengono spesso mediati per ottenere una misura più accurata dell’energia crosspolarizzata. Benchè i ritorni cross-polarizzati del radar tendono ad essere più deboli di quelli copolarizzati, il canale HV si rivela molto utile nella discriminazione della vegetazione. Dato che la retrodiffusione HV dalle superfici d’acqua è molto ridotta rispetto a quella VV, il canale HV è molto adatto per rilevare bersagli sulla superficie dell’acqua che creano una diffusione multipla. Esempi di tali bersagli sono le sovrastrutture delle navi e le deformazioni del ghiaccio. Allo stesso modo, la separazione tra colture a foglia larga e in grani trae beneficio dall’impiego di immagini 131 SAR acquisite in cross-polarizzazione, dato che la geometria delle colture a foglia larga causa una retrodiffusione con rimbalzi multipli, che danno luogo ad una retrodiffusione cross-polarizzata. Fig. 6.44 – Il modo HV 6.15.1.3.4 Il modo VH È un modo operativo del radar in cui l’antenna trasmittente crea un campo elettrico orientato nel piano verticale, e la componente polarizzata orizzontalmente dell’energia retrodiffusa viene registrata dall’antenna ricevente. Fig. 6.45 – Il modo VH Inoltre, un sistema radar può avere diversi livelli di complessità di polarizzazione: - Polarizzazione singola: HH o VV o HV o VH; - Polarizzazione doppia: HH e HV, VV e VH, o HH e VV; - Polarizzazione quadrupla: HH, VV; HV e VH. Un radar polarimetrico usa queste quattro polarizzazioni e misura la differenza di fase tra i canali cosi come la loro ampiezza. Anche alcuni radar in doppia polarizzazione misurano la differenza di fase tra i canali, in quanto questa fase gioca un ruolo importante nell’estrazione dell’informazione polarimetrica. 6.15.1.4 Lo stato di polarizzazione Lo stato di polarizzazione di un’onda piana può essere descritto dall’orientazione e dall’ellitticità, più un parametro S 0 proporzionale all’intensità totale dell’onda. Scrivendo le componenti orizzontali e verticali del vettore di campo elettrico come E h e E v il fisico britannico Gabriel Stokes descrisse lo stato di polarizzazione di un’onda elettromagnetica attraverso un vettore di T quattro elementi, [S 0 , Q, U, V ] , noto come vettore di Stokes: 2 2 S0 S 0 Ev + E h Q E v 2 − E h 2 S 0 cos 2ψ cos 2 χ = = U 2 Re E v E h* S 0 sin 2ψ cos 2 χ V 2 Im E E * S sin 2 χ 0 v h { { } } 132 (6.90) dove ⋅ indica il valore assoluto e * il complesso coniugato. Un’onda elettromagnetica piana può essere completamente polarizzata, parzialmente polarizzata o completamente non polarizzata. Nel caso di completa polarizzazione, solo tre dei parametri di Stokes sono indipendenti, a causa della relazione della potenza totale: S 02 = Q 2 + U 2 + V 2 (6.91) Per un’onda completamente polarizzata lo stato di polarizzazione può essere descritto da un punto sulla sfera di Poncaré, come mostrato in Fig. 6.46. Il raggio della sfera è S 0 , l’intensità dell’onda. La latitudine di un punto sulla sfera corrisponde a 2χ , cioè, due volte l’ellitticità dell’onda. La longitudine di un punto sulla sfera corrisponde a 2ψ , cioè due volte l’orientazione dell’onda. Fig. 6.46 – Orientazione ed ellitticità di un’onda completamente polarizzata rappresentate sulla sfera di Poincaré. Da questa notazione possiamo vedere che le polarizzazioni lineari giacciono sull’equatore, con polarizzazioni orizzontali e verticali opposte l’una all’altra. Le polarizzazioni circolari sinistrorse e destrorse giacciono rispettivamente ai poli nord e sud. Tutti gli altri punti sulla sfera rappresentano polarizzazioni ellittiche di varie ellitticità ( χ ) e orientazioni ( ψ ). Punti sulla sfera che sono direttamente opposti l’uno all’altro rappresentano polarizzazioni ortogonali le une alle altre, e sono dette cross-polarizzazioni. Se l’onda elettromagnetica è parzialmente polarizzata, essa può essere espressa come somma di un’onda completamente polarizzata e un’onda completamente non polarizzata (onda rumorosa o noise-like). Il grado di polarizzazione è il rapporto tra la potenza di polarizzazione e la potenza totale, e in termini di parametri di Stokes esso è dato da: Q2 + U 2 + V 2 S0 (6.92) quindi per le onde parzialmente polarizzate la potenza totale è maggiore della potenza dell’onda di polarizzazione: S 02 > Q 2 + U 2 + V 2 (6.93) 6.15.1.5 La diffusione polarimetrica Dopo aver definito come rappresentare un’onda polarizzata, possiamo descrivere come un’onda elettromagnetica con una certa polarizzazione venga retrodiffusa da un bersaglio. In questo contesto, useremo la parola “bersaglio” per intendere sia un riflettore discreto che una superficie 133 distribuita. Le proprietà di retrodiffusione di un bersaglio possono essere misurate da un radar polarimetrico, come mostrato in Fig. 6.47. Il sistema radar illumina il bersaglio con un’onda incidente (A), e l’onda viene retrodiffusa in tutte le direzioni dal bersaglio (C). Il sistema radar registra la parte di onda retrodiffusa che è diretta indietro verso l’antenna ricevente (B). Spesso l’antenna ricevente è nella stessa posizione rispetto all’antenna che trasmette l’onda: questa situazione prende il nome di caso monostatico, e l’energia ricevuta è detta retrodiffusione. Controllando la polarizzazione dell’onda incidente e misurando le proprietà di piena polarizzazione dell’onda retrodiffusa, il sistema radar può essere usato per acquisire più informazioni relative al bersaglio che usando una singola polarizzazione. (a) (b) Fig. 6.47 – Il caso (a) si riferisce al caso monostatico; il caso (b) illustra la retrodiffusione; solo una piccola parte dell’energia diffusa (C), viene ricevuta dall’antenna del radar. Un radar polarimetrico o radar a polarizzazione in quadratura trasmette con due polarizzazioni ortogonali, spesso la lineare orizzontale (H) e la lineare verticale (V) e riceve l’onda retrodiffusa sulle stesse due polarizzazioni. Questo porta ad avere quattro canali ricevuti, cioè HH, HV, VV e VH, in cui vengono misurate sia l’ampiezza che la fase ricevuta. I segnali misurati in questi quattro canali rappresentano tutta l’informazione necessaria per misurare le proprietà di diffusione polarimetrica del bersaglio – quindi il radar a polarizzazione in quadratura è detto radar completamente polarimetrico. Nel caso di radar a polarizzazione doppia, invece, possono essere ottenute alcune proprietà di diffusione del bersaglio, ma non tutte. 6.15.1.6 La matrice di diffusione (Scattering Matrix) Quando un’onda polarizzata orizzontalmente incide su un bersaglio, l’onda retrodiffusa può avere contributi polarizzati sia orizzontalmente sia verticalmente. Lo stesso accade ad un’onda incidente polarizzata verticalmente. Dato che le componenti verticale ed orizzontale formano un insieme completo di basi per descrivere l’onda elettromagnetica, le proprietà di retrodiffusione del bersaglio possono essere completamente descritte dalla matrice di diffusione, S: E hs S hh s = Ev S vh S hv Ehi S hh Evi (6.94) che descrive la trasformazione del campo elettrico dell’onda incidente nel campo elettrico dell’onda diffusa (nella matrice l’apice i indica l’onda incidente e l’apice s indica l’onda diffusa). Avendo calcolato questa matrice, possono essere calcolate l’ampiezza e la polarizzazione dell’onda diffusa per una polarizzazione arbitraria dell’onda incidente, dato che qualunque onda incidente può essere espressa attraverso l’insieme di basi E hi , E vi . I quattro elementi della matrice di diffusione sono complessi e possono essere ottenuti dalle ampiezze e le fasi misurate dai quattro canali di un radar polarimetrico. Per ottenere questi elementi è necessaria una procedura precisa di calibrazione. Le proprietà di diffusione del bersaglio misurate si applicano solo alla frequenza e all’angolo d’incidenza al momento dell’acquisizione. Comunque, [ ] 134 le proprietà di diffusione possono variare di molto con la frequenza radar e la direzione del fascio (o la rotazione del bersaglio), quindi bisogna prestare attenzione nello scegliere questi parametri come rappresentativi di un particolare bersaglio da riconoscere. Nei radar monostatici, la proprietà di reciprocità vale per la maggior parte dei bersagli. Questa proprietà significa che S hv = S vh , cioè che la matrice di diffusione è simmetrica e ha solo tre elementi indipendenti. 6.15.1.6.1 Convenzione nelle coordinate La propagazione di un’onda elettromagnetica è descritta nello spazio tridimensionale con le coordinate date dagli assi x, y e z. L’asse z è nella direzione di propagazione, mentre gli assi x e y giacciono in un piano perpendicolare alla direzione di propagazione, con la terna (x, y, z) che forma un insieme ortogonale destrorso. In situazioni di interazione con un bersaglio, lo spazio delle coordinate deve essere definito sia per l’onda incidente che per quella diffusa. In letteratura sono presenti due convenzioni, precisamente la convenzione di diffusione in avanti (forward scatter alignment, FSA) e la convenzione di diffusione all’indietro (back scatter alignment, BSA). Per il FSA, l’asse z positivo è nella stessa direzione della direzione di propagazione dell’onda (sia per l’onda incidente che per l’onda diffusa), mentre nel BSA, l’asse z positivo punta verso l’obiettivo sia per l’onda incidente che per l’onda diffusa. Per il caso del radar monostatico, nella convenzione BSA i sistemi di coordinate sono gli stessi per le onde incidenti e diffuse, e questa è la ragione per cui tale convenzione è la più usata nello studio dei radar di immagine. La matrice di diffusione assume una forma diversa nel caso di convenzione FSA e BSA; nella convenzione BSA la matrice di diffusione è detta Matrice di Sinclair, mentre nel caso della convenzione FSA è detta Matrice di Jones. Fig. 6.48 - Rappresentazione delle convenzioni BSA (in alto) e FSA (in basso). 6.15.2 I dati polarimetrici espressi nel dominio della potenza Esistono molti modi diversi di rappresentare le proprietà di diffusione di un bersaglio, e spesso essi sono espressi nel dominio della potenza. Alcune delle rappresentazioni di potenza più comuni sono riportate qui di seguito. 6.15.2.1 Le matrici di covarianza e di coerenza Il vettore di diffusione o di covarianza k C è una versione vettorizzata della matrice di diffusione. Assumendo la reciprocità, per cui S vh = S hv , questo vettore è dato da: 135 kC S hh = 2 S hv S vv (6.95) È conveniente costruire una rappresentazione nel dominio della potenza delle proprietà di diffusione, effettuando il prodotto di questo vettore con se stesso. Il risultato ottenuto è la matrice di covarianza, che descrive pienamente le proprietà di diffusione del bersaglio. C = k C ⋅ k C+ S hh 2 * = 2S hv S hh * S vv S hh S hh S vv* 2S hv S vv* 2 S vv 2 S hh S hv* 2 S hv 2 2 S vv S hv* (6.96) dove l’apice “+” indica il trasposto coniugato e l’apice “*” il coniugato. La matrice di covarianza ha simmetria coniugata. La matrice di coerenza è strettamente legata alla matrice di covarianza; essa è ottenuta a partire dalla matrice di diffusione che viene vettorizzata in un modo diverso usando gli elementi di spin di Pauli (assumendo ancora la reciprocità): kT S hh + S vv 1 = S hh − S vv 2 2S hv (6.97) Questo vettore viene qualche volta preferito perché i suoi elementi hanno un’interpretazione fisica (odd-bounce, even-bounce, diffuse, ecc). L’informazione contenuta in questo vettore viene espressa nel dominio della potenza effettuandone il prodotto con se stesso, ottenendo la matrice di coerenza: Τ = k T ⋅ kT+ S hh 2 + 2ℜ( S hh S vv* ) + S vv 2 1 2 2 = S hh + 2 jℑ S hh S vv* − S vv 2 * 2 S hv S hh + 2 S hv S vv* ( S hh ) S hh ( ) 2 − 2 jℑ S hh S vv* − S vv 2 2 − 2ℜ( S hh S vv* ) + S vv 2 * 2S hv S hh − 2S hv S vv* 2 S hh S hv* + 2 S vv S hv* 2 S hh S hv* − 2 S vv S hv* 2 4 S hv (6.98) Gli autovalori della matrice di covarianza e della matrice di coerenza sono gli stessi, e sono reali. La somma degli elementi sulla diagonale (la traccia) di entrambe le matrici è anche questa la stessa e rappresenta la potenza totale dell’onda diffusa se l’onda incidente ha potenza unitaria. 136 6.15.2.2 Le matrici di Stokes e di Mueller Quando la polarizzazione dell’onda incidente è descritta dal vettore di Stokes S i e quello dell’onda retrodiffusa dal vettore di Stokes S S , allora la potenza retrodiffusa da un diffusore è definita da: ( ) T P = 0,5 ⋅ S s M S i (6.99) dove M è la matrice di Stokes, che è un vettore 4 × 4 di numeri reali che trasforma il vettore di Stokes dell’onda incidente nel vettore di Stokes dell’onda diffusa, per un bersaglio specifico illuminato da uno specifico sistema radar polarimetrico. In altre parole, la matrice di Stokes è un altro modo per trasformare l’onda elettromagnetica EM incidente nell’onda retrodiffusa. Assumendo la reciprocità, la matrice di Stokes è simmetrica, contiene 10 numeri diversi, dei quali 9 sono indipendenti. Ogni elemento può essere calcolato dalla matrice di diffusione. La definizione del vettore di Stokes dell’onda diffusa dipende dalla convenzione utilizzata per il sistema di coordinate. Dato che ciò può creare confusione, vengono utilizzate due forme della matrice di Stokes, in particolare la matrice di Mueller e quella di Kennaugh. La matrice di Mueller è molto simile alla matrice di Stokes, tranne che per il fatto che non viene supposta la reciprocità e di conseguenza essa contiene più elementi indipendenti. La matrice di Mueller viene usata con la convenzione FSA; esiste una forma dell’equazione della potenza riportata sopra per la matrice di Mueller, cosi come per le matrici di covarianza e di coerenza. La matrice di Kennaugh K è la versione della matrice di Stokes usata nella convenzione BSA. Le matrici K ed M sono legate dalla relazione M = diag [1 1 1 − 1] K (6.100) La traccia della matrice di Kennaugh è pari alla potenza totale, ma lo stesso non vale per la traccia della matrice di Mueller. 6.15.2.3 Compressione dei dati e formati di archiviazione Per trattare in modo efficiente i dati provenienti dai radar polarimetrici AIRSAR e SIR-C, gli scienziati del Jet Propulsion Lab (JPL) hanno cercato un modo di memorizzare e distribuire i dati che fosse semplice, compatto e contenesse tutte le informazioni necessarie per l’interpretazione dei dati stessi e per la loro classificazione. Piuttosto che memorizzare i quattro elementi complessi della matrice di diffusione, utilizzando 32 bytes per pixel, per i dati AIRSAR hanno scelto la matrice di Stokes (Kennaugh), e compresso ogni campione (o gruppo di campioni mediati) in una parola di 10 byte. Nello schema ideato dai ricercatori del JPL, la potenza totale di ogni campione viene calcolata e memorizzata in 2 bytes, una per la mantissa e uno per l’esponente. Gli 8 elementi unici restanti della matrice di Stokes vengono normalizzati con l’elemento in alto a sinistra M 11 e memorizzati ognuno in un byte. Tra questi, dei quattro più piccoli, relativi ai prodotti incrociati dei canali copolarizzati e cross-polarizzati vengono estratte le radici quadrate. Gli elementi originali della matrice di Stokes sono quindi facilmente ottenibili dai dati immagazzinati. Nota: è utile sottolineare che le matrici di Stokes e di covarianza contengono anche delle informazioni di fase, nonostante siano delle rappresentazioni di potenza. Ciò accade perché i termini come EhhEvv* sono numeri complessi, e l’angolo di tale numero complesso, ad esempio, dipende dall’angolo di fase tra i canali HH e VV. 6.15.3 La sintesi di polarizzazione Come già detto in precedenza, il radar polarimetrico può essere usato per determinare la risposta del bersaglio o la matrice di diffusione usando due polarizzazioni ortogonali, tipicamente la lineare orizzontale e la lineare verticale sia in trasmissione che in ricezione. Se la matrice di diffusione è nota, si può calcolare la risposta del bersaglio ad ogni combinazione di polarizzazioni incidenti e 137 ricevute. Questa operazione è nota come sintesi di polarizzazione, ed illustra la potenza e la flessibilità del radar polarimetrico. Se un radar polarimetrico misura la matrice di diffusione, allora si ha a disposizione tutta l’informazione relativa alle proprietà di retrodiffusione del bersaglio ad ogni campione, per quella frequenza e quell’angolo con cui il fascio radar illumina il bersaglio. Mentre il radar misura la risposta alle combinazioni delle quattro polarizzazioni, l’informazione ottenuta può essere usata per sintetizzare un’immagine per ogni combinazione di polarizzazioni trasmesse e ricevute. Per esempio, un radar a polarizzazione in quadratura può misurare le risposte a HH, HV, VV e VH, e con queste informazioni si può costruire un’immagine che può essere ricevuta da un radar con polarizzazione circolare destrorsa sia in trasmissione che in ricezione. La sintesi di polarizzazione può essere effettuata convertendo la matrice di diffusione nella matrice di Stokes, quindi pre-moltiplicando e post-moltiplicando la matrice per il vettore unitario di Stokes che rappresenta le polarizzazioni desiderate delle antenne in ricezione e trasmissione rispettivamente. Un uso comune della sintesi di polarizzazione viene fatto per costruire le firme di polarizzazione per una classe scelta di bersagli; l’uso di queste rappresentazioni geometriche aiuta a interpretare i meccanismi di diffusione presenti nella scena. 6.15.4 I parametri polarimetrici Quando si analizzano dati radar polarimetrici, è possibile calcolare un certo numero di parametri che hanno un’utile interpretazione fisica. Tali parametri possono essere calcolati per ogni campione dell’immagine prodotta dal radar polarimetrico, ma spesso sono mediati su gruppi di campioni per ridurre l’effetto del rumore. 6.15.4.1 La potenza totale La potenza totale rappresenta una quantità che fornisce la potenza totale ricevuta dai quattro canali del sistema radar polarimetrico. In termini di elementi della matrice di Sinclair (di diffusione), la potenza totale è pari a: PTOT = S hh 2 + S hv 2 + S vh 2 + S vv 2 (6.101) La potenza ricevuta da un radar polarimetrico può essere espressa attraverso le matrici di covarianza, di coerenza e di Kennaugh. La potenza totale nei quattro canali è proporzionale alla somma degli elementi diagonali (la traccia) di queste matrici. 6.15.4.2 Il coefficiente di correlazione di co-polarizzazione Questo coefficiente rappresenta la correlazione tra i due canali co-polarizzati, che per la spiegazione assumiamo essere HH e VV, in un radar multi-polarizzazione o polarimetrico. Il coefficiente di correlazione è complesso e viene calcolato come la media del prodotto tra l’ampiezza complessa del canale HH e il coniugato dell’ampiezza complessa del canale VV. Questo prodotto viene normalizzato dalla radice quadrata del prodotto delle potenze dei canali HH e VV. γ = < S hh S vv* > 2 S hh S vv 2 (6.102) Se l’ampiezza del coefficiente di correlazione è unitario, i segnali ricevuti dai due canali sono collegati in maniera lineare (ossia, uno può essere calcolato a partire dall’altro). Un esempio è la retrodiffusione ricevuta da un riflettore triedrico ideale. Se l’ampiezza del coefficiente di correlazione è inferiore ad uno, questo significa che le retrodiffusioni ad HH e VV non sono direttamente correlate. Questo può anche significare che su uno o su entrambi i canali è presente del rumore oppure che le onde elettromagnetiche sono parzialmente polarizzate. 138 6.15.4.3 La differenza di fase di co-polarizzazione La differenza di fase di co-polarizzazione è la differenza di fase tra i due canali co-polarizzati di un radar polarimetrico ed è rappresentato dall’angolo di fase del coefficiente di correlazione di copolarizzazione. Quando viene effettuata la media, gli elementi della matrice di diffusione coerente vengono mediati, e successivamente viene calcolata dalla media la differenza di fase di copolarizzazione. Spesso i canali co-polarizzati sono i canali HH e VV, e la differenza di fase di co-polarizzazione è la differenza media tra gli angoli di fase dei pixel corrispondenti (o gruppi di pixel) nei canali HH e VV. La differenza di fase di co-polarizzazione è spesso di aiuto nella classificazione dei pixel, in quanto esprime il numero di rimbalzi che l’onda elettromagnetica subisce durante la riflessione. Un diffusore ideale a singolo rimbalzo (o con un numero dispari di rimbalzi) avrà una differenza di fase di co-polarizzazione di 180° nella convenzione BSA, mentre un diffusore ideale a doppio rimbalzo (o con un numero pari di rimbalzi) avrà una differenza di fase di co-polarizzazione di 0° . Nelle situazioni pratiche, ci sarà un certa variazione nelle misurazioni della differenza di fase di copolarizzazione. Una superficie poco rugosa (o meglio, non abbastanza rugosa da far sì che avvenga una diffusione a rimbalzi multipli) diffonderà con una differenza di fase di co-polarizzazione prossima ai 180° , ed una struttura dritta aperta come una cabina telefonica avrà una differenza di fase di co-polarizzazione prossima a 0° . Comunque, la retrodiffusione proveniente da un campo agricolo potrebbe avere numerosi valori di differenza di fase di co-polarizzazione, compresi tra − 180° e 180° , dipendenti dalla dimensione e dalla distanza tra le piante e dal tipo di vegetazione. Per esempio, ci si aspetta che la retrodiffusione proveniente da un campo di grano, con gambi verticali ben definiti abbia una differenza di fase di co-polarizzazione significativamente inferiore rispetto a quella prodotta da un campo di piselli. Esiste inoltre una differenza di fase di cross-polarizzazione, che ha una definizione analoga a quella vista per la differenza di fase di co-polarizzazione. Va detto però che la differenza di fase di crosspolarizzazione è casuale, in quanto generalmente c’è poca correlazione tra i centri di fase8 di diffusione dei canali HH e HV (ad esempio). 6.15.4.4 Il grado di polarizzazione Il grado di polarizzazione è dato dal rapporto tra la potenza presente nella parte polarizzata di un’onda elettromagnetica e la potenza totale presente nella stessa. Un’onda elettromagnetica può avere una componente polarizzata e una non polarizzata, e i parametri di Stokes sono un modo comodo di esprimere le potenze in ognuna delle due parti. La potenza totale nell’onda è data dal parametro di Stokes S 0 , mentre S 1 2 + S 2 2 + S 3 2 dà la potenza totale nella parte polarizzata. Di conseguenza, il grado di polarizzazione può essere espressa in termini dei parametri di Stokes: S1 + S 2 + S 3 2 D pol = 2 S0 2 (6.103) 6.15.4.5 Il coefficiente di variazione Il coefficiente di variazione è il rapporto normalizzato tra la potenza massima e minima in una firma di polarizzazione, che costituisce un metodo grafico di visualizzazione della risposta di retrodiffusione di un bersaglio come funzione delle polarizzazioni incidenti e retrodiffuse (P ) − Pmin Pmax . (6.104) Quando il coefficiente di variazione è pari ad 1, la firma ha uno zero in qualche polarizzazione, ed il segnale ricevuto è completamente polarizzato. Quando il coefficiente è pari a zero, la firma di max 8 In generale si definisce centro di fase il punto sul quale si misura la fase dell’onda incidente o emessa. 139 polarizzazione è piatta ed il segnale ricevuto è non polarizzato. Il coeffiente di variazione è anche detto polarizzazione frazionale. 6.15.5 L’interpretazione delle immagini polarimetriche Uno dei principali obiettivi del telerilevamento è quello di realizzare una mappa tematica della superficie terrestre, che indichi il tipo di materiale presente in ogni punto illuminato dal radar. È possibile riconoscere il tipo di materiale a partire da dati polarimetrici utilizzando degli algoritmi automatici di classificazione. I pixel o gruppi di pixel vengono assegnati a classi del terreno che hanno un’interpretazione geoscientifica significativa. Il radar polarimetrico, rispetto al radar a singolo canale, permette di misurare un numero elevato di parametri e ciò permette di ottenere una classificazione più accurata. Va detto però che l’inevitabile presenza di rumore, le difficoltà nella calibrazione del sistema, la comprensione dei meccanismi di diffusione e la presenza di diversi meccanismi di diffusione all’interno di un pixel o di un gruppo di pixel costituiscono ostacoli oggettivi che vanno superati in qualche modo se si vuole ottenere una classificazione accurata. 6.15.5.1 La calibrazione dei dati Una delle caratteristiche critiche dei sistemi radar polarimetrici è la necessità di effettuare una calibrazione, in quanto la maggior parte dell’informazione è contenuta nei rapporti tra le ampiezze e le differenze nell’angolo di fase tra le retrodiffusioni nelle combinazioni delle quattro polarizzazioni ricevute. Se la calibrazione effettuata non è sufficientemente accurata, i meccanismi di diffusione possono essere mal interpretati e di conseguenza si perdono i vantaggi apportati dall’utilizzo di polarizzazioni multiple. La calibrazione viene ottenuta come risultato della combinazione della progettazione del sistema radar e dell’analisi dei dati ricevuti. Consideriamo la risposta ad un riflettore triedrico mostrata in Fig. 6.49 La risposta ideale è rappresentata da una matrice di diffusione identità: 1 S = 0 0 1 (6.105) ed è ottenuta solo se i quattro canali hanno lo stesso guadagno, le differenze di fase tra i canali sono corrette a zero, non c’è perdita di energia da un canale all’altro (crosstalk), e non c’è rumore nel ricevitore. Fig. 6.49 – Firme di polarizzazione di una grossa sfera conduttrice o di un riflettore triedrico Anche se il sistema radar non ha queste proprietà ideali, se è possibile misurare le distorsioni queste ultime possono essere per la maggior parte corrette attraverso le procedure di calibrazione. In termini di progettazione del radar, i guadagni e le fasi dei canali devono essere adattati con tutta l’accortezza possibile. Nel caso di bilancio della fase (phase balance)9, questo significa che la lunghezza dei percorsi del segnale sarà effettivamente la stessa in tutti i canali. Spesso vengono 9 Si parla di fase bilanciata quando il percorso dall’antenna al ricevitore non introduce ulteriori sfasamenti tra le diverse polarizzazioni ricevute. 140 inseriti nel progetto del sistema dei segnali di calibrazione per misurare gli equilibri dei canali (balances). In termini di analisi dei dati, gli equilibri dei canali (in ampiezza e fase), il crosstalk ed il rumore possono essere misurati e corretti analizzando i dati ricevuti da bersagli specifici. Oltre ad analizzare la risposta di segnali di calibrazione interni, è possibile usare segnali provenienti da bersagli noti come riflettori ad angolo, ammassi uniformi (clutter) e ombre radar, per calibrare alcuni dei parametri. Sono state sviluppate numerose procedure di calibrazione differenti, alcune funzionanti solo con un sensore specifico. Una delle difficoltà comuni è che i parametri di calibrazione tendono a variare con l’angolo di elevazione del fascio (per via delle caratteristiche dell’antenna, variabili con la direzione considerata: si veda il diagramma di radiazione) e con l’angolo d’incidenza (a causa delle proprietà di diffusione del bersaglio, naturalmente anch’esse variabili con la direzione); ciò significa che nella procedura di calibrazione bisogna tenere in considerazione .il variare della geometria di acquisizione all’interno dell’immagine. 6.15.5.2 L’interpretazione visuale Il metodo più semplice di classificazione è quello costituito dall’interpretazione visuale. L’interprete impara in che modo le caratteristiche della superficie sono ritratte nell’immagine, e riempie i vuoti dovuti a dettagli mancanti utilizzando la conoscenza che ha del luogo e la sua esperienza. Per aiutare l’interpretazione visuale, è possibile usare i canali multipli dei dati polarimetrici, per rappresentare i dati in un’immagine a colori, in cui alcune caratteristiche dell’immagine possono essere riconosciute da un interprete esperto. Per esempio, è possibile ottenere un’immagine a colori utilizzando il canale HH nel rosso, il canale HV nel verde e il canale VV nel blu. Questa scelta produce un’immagine a “colori reali”, in quanto le riflessioni dell’acqua hanno una componente VV più alta della componente HH, e la vegetazione ha una diffusione media più alta nel canale HV. Fig. 6.50 - Immagine in colori compositi Sir-C in banda L del Parco Provinciale Nipawin, a Nord di Prince Albert, Canada Quella mostrata in figura 6.50 è un’immagine composita a fasi colori della zona di Prince Albert, in Canada, centrata a 53°91’ nord in latitudine e 104°69’ ovest in longitudine. Questa immagine è stata acquisita dal radar ad apertura sintetica operante in bande C e X aviotrasportato (SIR-C/X-SAR) a bordo dello shuttle Endeavor sulla sua 20° orbita. L’area si trova a 40 chilometri a nord e 30 chilometri ad est della città di Prince Albert in Canada. L’immagine copre l’area ad est del lago Candle. L’area nel mezzo dell’immagine copre l’intero parco Nipawin (Narrow Hills). L’angolo di vista del radar è 30 gradi e la dimensione dell’immagine è approssimativamente 20 chilometri per 50 chilometri. Questa immagine è stata prodotta utilizzando solo la banda L. I tre canali di polarizzazione HH, HV e VV sono stati assegnati rispettivamente al rosso, al verde e al blu. I cambiamenti nell’intensità di ogni colore sono legati a varie condizioni superficiali come variazioni 141 nel sottosuolo delle foreste, condizioni di gelo o di disgelo della superficie, disturbi quali incendi e deforestazioni, e aree di ricrescita. La maggior parte delle aree scure nell’immagine sono laghi ricoperti di ghiaccio. L’area scura nell’angolo in alto a sinistra è il lago White Gull a nord dell’incrocio tra le autostrade 120 e 913. Nel mezzo dell’immagine verso destra si possono vedere i laghi Ispuchaw e il Lower Fishing Lake. Anche le aree disboscate appaiono scure nell’immagine. Dal momento che la maggior parte delle aree riservate alla crescita degli alberi da legna nell’area di Prince Albert si trovano attorno alle maggiori autostrade, le aree deforestate possono essere facilmente individuate come regioni di piccola dimensione di colore scuro lungo le strade. Nel periodo in cui il SAR SIR-C/X ha effettuato il passaggio la maggior parte delle foreste erano ghiacciate o stavano subendo il disgelo primaverile. Il canale HH in banda L mostra un alto ritorno proveniente dalla zona della foresta di pini. Le aree più rosse nell’immagine sono le zone in cui c’è la foresta di pini vecchi, alti da 12 a 17 metri e dai 60 ai 75 anni di età. Le aree arancioni-verdastre sono zone coperte da alberi di pino giovani, alti da 3 a 5 metri e vecchi da 11 a 16 anni. Le aree verdi sono dovute all’intensità relativamente alta del canale HV, che è fortemente correlato con la quantità di biomassa. Il canale HV in banda L mostra le variazioni di biomassa sull’intera regione. La maggior parte delle aree verdi, quando confrontate con le mappe di copertura della foresta, vengono identificate come neri abeti rossi. I colori blu scuro e viola scuro rappresentano rispettivamente aree recentemente sottoposte a raccolto e a ricrescita. 6.15.5.3 L’interpretazione basata sui modelli di diffusione Il livello successivo, di maggiore complessità, coinvolge la comprensione dei meccanismi di diffusione presenti nell’immagine. Van Zyl ha introdotto un classificatore in cui i pixel dell’immagine vengono assegnati a classi di meccanismi di diffusione a “rimbalzi dispari”, “rimbalzi pari” e “diffusi”. Ciò si basa sul principio che i diffusori con semplice struttura geometrica hanno essenzialmente una risposta di co-polarizzazione, ma il numero di rimbalzi o di riflessioni che il segnale radar sperimenta crea una differenza di fase riconoscibile tra i canali HH e VV (la fase relativa cambia di 180° ad ogni rimbalzo). Van Zyl ha sviluppato un semplice test matematico per assegnare ogni pixel ad una di queste tre classi. Un altro insieme di modelli di diffusione basati su principi fisici è stato introdotto da Freeman e Durden. Prendendo un albero su un terreno rugoso come diffusore generico, l’energia radar retrodiffusa dalla chioma, dal tronco e dal terreno vengono modellizzate e utilizzate per categorizzare i diffusori presenti in natura. È stata sviluppata una procedura matematica che calcola la percentuale di ogni tipo di diffusore in ogni pixel. Il metodo è simile a quello di Van Zyl, eccetto che per il fatto che per separare i meccanismi di diffusione nei dati viene utilizzato un modello fisico, piuttosto che una regola puramente matematica. Quando si ha a che fare con un gran numero di parametri misurati, i classificatori lavorano meglio se l’insieme dei parametri può essere trasformato in un insieme ortogonale, e se la dimensionalità dell’insieme può essere ridotta a quei parametri che contengono informazioni significative (ad esempio, i parametri che aiutano a rimuovere il rumore). I metodi degli autovalori se utilizzati possono dare dei vantaggi, così come è utile usare modelli di diffusione che siano indipendenti dal contenuto della scena. Uno degli ultimi metodi di selezione dei parametri in ordine di tempo si basa sulla decomposizione degli autovalori della matrice di coerenza sviluppato da Shane Cloude ed Eric Pottier, (detto Decomposizione di Cloude) in cui a partire dagli autovalori e dagli autovettori della matrice vengono calcolati i parametri di entropia polarimetrica, anisotropia polarimetrica e l’angolo alfa. L’entropia (H) rappresenta la casualità della diffusione, con H = 0 che indica un meccanismo di diffusione singola e H = 1 che rappresenta una mistura casuale di meccanismi di diffusione. Valori nel mezzo indicano il grado di dominanza di un particolare diffusore. L’angolo alfa si basa sugli autovettori ed è un numero indicativo della media dei meccanismi di diffusione dominanti. Il limite inferiore di α = 0° indica diffusione superficiale, α = 45° indica diffusione volumetrica o dipolare, mentre il limite superiore α = 90° rappresenta un riflettore diedrico oppure diffusione 142 multipla. Un altro parametro che fornisce informazione utile è l’anisotropia, un parametro basato sul rapporto degli autovalori, che indica diffusione multipla. 6.15.5.3.1 La decomposizione di Cloude La decomposizione di Cloude è un metodo per estrarre diversi meccanismi di diffusione dalla rappresentazione attraverso la matrice dei coerenza di dati radar polarimetrici. Questa decomposizione è in grado di descrivere tutto l’insieme di meccanismi di diffusione possibili, mentre la maggior parte degli altri metodi sono in grado di distinguerne solo tre. Questo metodo è basato sull’analisi degli autovettori della matrice di coerenza T; grazie al fatto che la matrice di coerenza T è una matrice hermitiana, semidefinita positiva, è sempre diagonalizzabile. Questo significa che la matrice di coerenza 3 × 3 reciproca può essere espressa come: < [T ] > = [U 3 ][Λ ][U 3 ] * (6.106) λ1 0 0 = [U 3 ] 0 λ2 0 [U 3 ] 0 0 λ3 ∗ (6.107) dove Λ è la matrice diagonale degli autovettori di [T ] , λ1 = λ 2 = λ3 = 0 sono i suoi autovalori reali e [U 3 ] è una matrice unitaria le cui colonne corrispondono agli autovettori ortonormali e1 , e2 ed e3 di [T ] . Quindi la matrice di coerenza [T ] può essere decomposta nella somma di tre matrici di coerenza [Tn ] , ognuna pesata dal suo autovalori corrispondente λ n : [T ] = ∑ λ n [Tn ] = λ 1 (e1e1* ) + λ 2 (e2 e2 * ) + λ 3 (e3 e3* ) (6.108) Ogni matrice [Tn ] è una matrice di diffusione unitaria che rappresenta un contributo deterministico di diffusione. L’ammontare dei contributi è dato dagli autovalori λ n mentre il tipo di diffusione è legato agli autovettori attraverso un angolo detto angolo alfa. Cloude e Pottier hanno introdotto due caratteristiche importanti che nascono da questa decomposizione. Il primo è l’entropia H di diffusione polarimetrica, che rappresenta una misura globale della distribuzione delle componenti del processo di diffusione ed è definito come: H = −∑ Pi log 3 Pi , i = 3 dove Pi = λ i ∑λ n n = 1, 3 (6.109) Il valore Pi può essere interpretato come l’intensità relativa dell’i-esimo processo di diffusione. Grazie a questa definizione, H è ristretta all’intervallo 0 ≤ H ≤ 1 , dove H = 0 indica che [T ] ha un solo autovalore non nullo e rappresenta un processo di diffusione deterministica, mentre H = 1 significa che tutti i λ n sono uguali. L’ultimo potrebbe essere il risultato di una diffusione puramente casuale. Dal momento che l’entropia è principalmente un indicatore della relazione tra l’autovalore più grande λ1 e gli altri due autovalori più piccoli λ 2 e λ3 , non è possibile estrarre da essa alcuna informazione diretta tra gli ultimi due. La seconda caratteristica, introdotta da Pottier, l’anisotropia polarimetrica, è legata ai due autovalori più piccoli. 6.15.6 Gli algoritmi di classificazione Gli algoritmi di classificazione vengono solitamente distinti in supervisionati e non supervisionati, benché alcuni algoritmi combinino caratteristiche peculiari di entrambi i tipi. Per una spiegazione più dettagliata degli algoritmi di classificazione si rimanda al Capitolo 9. 143 6.15.6.1 La classificazione non supervisionata basata sui parametri H/A/α In ogni classificatore la scelta dei parametri è importante, e nel caso dei dati radar polarimetrici si possono utilizzare dei modelli di diffusione dipendenti dal contenuto per ottenere i parametri che forniscono una ragionevole separazione tra le classi. Un esempio di questo tipo di parametri è l’insieme H/A/α che possono essere estratti a partire dalla decomposizione in autovalori della matrice di coerenza. L’algoritmo H/A/α, come ricordato in precedenza, è stato sviluppato da Cloude e Pottier, che hanno mostrato che le classi del terreno a volte producono dei raggruppamenti distinti nel piano H/α. Il piano H/α è mostrato in Fig. 6.51. I valori di α osservabili per una data entropia sono compresi tra le curve I e II (cioè le aree ombreggiate non sono valide). Questo perché la media dei differenti meccanismi di diffusione (cioè la media dei diversi autovettori) restringe l’intervallo dei valori possibili al crescere dell’entropia. Dato che H e α sono entrambi invarianti rispetto al tipo di basi di polarizzazione utilizzate, il piano H/α fornisce una rappresentazione utile dell’informazione contenuta nella matrice di coerenza. Fig. 6.51 - Il piano H/α mostrante le classi basate sul modello e la loro suddivisione. Una descrizione delle classi mostrate (Z1-Z9) è data nel testo. I contorni mostrati in Fig. 6.51 (Curva I e Curva II) mostrano che quando l’entropia è alta, la capacità di classificare differenti meccanismi di diffusione è davvero limitata. Claude e Pottier hanno suggerito una suddivisione iniziale in nove classi (di cui solo otto utilizzabili); queste classi sono scelte sulla base di proprietà generali del meccanismo di diffusione e non dipendono da un particolare insieme di dati. Questo permette di effettuare una classificazione non supervisionata basata sulle proprietà fisiche del segnale. L’interpretazione delle classi suggerite da Cloude e Pottier è la seguente: - Classe Z1: Diffusione a doppio rimbalzo in un ambiente di alta entropia; - Classe Z2: Diffusione multipla in ambiente di alta entropia (chiome degli alberi nelle foreste); - Classe Z3: Diffusione superficiale in ambiente di alta entropia (regione non utilizzabile nello spazio H/α) - Classe Z4: Diffusione multipla a media entropia; - Classe Z5: Diffusione da vegetazione a media entropia; - Classe Z6: Diffusione da superficie a media entropia; - Classe Z7: Diffusione multipla ad entropia molto bassa (diffusione doppia o a rimbalzo dispari); 144 - Classe Z8: Diffusione da dipolo a bassa entropia (meccanismi fortemente correlati con una grande sbilanciamento in ampiezza tra HH e VV); - Classe Z9: Diffusione superficiale a bassa entropia (diffusione di Bragg e da superfici rugose). È importante notare comunque che i contorni sono in qualche modo arbitari e dipedono dalla calibrazione del radar, dalle misure di rumore al suolo e dalla varianza dei parametri stimati. Nondimeno, questo metodo di classificazione è legato alle proprietà fisiche di diffusione, il che lo rende indipendente dagli insiemi di dati usati per l’addestramento. Il numero di classi necessarie così come la praticabilità del metodo dipendono dall’applicazione. La terza variabile è l’anisotropia polarimetrica, che è stata usata per distinguere tipi differenti di diffusione superficiale. La rappresentazione nel piano H/A per la diffusione superficiale è data in Fig. 6.52, in cui la zona ombreggiata non è utilizzabile. La linea che demarca la regione utilizzabile può essere calcolata attraverso la matrice di coerenza diagonale formata dagli autovalori più piccoli λ2 e λ3 , con λ3 che varia da 0 a λ2 . Fig. 6.52 - Tipi di diffusione superficiale nel piano Entropia/Anisotropia L’introduzione dell’anisotropia nell’insieme delle caratteristiche mette a disposizione un terzo parametro nell’operazione di classificazione. Un approccio è quello di dividere semplicemente lo spazio in due piani H/α usando il piano verde mostrato nello spazio 3-D di Fig. 6.53, un lato per A ≤ 0,5 e l’altro lato per A > 0,5 . Questo introduce 16 classi se i piani vengono divisi in accordo con la Fig. 6.51. Si noti come il limite superiore di H sia operante quando A > 0, come mostrato in Fig. 6.52. Lo spazio di classificazione H/A/α, dato in Fig. 6.53, fornisce ora una capacità aggiuntiva di distinguere tra diversi meccanismi di diffusione. Per esempio, alta entropia e bassa anisotropia ( λ 2 ≅ λ3 ) corrispondono a diffusione casuale mentre alta entropia e alta anisotropia ( λ 2 >> λ3 ) indicano l’esistenza di due meccanismi di diffusione con la stessa probabilità. 145 Fig. 6.53 - : Illustrazione di come un piano A = 0.5 (in verde) crea 16 classi a partire dalle 8 classi originali H/α mostrate in Fig. 6.46. Questo dà 16 regioni nello spazio Entropia/Anisotropia/α da utilizzare nel classificatore non supervisionato. La stima dei tre parametri H, A e α permette di ottenere una classificazione della scena in base al tipo di processo di diffusione all’interno del campione (H, A) e il corrispondente meccanismo di diffusione fisica (α). I dati hanno bisogno di essere mediati per permettere una stima di H, A e α (se non si effettua l’operazione di media, la matrice di coerenza ha rango 1); questo passo di elaborazione ha il merito di ridurre il rumore speckle. La figura 6.54.a mostra un esempio di raggruppamento di pixel da una scena SIR-C rappresentante del ghiaccio marino. Il piano H/A mostra la possibilità di raggruppare i pixel in due o eventualmente tre classi. La figura 6.54.b mostra la distribuzione dei valori di H/α per un campo di Picea Albertiana Conica (“white spruce”, una specie di conifera); l’obiettivo mostra una diffusione da dipolo dominante (α è circa 45° ), con un alto valore di entropia di circa 0,8, che indica una diffusione abbastanza eterogenea. (a) (b) Fig. 6.54 - : Diagrammi di diffusione che mostrano la distribuzione del ghiaccio in dati SIR-C sullo spazio di classificazione H/A/α. 146 Fig. 6.55 - : Diagrammi di diffusione che mostrano la distribuzione del ghiaccio in dati SIR-C sullo spazio di classificazione H/A/α. 6.15.6.2 La classificazione supervisionata basata sul criterio a Massima Verosimiglianza di Bayes Un’alternativa a quanto visto finora è quella di definire le classi a partire dalle statistiche dell’immagine stessa. Le classi vengono definite da un operatore, che sceglie delle aree rappresentative della scena per definire i valori medi dei parametri per ogni classe individuabile (di conseguenza è un metodo supervisionato). Un approccio probabilistico è utile quando i dati vengono generati in presenza di una consistente quantità di rumore. La conoscenza delle statistiche dei dati (come ad esempio la distribuzione statistica teorica) permette l’uso dell’approccio di classificazione a massima verosimiglianza di Bayes, che è ottima nel senso che, in media, il suo utilizzo produce la probabilità più bassa di errata classificazione. Dopo che sono state definite le statistiche delle classi, i campioni dell’immagine vengono classificati in base alla loro distanza dalle medie delle classi. Ogni campione viene assegnato alla classe da cui esso ha la minima distanza. La distanza stessa viene scalata in accordo con la regola di massima verosimiglianza di Bayes. La classificazione di Bayes per dati SAR polarimetrici è stata presentata per la prima volta nel 1988, nell’articolo di J.A. Kong, A. A. Swartz, H. A. Yueh, L. M. Novak, R. T. Shin “Identification of terrain cover using the optimal polarimetric classifier”, J. Electromagnetic Waves and Applications. Gli autori hanno mostrato che l’uso di dati completamente polarimetrici fornisce dei risultati di classificazione ottima. L’algoritmo è stato sviluppato solo per dati polarimetrici singlelook. In molte applicazioni del telerilevamento radar i dati vengono sottosposti ad una operazione di multi-look per ridurre gli effetti del rumore speckle. Il numero di look è un parametro importante per lo sviluppo di un modello probabilistico. L’ informazione completamente polarimetrica è presente nella matrice di diffusione S, nella matrice di covarianza C, così come nella matrice di coerenza T. È stato dimostrato che T e C sono entrambe distribuite seguendo la distribuzione di Wishart. La funzione densità di probabilità (pdf) dei campioni mediati di T per un dato numero di look, n, è: pT ( n) (< T >) = n qn < T > n−q e {− nTraccia (V K (n, q )V −1 <T > )} n dove: - <T> è la media del campione della matrice di coerenza su n look; - q rappresenta la dimensionalità del dato (3 nel caso di reciprocità, altrimenti 4); 147 (6.110) - la traccia è la somma degli elementi lungo la diagonale di una matrice; - V è il valore atteso della matrice di coerenza mediata, E{< T >}, e - K(n,q) è un fattore di normalizzazione. Per determinare i valori delle statistiche da fornire al classificatore, bisogna calcolare il valore medio della matrice di coerenza per ogni classe Vm : Vm = E{< T >|< T >∈ ω m } (6.111) dove ω m è l’insieme dei pixel appartenenti alla classe m dell’insieme di addestramento. In base alla classificazione a massima verosimiglianza di Bayes è possibile ottenere una misura di distanza d: ( ( d (< T >, Vm ) = n ln Vm + Traccia Vm −1 )) < T > − ln (P(ω m )) (6.112) in cui l’ultimo termine tiene conto delle probabilità a priori P(ω m ) . Aumentando il numero di look n decresce il contributo della probabilità a priori. Inoltre, se non è disponibile alcun tipo di informazione a priori per una data scena, si può assumere allora che la probabilità a priori sia uguale per tutte le classi. Una misura appropriata della distanza è data da: ( d (< T >, Vm ) = ln Vm + Traccia Vm −1 <T > ) (6.113) che porta ad avere un classificatore a minima distanza indipendente dai look: d (< T >, Vm ) ≤ d (< T >, V j ) per tutti ω j ≠ ω m (6.114) Applicando questa regola, un campione dell’immagine viene assegnato ad una certa classe se la distanza tra il valori del parametro in quel campione e la media della classe è minima. L’indipendenza dai look di questo schema permette di applicarlo a dati sottoposti a operazioni di multi-look cosi come a dati sottoposti a filtri anti-speckle. Questo schema di classificazione può inoltre essere generalizzato per dati completamente polarizzati in multi-frequenza, se le frequenze sono sufficientemente separate da assicurare indipendenza statistica tra le bande di frequenza. La classificazione dipende dall’insieme di addestramento e di conseguenza questo metodo deve essere applicato sotto supervisione. Tale metodo non è basato sulla fisica dei meccanismi di diffusione, il che potrebbe essere considerato uno svantaggio. D’altro canto, però, esso utilizza l’informazione polarimetrica piena e permette di ottenere una classificazione dell’immagine che sia indipendente dai look, e questo costituisce indubbiamente un vantaggio. 6.15.6.3 Un algoritmo di classificazione combinato I metodi visti in precedenza hanno entrambi dei limiti. Per quanto riguarda la classificazione H/A/α si può dire che le soglie sono in qualche modo arbitrarie e che non è possibile utilizzare tutta l’informazione polarimetrica, a causa dell’incapacità di determinare tutti e quattro gli angoli che parametrizzano gli autovalori. Il metodo di Bayes invece dipende dall’insieme di addestramento o dalla suddivisione iniziale dei dati. Ognuno dei due algoritmi è in grado di superare le difficoltà incontrate dall’altro, di conseguenza diventa interessante la possibilità di combinare insieme i due algoritmi. Applicando prima il classificatore non supervisionato H/A/α per stabilire le 16 classi iniziali, e successivamente il classificatore a minima distanza basato sulla distribuzione dei parametri raggruppati, si ottiene una classificazione migliorata rispetto a quelle ottenute applicando singolarmente uno dei due classificatori. La distribuzione può essere presa da quella complessa di Wishart, e per ottimizzare i contorni di separazione tra le classi si possono usare le iterazioni. 148 Fig. 6.56 - Classificatore combinato Entropia/Anisotropia/α-minima distanza. Questo algoritmo combinato può essere considerato come non supervisionato, in quanto la classificazione iniziale è di tipo non supervisionato. Comunque, dato che le iterazioni migliorano le medie e i contorni dei raggruppamenti, le classi finali dovrebbero essere esaminate e ad esse dovrebbero essere assegnate delle etichette basate su un’interpretazione fisica. Si noti che mentre la ripartizione iniziale viene effettuata nel dominio H/A/α, la classificazione a minima distanza viene realizzata usando direttamente la matrice di coerenza. Dopo la classificazione di Bayes, i raggruppamenti possono sovrapporsi nel dominio H/A/α. Il classificatore risulta allora dipendere dal numero e dalla diversità delle classe di ingresso al classificatore di Bayes, di conseguenza è utile effettuare delle sperimentazioni con classi iniziali differenti. Un esempio dei risultati della classificazione combinata è mostrata in Fig. 6.57. Da un’immagine SIR-C dell’Aprile 1994 relativa alla zona ad ovest del Newfoundland in Canada sono stati estratti quattro tipi di ghiaccio, tre classi di acqua e quattro classi di terreno. Il livello di dettaglio dei tipi di ghiaccio estratti è un’indicazione della potenza della classificazione computerizzata dei dati radar polarimetrici. Gli algoritmi di classificazione possono includere un algoritmo di segmentazione in cui pixel vicini con caratteristiche comuni vengono raggruppati insieme prima dell’assegnamento alle varie classi. Se fatta in maniera appropriata, la segmentazione può migliorare in maniera significativa i risultati di classificazione. 149 Fig. 6.57 - Classificazione di tipi di terreno, di oceani e ghiaccio in una scena SIR-C acquisita in banda C relativa alla zona ovest della Newfoundland. 6.15.7 Le applicazioni della polarimetria SAR A parte la missione SIR-C, la polarimetria radar è stata limitata ad un numero esiguo di sistemi sperimentali montati su aereo. Di conseguenza gli insiemi di dati disponibili per l’analisi sono limitati e quelli con sufficienti dati di realtà a terra da giustificare gli sforzi di ricerca sono ancora più rari. Gli specialisti del settore hanno studiato un certo numero di applicazioni geoscientifiche e hanno ottenuto risultati promettenti, soprattutto per la classificazione del terreno. Il numero di questi insiemi di dati da aereo disponibili per la distribuzione e l’analisi sta aumentando ed Envisat, con le sue capacità di multi-polarizzazione, sta fornendo ulteriori nuovi dati per l’analisi. Radarsat-2 con la sua multi-polarizzazione e i suoi modi polarimetrici fornirà altri dati nel prossimo futuro così come altri sistemi satellitari in corso di progettazione. Di conseguenza il futuro per lo sviluppo delle applicazioni polarimetriche appare promettente. Per alcune applicazioni la disponibilità di dati multi-polarizzazione può essere sufficiente per risolvere alcuni problemi, come ad esempio quello della discriminazione dell’acqua dal terreno e dal ghiaccio per applicazioni di mappatura. In altri casi, per produrre i parametri polarimetrici sarà necessario l’uso delle piene capacità polarimetriche. Attualmente si è solo all’inizio del processo di comprensione della polarimetria SAR per applicazioni di scienze della terra e ci si aspetta che i risultati delle ricerche in corso aumenteranno la nostra conoscenza sui dati SAR polarimetrici e di conseguenza il loro utilizzo. Nel prosieguo vedremo alcuni esempi di utilizzo di dati multipolarizzazione e della polarimetria per applicazioni SAR. Il materiale selezionato è stato scelto da lavori pubblicati (di cui verranno fornite indicazioni relative agli autori; nel caso in cui il 150 riferimento manchi del tutto o sia incompleto, ciò sarà dovuto a mancanza dello stesso nella fonte utilizzata). 6.15.7.1 Applicazioni in agricoltura 6.15.7.1.1 Introduzione L’uso delle immagini SAR per applicazioni in agricoltura è stato studiato in maniera estensiva soprattutto grazie al fatto che è possibile acquisire dati in tempi diversi durante la stagione di crescita. Per sopperire al fatto che gli strumenti radar acquisiscono dati su una sola frequenza, o raramente su due-tre sole frequenze differenti, è possibile ricorrere ad una serie multitemporale di osservazioni SAR. Dal momento che le coltivazioni crescono e maturano, le caratteristiche di retrodiffusione cambiano e queste variazioni, che dipendono dal tipo di coltura, possono essere utilizzate proprio per distinguere i tipi di coltivazione. La retrodiffusione da bersagli agricoli è composta dalla diffusione superficiale proveniente dal terreno, dalla diffusione volumetrica proveniente dalle piante, e da un termine causato dall’interazione tra il suolo e la vegetazione. Il contributo relativo di ciascuna componente è funzione dei parametri del sistema e del bersaglio. In generale in banda C il ritorno è costituito da una combinazione di queste componenti con il termine di superficie che risulta dominante all’inizio della ststagione di crescita e il termine volumetrico che risulta invece dominante al culmine della stagione di crescita. Alla fine della stagione della crescita in genere è presente un misto dei ritorni dalle diverse componenti, con i termini di superficie e di interazione tra suolo e vegetazione che diventano dominanti. Questo rende difficile l’estrazione di informazione in quanto il suolo o la coltura possono essere il bersaglio di interesse e le altre componenti producono “rumore” che aggiunge un errore significativo al processo di stima. Di nuovo, l’uso di osservazioni multitemporali può essere di aiuto, ma le difficoltà persistono. Ricerche recenti hanno dimostrato che l’informazione aggiuntiva nei dati polarimetrici (sia di ampiezza che di fase) può aiutare ad aumentare il contenuto informativo per applicazioni in agricoltura diminuendo la necessità di avere dati multitemporali. Nel seguito vedremo due esempi di questo tipo di lavoro: - La salvaguardia del suolo: la coltivazione del suolo e il residuo di vegetazione. - La produttività delle colture/variazione all’interno di un campo. 6.15.7.1.2 La salvaguardia del suolo: la coltivazione del suolo e il residuo di vegetazione La salvaguardia del suolo è uno dei principali problemi che si incontrano in agricoltura. Le pratiche di coltivazione hanno un impatto diretto sull’erosione da acqua e vento, e sulla qualità del suolo, soprattutto dal momento che quest’ultima ha a che fare con il mantenimento della materia organica del terreno. L’abilità di monitorare il tipo di coltivazione, e la quantità di residui, è importante per la salvaguardia del terreno. La coltivazione influisce sulla rugosità della superficie e sulla quantità di residuo. A causa della sensibilità della retrodiffusione radar alle caratteristiche del campo che includono la rugosità della superficie, i dati polarimetrici possono risultare molto utili per il monitoraggio delle coltivazioni del suolo e del residuo di coltivazione. Per effettuare la discriminazione tra coltivazione del terreno/residuo sono utili alcuni parametri polarimetrici come le firme di co-polarizzazione e la differenza di fase di co-polarizzazione. Le firme di polarizzazione possono essere usate per dare una rappresentazione grafica delle caratteristiche di retrodiffusione e per distinguere le caratteristiche del bersaglio. In questo esempio ciò viene mostrato in relazione alle variazioni di coltivazione e di copertura residua. Uno studio realizzato da McNairn ed altri ha fornito i diagrammi di polarizzazione a partire da immagini SIR-C per campi con coltivazioni diverse e diverse quantità e tipologie di residui. A. Campo coltivato con residuo piccolo o assente I seguenti diagrammi di co-polarizzazione sono stati ottenuti a partire da dati in banda C (Fig. 6.58) e banda L (Fig. 6.59) per campi coltivati con quantità e tipi di residui diversi. Gli angoli di incidenza erano approssimativamente tra 42 e 50 gradi. 151 Fig. 6.58 - Firme di co-polarizzazione in banda C, per campi coltivati con piccoli residui o residui assenti; fig.A: residuo di piselli (25% di copertura residua); fig.B: residuo di lenticchie (25% di copertura residua); fig.C: residuo di canola (40% di copertura residua); fig D: residuo di grano/orzo (20% di copertura residua); fig E: residuo di girasoli (40% di copertura residua). I campi più lisci, quelli con i residui migliori hanno un massimo di risposta in polarizzazione VV (angolo di orientazione di 90°). La retrodiffusione è approssimativamente uguale in tutte le polarizzazioni lineari per i campi residui di canola (una varietà di colza), grano/orzo e girasoli, suggerendo dunque che tali campi appaiono più rugosi. Nell’esempio relativo ai dati in banda L, i campi che sono stati coltivati o che hanno una copertura di residuo migliore mostrano risposte tipiche della retrodiffusione superficiale. Per questi bersagli, la risposta massima è ad un angolo di orientazione di 90° e il bersaglio appare liscio relativamente alla lunghezza d’onda. Per questi campi, le piccole altezze (0,18-0,24) indicano depolarizzazione minima, il che conferma che la diffusione superficiale è il contributo dominante. Queste superfici non sono rugose abbastanza e non hanno materiale vegetativo sufficiente da causare una diffusione multipla o volumetrica significativa. La differenza tra la diffusione VV e HH è più pronunciata in banda L che in banda C, dal momento che a questa lunghezza d’onda più lunga queste superfici appaiono più lisce. B. Campi con diffusione multipla ma senza residui di coltivazione I diagrammi di co-polarizzazione seguenti sono stati ottenuti da immagini in banda C e banda L per campi non coltivati con diversi tipi e quantità di residuo. I diagrammi per la banda C riportati in figura, ad eccezione della Fig. 6.59a, mostrano una forma tipica di diffusione a doppio rimbalzo. L’altezza della base in questi diagrammi di co-polarizzazione è più grande e indica che in questo caso si verifica una depolarizzazione maggiore nei campi non coltivati se confrontati con i campi coltivati con una copertura di residuo bassa. Il campo residuo di piselli (Fig. 6.59a) mostra una risposta simile a quella del campo con residuo di piselli che è stato coltivato (Fig. 6.58a). Un confronto tra le due figure suggerisce che dei residui molto buoni hanno un effetto davvero trascurabile sulla risposta radar dal momento che questo bersaglio appare liscio in banda C. .. Fig. 6.59 - Firme di co-polarizzazione in banda C, per campi non coltivati diffusione multipla; (A): residuo di piselli; (B): residuo di lenticchie; (C): residuo di canola; (D): residuo di grano/orzo; (E): residuo di girasoli. I diagrammi di co-polarizzazione per le immagini in banda L sono significativamente differenti se confrontati con quelli in banda C. In banda C la diffusione a doppio rimbalzo è sostanzialmente ridotta con un picco in VV spesso presente, che indica una diffusione superficiale significativa per i residui di grano/orzo e girasoli. La differenza di fase di co-polarizzazione (PPD) La differenza di fase di co-polarizzazione è un parametro polarimetrico che può essere utile per caratterizzare i meccanismi di retrodiffusione. Per esempio, un diffusore a singolo rimbalzo (o a rimbalzi dispari) avrà una fase relativa tra HH eVV di 0° nella convenzione FSA. Per un diffusore a 152 doppio rimbalzo (o a rimbalzi pari) la differenza di fase sarà 180°. Se la convenzione delle basi viene cambiata da FSA in BSA allora si verifica un ulteriore cambio di segno, che aggiunge 180° alla differenza di fase. Ad esempio, i terreni nudi sono diffusori superficiali, e generalmente hanno una differenza di co-polarizzazione media pari a 0° con una piccola deviazione standard. Ulaby ed altri hanno suggerito che la maggior parte del contenuto informativo fornito dalle differenze di fase di co-polarizzazione sia contenuto nella distribuzione di queste differenze (espresse dalla deviazione standard), cioè un campo arato rugoso ha una distribuzione di fase che è ampia confrontata con quella di un campo più liscio. Come mostrato nello studio condotto da McNairn ed altri, si è visto che la differenza di copolarizzazione media è vicina a 0 per molti campi con residuo e di conseguenza fornisce poca informazione utile. Le coltivazioni ritte in senescenza hanno mostrato differenze di fase significativamente maggiori di 0° con le differenze di fase medie che variano tra i campi in cui si crede avvenga diffusione multipla. In termini di pratiche di coltivazioni, le differenze di fase medie per i campi non potrebbero essere utilizzate per distinguere tra la presenza e l’assenza di coltivazioni e di tipi di residui, benché siano state trovate delle differenze tra le colture in senescenza ed i campi mietuti. Per esempio i campi di grano ritto ed in senescenza e quelli di girasoli tendono ad avere una differenza di fase media più alta che varia tra -30° e -130° per la banda C e tra -30° e -90° in banda L. I dati di distribuzione di fase basati sul campo possono essere usati per differenziare i campi coltivati con bassi residui dai campi non coltivati (con residui alti). La deviazione standard delle differenze di fase per i campi con bassa copertura di residuo era minore di 30°; la deviazione standard per campi non coltivati superava i 45°. Questi risultati sono consistenti con quelli riportati da Ulaby ed altri. Una figura di esempio che mostra la distribuzione dei campi con varie differenze di fase medie è data in Fig. 6.60. Fig. 6.60 - La distribuzione di fase co-polarizzata basata su campi in banda C varia come funzione delle caratteristiche dei residui. 6.15.7.1.3 La produttività delle colture/variazione all’interno di un campo La produttività delle coltivazioni dipende da numerosi fattori comprese le caratteristiche del terreno, le variabili climatiche e le pratiche di gestione delle colture stesse. La biomassa delle colture, l’area delle foglie verdi e la durata delle foglie verdi sono indicatori della condizione della coltura. Il grado fino a cui la biomassa e l’indice di area della foglia (Leaf Area Index LAI) possono effettivamente essere monitorati utilizzando immagini a microonde sono un’area di ricerca che sta andando avanti. La sensibilità dei dati SAR alla situazione ed alle condizioni della coltura è funzione sia dei parametri di acquisizione come la lunghezza d’onda, gli angoli di incidenza e la polarizzazione, sia dei parametri come il tipo di coltivazione e lo stato fenologico (cioè la dimensione, la distribuzione, l’orientazione e le proprietà dielettriche della parti che costituiscono le chiome). 153 Nel prosieguo vengono presentati due esempi dell’uso dei dati polarimetrici per il monitoraggio delle condizioni delle colture per i dati polarimetrici (dal lavoro di McNairn). 1. l’uso delle immagini a polarizzazioni multiple per separare regoni in un campo con variazioni nelle condizioni delle colture. 2. l’abilità di distinguere i meccanismi di diffusione associati a zone caratterizzate da condizioni variabili delle colture utilizzando l’algoritmo H/A/α sviluppato da Cloude e Pottier. Variazione all’interno di un campo relativa alla polarizzazione L’abilità di determinare le variazioni all’interno di un campo viene mostrato utilizzando dati polarimetrici C-SAR acquisiti sull’Ontario meridionale il 30 giugno 1999 come descritto da McNairn ed altri. Le combinazioni di polarizzazione esaminate includono le quattro polarizzazioni lineari di trasmissione e ricezione (HH, VV, HV e VH) cosi come le due polarizzazioni circolari di trasmissione e ricezione (RR e LR). Per illustrare la mappatura delle variazioni all’interno di un campo utilizziamo un campo di winter wheat, un cereale che viene piantato da settembre a dicembre e raccolto in primavera (Fig.6.61a). Una semplice immagine RGB (R = VV, G = HV, B = HH) mostra le regioni di bassa retrodiffusione. I dati di monitoraggio del raccolto ottenuti seguendo due settimane di osservazioni SAR hanno mostrato che queste aree di bassa retrodiffusione corrispondevano a raccolti con minore resa (misurata in bushel per acro o BPA). Fig. 6.61 - (a): Immagine in banda C di un campo di winter wheat (R = VV, G = HV, B = HH); (b): dati del monitoraggio dei raccolti classificati, bushels per acro; (c) dati classificati SAR che distinguono tra zone ad alto e basso raccolto (Noetix Research Inc., 2001). Si può notare che le immagini in banda C in polarizzazione HH non possono essere utilizzate da sole per separare zone di diversa produttività (Fig. 6.62). Le immagini che hanno mostrato il contrasto migliore tra zone ad alta e bassa produttività sono quelle in cross-polarizzazione lineare (HV) (4,1 dB), seguite dalle immagini in polarizzazione VV, RR ed LR con differenze di circa 2 dB. 154 Fig. 6.62 - (a): Retrodiffusione alle polarizzazioni lineare e circolare per zone di produzione più alta e più bassa di un campo di winter wheat. Le aree di raccolto scarso all’interno del campo di grano, identificate utilizzando le tre polarizzazioni lineari, concordano in maniera ragionevole (77%) con le aree di basso raccolto identificate dai dati di monitoraggio dei raccolti. Fig. 6.63 - (a): Percentuale di accordo tra la classificazione SAR e i dati di monitoraggio dei raccolti; A indica l’area di accordo per il raccolto più alto (77%); B indica l’area di accordo per il raccolto più basso (77%) mentre C indica l’errore (omissione/inclusione) del 23%. 6.15.7.2 Applicazioni al ghiaccio marino 6.15.7.2.1 Introduzione Le immagini SAR sono ben adatte per la mappatura del ghiaccio marino e per applicazioni di monitoraggio. Questa caratteristica delle immagini SAR è stata di notevole spinta per lo sviluppo della missione RADARSAT-1, che viene utilizzata dal Canada cosi come da molti altri paesi per la mappatura ed il monitoraggio del ghiaccio marino. Va detto però che i dati SAR a singolo canale come quelli acquisiti da RADARSAT-1 hanno capacità limitate nel monitoraggio del ghiaccio marino, soprattutto in condizioni diverse da quelle che si hanno durante l’inverno e nelle zone ghiacciate marginali. Le difficoltà di interpretazione e di analisi includono ambiguità tra acqua e ghiaccio ad angoli di incidenza bassi e/o in condizioni di vento spinto, confusione tra acqua e ghiaccio sottile, mascheratura delle firme del ghiaccio in condizioni di umidità (primavera) e l’identificazine del tipo di ghiaccio. Le sezioni successive illustrano come i SAR polarimetrici possono fornire delle informazioni addizionali per far fronte a queste difficoltà di interpretazione e di analisi. 155 6.15.7.2.2 Analisi polarimetriche per il ghiaccio marino I dati SAR polarimetrici possono essere utilizzati per creare una varietà di prodotti di output che comprendono immagini di intensità multipolarizzazione, cosi come i parametri polarimetrici. Le immagini acquisite con le varie combinazioni di polarizzazione in trasmissione e ricezione possono essere mostrate sui singoli canali o in varie combinazioni che includono i rapporti e la composizione in falsi colori. La Fig. 6.64 mostra immagini acquisite in ognuna delle tre polarizzazioni lineari come immagini di intensità a singolo canale e combinate poi in un’immagine composita in falsi colori. L’area osservata è il Mare del Labrador vicino alla costa del Newfoundland con ghiaccio e mare aperto. Fig. 6.64 - Immagini acquisite in banda C dal sensore SIR-C e visualizzate come immagini di intensità in falsi colori compositi e a singolo canale per una regione del Mare del Labrador vicino alla costa del Newfoundland interessata dal ghiaccio. I dati sono stati acquisiti il 18 aprile 1994 con angoli di incidenza che vanno dai 26 ai 31 gradi. I dati complessi possono inoltre essere utilizzati per generare le firme polarimetriche così come i parametri polarimetrici che possono essere utilizzati per essere di aiuto nell’interpretazione e nella comprensione dei meccanismi di diffusione. Inoltre è possibile generare dei discriminanti polarimetrici che possono essere usati per scopi di classificazione. 6.15.7.2.3 Ambiguità tra ghiaccio e acqua Ad elevati angoli di incidenza, soprattutto in condizioni di forte vento, può succedere che si verifichi della confusione tra il mare aperto e il ghiaccio marino in immagini acquisite da radar SAR a singolo canale come RADARSAT-1 o ERS-1/2. Le immagini da SAR multipolarizzazione possono essere utilizzate per ridurre notevolmente questa confusione in due modi diversi: - grazie alla minima retrodiffusione proveniente dall’acqua nei canali di cross-polarizzazione (HV o VH), le immagini acquisite a queste polarizzazioni possono essere utilizzate per migliorare la discriminazione tra le classi acqua/ghiaccio/terreno. - Il terreno e fino ad un certo punto anche il ghiaccio sperimentano la diffusione volumetrica dando origine ad un ritorno cross-polarizzato. La Fig. 6.65 illustra ciò per la stessa area del Mare del Labrador mostrato in Fig. 6.64. 156 Fig. 6.65 - Immagini a singolo canale acquisite in banda C dal sensore SIR-C relative al Mare del Labrador. Nel canale HV si nota il forte contrasto aumentato sul contorno tra il primo ghiaccio dell’anno e l’acqua, contrasto dovuto alla mancanza della diffusione multipla dalla superficie dell’acqua. La Fig. 6.66 dimostra come il rapporto HH/VV può essere usato per ottenere risultati simili in quanto le diverse caratteristiche di diffusione dei due bersagli in polarizzazioni HH VV possono essere utilizzati per migliorare il contrasto in confronto ad ogni singolo canale. Fig. 6.66 - Rapporti tra le immagini del Mare Labrador acquisite dal sensore SIR-C mostranti i vantaggi del rapporto tra i canali di co-polarizzazione per migliorare il contrasto del contorno tra il ghiaccio e l’acqua. Le tecniche di decomposizione polarimetrica possono essere usate per generare i discriminatori polarimetrici che possono a loro volta essere utilizzati per aiutare l’interpretazione o per migliorare 157 la classificazione. Le figure sotto riportate mostrano esempi di contrasto tra acqua e ghiaccio che è visibile nelle immagini in bande C ed L con miglioramenti particolarmente visibili nell’uso dell’anisotropia in banda C e dell’entropia in banda L. Fig. 6.67 - Immagini di Entropia (H), Anisotropia (A), e Angolo alfa (α) in banda C per il Mare Labrador che migliora il contrasto tra ghiaccio e acqua utilizzando il parametro di anisotropia. Fig. 6.68 - Immagini di Entropia (H), Anisotropia (A), e Angolo alfa (α) in banda L per il Mare Labrador che migliora il contrasto tra ghiaccio e acqua utilizzando il parametro di entropia. 6.15.7.2.4 Strutture e tipi di ghiaccio Le firme di polarizzazione generate dalla matrice di diffusione possono essere utilizzate per interpretare le proprietà di diffusione del bersaglio aiutando quindi a comprendere la rugosità, la dipendenza dalla polarizzazione e i meccanismi di diffusione per quel tipo di ghiaccio. La figura 158 sottostante mostra le firme di co-polarizzazione in banda C per il primo ghiaccio dell’anno con una copertura di neve variabile e per il ghiaccio giovane e rugoso. Fig. 6.69 - Firme di co-polarizzazione in banda C per : (a) ghiaccio giovane e rugoso; (b) ghiaccio liscio con diverse proprietà di copertura di neve. L’uso delle firme di polarizzazione per l’interpretazione dei tipi di ghiaccio può anche essere dimostrato confrontando le firme di tipi di ghiaccio diversi, ossia nuovo, grigio, grigio rugoso, e desalinizzato che rappresentano una serie temporale in termini di evoluzione e sviluppo. La figura sottostante mostra queste firme di polarizzazione e dimostra la migrazione della risposta di picco da HH a VV che è legata alla riduzione della costante dielettrica della superficie del ghiaccio su questo periodo di tempo. Si può notare che la risposta di polarizzazione cambia ancora una volta verso un picco HH dato che il ghiaccio evolve ulteriormente, diventa più rugoso e desalinizzato. Fig. 6.70 - Firme di co-polarizzazione in banda C per diversi tipi di ghiaccio: nuovo, grigio, grigio rugoso e desalinizzato ottenute da misurazioni fatte con un diffusimetro. Si noti il cambio del picco nella risposta di polarizzazione man mano che il ghiaccio passa da ghiaccio nuovo a desalinizzato. 6.15.7.2.5 La classificazione del ghiaccio marino L’abilità di effettuare una classificazione robusta e non ambigua del tipi di ghiaccio è critica per applicazioni operative ed è una delle limitazioni dei SAR a singolo canale. I SAR polarimetrici offrono potenzialmente una accuratezza di classificazione migliorata grazie all’aumentato contenuto informativo delle polarizzazioni addidizionali e dei dati di fase. Le metodologie di classificazione del ghiaccio marino per i SAR polarimetrici sono attualmente in via di sviluppo e i risultati stanno mostrando una separabilità migliorata con la risposta polarimetrica sia in banda C che in banda L. La Fig. 6.71 mostra i dati in banda C acquisiti dal sensore CV 580 nel marzo 2001 sull’isola Prince 159 Edward, in Canada. È stato trovato che mentre i dati in multipolarizzazione forniscono una migliore separabilità delle classi rispetto ai dati a singola polarizzazione, i dati completamente polarimetrici forniscono informazione sufficiente per dare una classificazione valida dei tipi di ghiaccio. Fig. 6.71 - Immagine classificata della costa nord di Prince Edward Island, (Canada) utilizzando dati SAR polarimetrici acquisiti da CV-580 ottenuta attraverso l’impiego di un classificatore complesso Wishart con 8 classi iniziali e 12 iterazioni. Colore blu rosso magenta cyan bianco verde verde scuro nero grigio Descrizione Ghiaccio liscio sottile Ghiaccio con superficie rugosa RYI rugoso FYI rugoso, più sottile FYI/terreno rugoso, più sottile terreno terreno terreno Classi non usate per il confronto dei diagrammi di diffusione (bianco, verde scuro e nero). Tabella 6.6 – Descrizione delle classi utilizzate nella classificazione riportata in Fig. 6.72 Per illustrare il contenuto extra di informazione dei dati polarimetrici si è utilizzata la decomposizione polarimetrica. La figura sottostante mostra l’entropia (H), l’anisotropia (A) e l’angolo alfa (α) per questi dati. L’immagine in basso mostra il terreno, mentre il fast ice10 è messo in evidenza nell’immagine centrale e il ghiaccio rugoso nell’immagine in alto. Il ghiaccio liscio mostra l’entropia più bassa a causa della diffusione omogenea mentre il terreno ha l’entropia più alta. L’anisotropia è più bassa per il terreno e più alta per il ghiaccio fornendo il miglior contrasto tra ghiaccio e terreno e tra tipi di ghiaccio. L’angolo α è basso per il ghiaccio liscio, che insieme all’entropia bassa dimostra che la diffusione superficiale domina. Per ghiaccio più rugoso sia l’angolo α sia l’entropia sono più alti, come dimostrato nel canale di cross-polarizzazione, il che indica che si sta verificando più diffusione volumetrica. 10 Ghiaccio ancorato alla terra e che non si muove lateralmente, mentre può subire dei movimenti verticali dovuti alle maree. 160 Fig. 6.72 - Entropia (H), Anisotropia (A) e angolo alfa (α) per immagini acquisite in banda C nel Marzo 2001, con il sensore CV-590 dell’area della costa Nord di Pei. L’immagine in basso mostra il terreno, mentre il fast ice è messo in evidenza nell’immagine centrale e il ghiaccio rugoso nell’immagine in alto. L’utilizzo di sensori SAR completamente polarimetrici in multifrequenza come il sensore AIRSAR del JPL è appetibile a causa delle frequenze addizionali che permettono di estrarre ulteriori informazioni sul bersaglio. Per esempio le caratteristiche di penetrazione variabili permettono un’ulteriore separabilità tra i tipi di ghiacci specialmente tra tipi di ghiaccio vecchi di molti anni e tipi di ghiaccio recenti. Ciò può essere illustrato con l’uso di tecniche di decomposizione polarimetrica per distinguere le caratteristiche di diffusione superficiale e diffusione volumetrica del bersaglio. La Fig. 6.73 mostra la classificazione della diffusione superficiale contro la diffusione volumetrica utilizzando questa tecnica, mentre la Fig. 6.74 mostra il risultato della classificazione. 161 Fig. 6.73 - Immagini di potenza totale della decomposizione di Freeman-Durden di dati AIRSAR in banda C, L e P che mostrano la diffusione superficiale contro quella volumetrica. Fig. 6.74 - Risultati di classificazione dei tipi di ghiacci utilizzando dati acquisiti dal sensore AIRSAR del JPL e una decomposizione polarimetrica basata sull’entropia utilizzando otto classi e 12 iterazioni. 162 Classe ThI/SFYI Colore blu RFYI/R Arancione Verde nero Rosa Verde pastello Bianco grigio CFYI MYI Descrizione Ghiaccio sottile di nuova formazione/ Ghiaccio liscio first year Ghiaccio rugoso /detriti Ghaccio compresso Ghiaccio vecchio di molti anni Tabella 6.7 – Descrizione delle classi utilizzate nella classificazione riportata in Fig. 6.74 6.15.7.3 Applicazioni allo studio delle foreste C’è sempre più bisogno di capire e quantificare lo stato di salute e le dinamiche delle foreste, sia da un punto di vista regionale sia globale. Le informazioni richieste includono la mappatura dei tipi di foreste, l’identificazione di incendi recenti e l’estrazione di una varietà di parametri biofisici come la biomassa totale e l’età degli alberi. I dati polarimetrici vengono utilizzati per migliorare l’individuazione delle differenze strutturali tra le chiome e quindi per aiutare nella mappatura dei tipi di foresta e nella fornitura di informazioni addizionali per altre applicazioni di gestione delle foreste. La Fig. 6.75 mostra un’immagine in falsi colori multipolarizzazione di un’area ad est di Ottawa, Canada, ed illustra l’aumento del contenuto informativo per l’dentificazione delle foreste. Fig. 6.75 - Immagine in falsi colori del sito di studio Mer Bleue vicino Ottawa, che mostra sei aree di foresta con diversa composizione (dati C-SAR; Rosso: HH, Verde: HV e Blu:VV). 6.15.7.3.1 Dipendenza dalla frequenza L’utilità dei dati SAR per l’estrazione dei parametri biofisici dipende soprattutto dalla frequenza. Le microonde alle più basse frequenze come la banda L (2,0-1,0 GHz) e la banda P (1,0-0,3 GHz) sono meglio in grado di penetrare le chiome e interagiscono in maniera più estensiva con le sue componenti strutturali (foglie, rami, tronchi). Le microonde alle frequenze più alte (banda C, 3,8 – 7,5 GHz) tendono ad interagire soprattutto con la porzione superiore della chioma. I sensori a 163 frequenza più alta hanno un utilizzo più limitato nella discriminazione delle variazioni della biomassa asciutta mentre ci si aspetta che i dati in banda L e in banda P possano essere usati per discriminare le variazioni di biomassa. 6.15.7.3.2 Dipendenza dalla polarizzazione Nell’articolo di T. Le Toan, A. Beaudoin e D. Guyon “Relating forest biomass to SAR data” (IEEE Transactions on Geoscience and Remote Sensing, Vol. 30(2), Marzo, pp- 403 – 411, 1992) gli autori hanno mostrato che l’intervallo dinamico della retrodiffusione sui pini uniformi ha una forte variazione con la polarizzazione, cioè l’intervallo dinamico per i dati ottenuti in banda P per la polarizzazione HV era approssimativamente 15 dB, per la polarizzazione HH circa 11 dB e per la polarizzazione VV circa 4,8 dB. In banda L, l’intervallo dinamico si riduce, con un intervallo dinamico di circa 8,6 in polarizzazione HV, circa 5,3 dB in HH e circa 4,6 dB in polarizzazione VV. In banda C l’intervallo dinamico è significativamente più basso, con dati per la polarizzazione HV che mostrano l’intervallo più ampio (approssimativamente 4 dB) e quelle in polarizzaione HH e VV che mostrano un intervallo dinamico di solo 2 dB. La retrodiffusione per la polarizzazione HV a lunghezze d’onda più lunghe può essere utilizzata in maniera più efficiente per caratterizzare la biomassa delle foreste, come si vede nel lavoro ”Dependence of Radar Backscatter on Coniferous Forest Biomass”, di M.C. Dobson, T. Le Toan, A. Beaudoin, E. S. Kasischke, apparso sulle IEEE Transactions on Geoscience and remote Sensing, Vol. 30(2), March, pp.412-415, 1992. Fig. 6.76 - Retrodiffusione in banda C ed L come funzione della biomassa totale sul suolo dei pini marittimi e dei pini loblolly riportati su a scala logaritmica. 6.15.7.3.3 I parametri polarimetrici Le firme di co-polarizzazione I dati polarimetrici possono fornire informazioni uniche circa le chiome delle foreste relative in particolare all’architettura delle chiome e ai meccanismi di diffusione che ne derivano. I meccanismi di retrodiffusione includono la retrodiffusione diretta dai rami (diffusione a singolo rimbalzo/di volume), la retrodiffusione dai tronchi (singolo rimbalzo), la retrodiffusione proveniente dall’interazione tra i rami ed il terreno (doppio rimbalzo), la retrodiffusione proveniente dall’interazione tra i tronchi ed il terreno (doppio rimbalzo) e la retrodiffusione diretta dal terreno (diffusione superficiale). Il contributo relativo di ognuno di questi dipende dalla natura della chioma e dai parametri di acquisizione delle immagini come l’angolo di incidenza e la frequenza. 164 Alcune componenti all’interno della chioma (foglie e rami) possono giocare un ruolo significativo nelle interazioni di diffusione e di attenuazione dipendenti dalla frequenza. Ci si aspetta che l’uso dell’analisi di dati polarimetrici possa aiutare a comprendere la natura della diffusione all’interno di una chioma. Un esempio modellizzato di firma di co-polarizzazione rappresentativo di una foresta di caducifoglie in banda L mostra che la retrodiffusione proveniente da una copertura pesante di foresta alle polarizzazioni HH e VV è simile a quella alla polarizzazione VV che è leggermente inferiore, il che suggerisce la dominanza della diffusione dai rami multipli combinata con una debole componente a doppio rimbalzo. L’altezza del minimo indica una grande componente non polarizzata nel ritorno di retrodiffusione, indicativa della diffusione multipla. La modellizzazione della stessa chioma con una densità di rami di un ordine di grandezza inferiore produce una firma di polarizzazione che è caratteristica di un riflettore diedrico ad angoli (doppio rimbalzo), che suggerisce la dominanza dei meccanismi di diffusione tronco-terreno per questa foresta con meno rami. La densità più bassa di rami porta anche ad avere una altezza più bassa del minimo a causa di una componente non polarizzata più bassa, che indica una quantità più piccola di diffusione volumetrica. Fig. 6.77 - Firme di co-polarizzazione in banda L di: (a) una foresta caducifoglie e (b) una foresta caducifoglie con una densità di rami che è un oridine di grandezza inferiore a quello considerato nel caso (a) La Fig. 6.78 mostra le firme di co-polarizzazione modellizzate per un’area di foresta e per un’area deforestata. L’area deforestata ha un’altezza del minimo più bassa, che è indicativa di una componente non polarizzata più bassa a causa di un più grande ritorno diretto dalla superficie del terreno e una quantità più piccola di diffusione volumetrica. Il ritorno nel caso VV più forte confrontato al caso HH è indicativo di diffusione superficiale. Fig. 6.78 - Firme di co-polarizzazione per (a) un’area di foresta e (b) per un’area deforestata. La differenza di fase di polarizzazione La differenza di fase di co-polarizzazione può essere utile per comprendere i meccanismi di diffusione per un bersaglio particolare. I diffusori a singolo rimbalzo generalmente risultano in una differenza di fase prossima a 0° mentre i diffusori ideali a doppio rimbalzo hanno una differenza di fase di ± 180° . In questo esempio preso dal lavoro di Le Toan ed altri per una chioma di foresta la differenza di fase di co-polarizzazione è stata messa in relazione con l’età (Fig. 6.79) e fino ad un certo punto con l’altezza degli alberi e la biomassa del tronco. In questo caso, la differenza di fase di co-polarizzazione media ottenuta per l’area deforestata ( ∆φ = 6,8° ) indica che la retrodiffusione è soprattutto funzione della diffusione superficiale proveniente dal terreno. Il valore medio abbinato 165 a gruppi omogenei di alberi maturi è molto più alto (approssimativamente 66°) ed ha una deviazione standard maggiore (90°) di quella ottenuta per l’area deforestata (70°). Questo è indicativo di diffusione volumetrica. Fig. 6.79 - Istogramma delle differenze di fase di co-polarizzazione in banda P tra le polarizzazioni HH e VV ( ∆φ ) per (I) un’area deforestata e (II) una piantagione di pini di 46 anni. F = Frequenza di occorrenza (%); D = Differenza di fase di polarizzazione (gradi) 6.15.7.4 Idrologia L’uso del SAR per applicazioni di idrologia ha una lunga storia ed è stato ampiamente investigato per la stima dell’umidità del suolo, la mappatura della neve e la mappatura delle inondazioni e dei terreni umidi. Queste applicazioni non hanno realizzato un successo operativo o commerciale anche a causa delle limitazioni dei sistemi SAR a singolo canale come RADARSAT-1. la polarimetria ha il potenziale per migliorare l’utilizzo dei dati SAR per queste applicazioni aiutando a rendere operative queste applicazioni. Alcuni esempi di ciò vengono forniti nelle sezioni seguenti. 6.15.7.4.1 La mappatura dell’umidità del suolo L’umidità del suolo è un parametro importante per molte applicazioni a risorse naturali come la modellizzazione idrologica, la predizione dei flussi d’acqua, e la previsione delle piene. I dati SAR sono ben adatti per la stima dell’umidità del suolo a causa della dipendenza della costante dielettrica dall’umidità a queste frequenze. Come è stato descritto nel lavoro di Dobson e Ulaby, (M.C Dobson, F. T. Ulaby: “Active microwave soil misture research”, IEEE Transactions on Geoscience and Remote Sensing, Vol. GE-24 No. 1, pp. 23-36) per una data condizione del suolo (rugosità o tessitura) si è visto che la retrodiffusione radar è linearmente dipendente dall’umidità volumetrica ( mv ) nello strato superiore del suolo (dai 2 ai 5 cm), con una correlazione r ≈ 0,8 fino a 0,9 ( σ 0 = A + Bmv ). La presenza di una copertura vegetativa introduce un altro livello di complessità nella mappatura dell’umidità del suolo a causa dell’interazione delle microonde con la vegetazione e il suolo. In base alla quantità della vegetazione presente, le sue proprietà dielettiche, l’altezza e la geometria (dimensione, forma e orientazione delle sue parti componenti) la sensibilità della retrodiffusione delle microonde all’umidità del suolo volumetrica può essere ridotta in maniera significativa. 166 L’abilità di mappare l’umidità del suolo in maniera efficace può essere migliorata attraverso una selezione giudiziosa dei parametri nell’acquisizione delle immagini come l’angolo di incidenza, la lunghezza d’onda e la polarizzazione. Per minimizzare i contributi della rugosità del suolo alla retrodiffusione spesso si sceglie di acquisire le immagini ad angoli di incidenza elevati e dell’attenuazione associata alla biomassa presente al suolo. La retrodiffusione è affetta in maniera significativa dalla rugosità del suolo e dagli angoli di incidenza oltre i 40°. Di conseguenza, per la stima dell’umidità del suolo si raccomanda di acquisire le immagini ad angoli di incidenza più piccoli. Si è visto che la polarizzazione HH in banda C è la più sensibile all’umidità del suolo e la meno sensibile alla rugosità del terreno in presenza di poca biomassa. Nei campi agricoli, dal momento che la componente vegetativa al suolo aumenta, sono necessarie lunghezze d’onda maggiori (ad esempio, quelle della banda L) per permettere un monitoraggio continuato dell’umidità del suolo durante la stagione della crescita. Per le aree coperte da arbusti o da foresta, solo le lunghezze d’onda più lunghe come quelle della banda L o meglio della banda P possono fornire la penetrazione necessaria per la stima dell’umidità del suolo. I dati polarimetrici possono aiutare a ridurre e/o a tenere conto degli effetti della rugosità e/o della vegetazione sulla stima dell’umidità del suolo. La dipendenza dalla polarizzazione L’abilità di stimare l’umidità della superificie del suolo (per profondità da 0 a 2,5 cm) utilizzando varie polarizzazioni e parametri polarimetrici di dati SIR-C è riportata nel lavoro di J. Sokol, H. NcNairn, T.J Pultz (“Case studies demonstrating hydrological applications of C-band multipolarized and polarimetric SAR CJRS”, 2002) Sono stati raccolti dati sulle superfici di suolo nudo nella zona del Manitoba meridionale durante l’aprile e l’ottobre 1994. La valutazione dei dati polarimetrici è stata limitata a dati acquisiti con angoli di incidenza che vanno dai 33° ai 38°. I parametri polarimetrici esaminati includono le polarizzazioni sintetizzate lineari e circolari, la potenza totale, i rapporti di co-polarizzazione e cross-polarizzazione, l’altezza del minimo, e le differenze di fase di co-polarizzazione (vedi tabella). I dati acquisiti sia in polarizzazione HH sia VV risultavano altamente correlati con l’umidità del suolo (coefficiente di correlazione ρ = 0,86 – 0,87) mentre quelli acquisiti in polarizzazione HV erano molto meno correlati (ρ = 0,71). L’analisi a regressione multipla utilizzando varie combinazioni di polarizzazioni lineari non ha mostrato significativi miglioramenti nella stima dell’umidità del suolo. Si è visto che i rapporti di co- e cross-polarizzazione non hanno effetti sulla stima dell’umidità del suolo come i dati in polarizzazione HH o VV, benché siano stati usati con successo altrove per aiutare a ridurre gli impatti della rugosità del suolo e della vegetazione per dati acquisiti ad angoli di incidenza minori. La differenza di fase di co-polarizzazione media (ρ = -0,35) non è correlata in maniera significativa con l’umidità del suolo. Questo parametro spesso è utilizzato per distinguere i meccanismi di diffusione, che in qesto caso erano relativamente invarianti e indicativi della diffusione superficiale (singolo rimbalzo). Di conseguenza, la bassa correlazione non era inaspettata. I dati SIR-C ottenuti nel Manitoba meridionale mostrano che l’informazione nelle immagini a varie polarizzazioni e i parametri polarimetrici sono altamente intercorrelati (tabella 2), la retrodiffusione in HH, VV e RL mostrano una correlazione più alta con l’umidità del suolo. 167 Tabella 6.8 – Correlazione tra la retrodiffusione radar e l’umidità del suolo in superficie (0 – 2.5 cm) * statisticamente significativo a p < 0,05 Tabella 6.9 - Correlazioni tra la retrodiffusione media del campo registrate per ogni polarizzazione lineare e circolare su suoli nudi. * coefficienti ρ di correlazione. 168 6.15.7.4.2 La mappatura della neve La stima della copertura della neve e delle sue proprietà è importante come dato d’ingresso ad applicazioni ideologiche come la modellizzazione e la previsione del flusso d’acqua proveniente dallo scioglimento della neve così come la comprensione dei cambiamenti in regimi climatici locali e regionali. Parametri tipici per la neve derivati da dati radar includono la misura della neve, l’equivalenza acqua/neve (SWE, Snow water equivalent, o contenuto equivalente d’acqua) e lo stato della neve (umido/secco). Lo SWE può essere rappresentato in unità di misura di kg/m2 o metri di profondità di acqua liquida che si ottiene dallo scioglimento della neve. Il SWE è il prodotto della profondità e della densità: SWE = profondità (m) × densità ( kg m 3 ) ⇒ (unità di misura : kg m 2 ) SWE = profondità (m) × densità ( kg m 3 ) / densità di acqua ( kg m 3 ) ⇒ (unità di misura : kg m 2 ) La risposta di retrodiffusione da una superficie coperta di neve è funzione di numerosi fattori, tutti legati tra loro, che comprendono le proprietà dielettriche della neve, la temperatura, la densità, l’età e la struttura della neve. La retrodiffusione ricevuta all’interfaccia aria/neve, la diffusione volumetrica dallo strato di neve e la diffusione dall’interfaccia neve/terreno. La misura in cui la retrodiffusione è funzione della diffusione superficiale o della diffusione volumetrica è governata dalle proprietà della neve. Quando un mucchio di neve è asciutto (ad una temperatura inferiore a 0° C) le microonde penetrano facilmente (Fig. 6.80) e la retrodiffusione è in gran parte funzione della profondità e della densità della neve stessa. Fig. 6.80 - Profondità di penetrazione nella neve come funzione di contenuto di acqua liquida e frequenza delle microonde. σ p = profondità di penetrazione (m) mv = Contenuto volumetrico di acqua liquida (percentuale) Dato che dipende dalla frequenza della microonde e dalla profondità della neve, la retrodiffusione da un mucchio di neve secca può essere soprattutto funzione delle caratteristiche della superficie del terreno sottostante a causa della trasparenza relativa della neve secca alle frequenze delle microonde. 169 In banda C, la neve umida assorbe mentre quella secca è trasparente, il che rende la stima di SWE difficile. La polarimetria può aiutare fornendo delle informazioni aggiuntive aiutando cosi a migliorare la stima di SWE. 6.16 Il radar meteorologico Il radar è uno strumento che consente di rilevare la presenza di oggetti distanti, di localizzarli nello spazio e di ottenere informazioni sulla loro natura fisica e geometrica. Nel caso particolare di un radar meteorologico, tali oggetti sono tipicamente le idrometeore, siano esse gocce di pioggia oppure neve, grandine o pioggia ghiacciata. Il radar genera un impulso elettromagnetico che viene focalizzato da un’antenna e trasmesso nell’atmosfera (fascio radar). Gli oggetti che si trovano lungo il percorso di tale impulso elettromagnetico (le idrometeore, per esempio) diffondono nell’ambiente circostante l’energia elettromagnetica da cui vengono investiti. Parte di tale energia viene retrodiffusa verso il radar. L’antenna ricevente riceve la radiazione retrodiffusa e la invia ad un apparecchio detto ricevitore. Tramite l’analisi delle proprietà di tale segnale è possibile conseguire diverse informazioni circa l’insieme delle idrometeore osservate, come la loro distanza rispetto all’antenna radar, le loro dimensioni, e la loro velocità di spostamento rispetto al radar. Poiché l’intensità di precipitazione è funzione del volume delle gocce e della loro velocità di caduta (funzione anch’essa del diametro delle gocce), le informazioni ricavate dal radar consentono una stima indiretta dell’intensità di precipitazione in atto. L’antenna del radar può ruotare sia nel piano orizzontale sia in quello verticale, esplorando in tal modo un vasto volume di atmosfera (dell’ordine dei 106 km3), ottenendo informazioni quantitative sulla struttura e la dinamica dei processi meteorologici in atto. Per l’individuazione geometrica del bersaglio rispetto al radar sono necessari tre parametri: il primo rappresenta l’angolo formato dal fascio radar rispetto al Nord ed è chiamato azimut. Fig. 6.81 - Rappresentazione dell’angolo di azimut del fascio radar in un piano orizzontale: il radar qui è visto dall’alto. Il secondo rappresenta l’angolo formato dal fascio radar con il piano tangente alla superficie terrestre al sito radar ed è chiamato angolo di elevazione. 170 Fig. 6.82 - Rappresentazione dell’angolo di elevazione del fascio radar in un piano verticale Il terzo è rappresentato dalla distanza del bersaglio dal radar lungo il percorso seguito dall’impulso. Fig. 6.83 - Determinazione della distanza del bersaglio dall’antenna radar La distanza D viene determinata misurando il tempo impiegato dall’impulso per percorrere la doppia distanza radar-bersaglio-radar. Poiché la velocità di trasmissione del segnale è nota (velocità della luce), la determinazione della distanza risulta immediata. Sulla base del valore di distanza così calcolato, e dei valori misurati degli angoli di azimut ed elevazione si determina la posizione del bersaglio rispetto al radar. 6.16.1 Stima di precipitazione tramite il radar meteorologico L’informazione meteorologica estratta dal segnale retrodiffuso ricevuto dall’antenna radar è nota come riflettività z (in Fig. 6.85 viene rappresentato un campo di riflettività z osservato da un radar meteorologico). Per determinare la corrispondente intensità di precipitazione R si utilizza una relazione z-R di conversione nella forma z=aRb , determinata sulla base di misure di distribuzioni dimensionali delle gocce al suolo. Il tipo di legame tra z ed R è approssimativamente valido per la maggior parte delle piogge convettive, mentre i coefficienti variano significativamente e a volte si possono stimare da misure integrative effettuate con pluviometri. 171 Fig. 6.84 - Campo di riflettività osservato da un radar meteorologico In pratica attraverso l’eco ricevuto, un radar ad impulsi convenzionale misura la potenza riflessa, da cui conoscendo la potenza trasmessa, la distanza e l’attenuazione è possibile ricavare la riflettività z. Una volta effettuata una depurazione del segnale ricevuto da quelle eco generate da bersagli che non sono di interesse, si procede alla conversione di z nelle misure direttamente utilizzabili ai fini meteorologici; esse sono l’intensità di precipitazione R, la quantità totale dell’acqua Q e la distribuzione dei diametri delle idrometeore DSD (Drop Size Distribution). Queste conversioni non sono univoche e sono caratterizzate da una problematica abbastanza complessa. Indicando con D il diametro del bersaglio (goccia di pioggia) colpito dalla radiazione emessa dall’antenna radar e con N(D) la distribuzione della quantità di idrometeore in funzione del diametro, si può dimostrare che la riflettività z vale: z = ∫ N ( D) ⋅ D 6 ⋅ dD e la grandezza di nostro interesse che si vuole ricavare da z, cioè l’intensità di pioggia R espressa in mm/h, vale: π ∞ N ( D) ⋅ V ( D) ⋅ D 3 ⋅ dD 6 ∫0 in cui V(D) è la distribuzione della velocità di caduta delle particelle in funzione del diametro. Questa distribuzione è ricavabile teoricamente ed ha l’espressione seguente: R= V ( D) = 9,65 − 10,3 ⋅ e −6 D Essa ha piena validità solamente in una situazione teorica, poichè la frequente presenza in situazione piovose di correnti verticali più o meno intense, ne discosta l’andamento da quello reale. La distribuzione N(D), viceversa, non è misurabile direttamente; esistono però delle espressioni che ne descrivono l’andamento, e che hanno dimostrato negli anni attraverso l’applicazione sperimentale una buona aderenza alla realtà; per esempio N(D) si può esprimere con l’esponenziale negativa di Marshall e Palmer: N ( D ) = N 0 ⋅ exp(− ΛD ) = 8000 ⋅ exp(−4.1 ⋅ R −0.21 ⋅ D ) oppure, in modo più generale, come: 172 N ( D ) = N 0 D µ e − ΛD Basandosi sulle espressioni disponibili per queste due distribuzioni, si assume che la relazione fra z e R sia di tipo esponenziale: z = aR b . I parametri a e b che figurano nella relazione possono variare da punto a punto e da un evento di precipitazione all’altro, ma sono indipendenti da R. Tali coefficienti riflettono in qualche modo le caratteristiche climatologiche di una particolare località o stagione, o, più specificamente, il tipo di precipitazione (stratiforme, convettiva, orografica) per la quale sono state derivate. Di seguito sono riportate alcune delle numerosissime relazioni proposte da vari autori: − − − − z = 200 ⋅ R 1, 6 z = 400 ⋅ R 1, 4 z = 237 ⋅ R 1,5 z = 277 ⋅ R1, 48 (Marshall et al, 1948: la più usata) (Joss e Waldvogel, 1970) (Atlas e Ulbrichts, 1977) (media delle 69 relaz in Battan, 1973) La relazione z-R è una relazione soggetta a diverse incertezze che dipendono tra l’altro dalla distribuzione, dalle dimensioni delle gocce e dalla durata temporale della misura. Per migliorare il grado di precisione ed ottenere maggiori infomazioni vengono usati i sistemi a doppia polarizzazione, nei quali la riflettività viene valutata su due piani ortogonali. L’onda polarizzata orizzontalmente è più sensibile alle direzioni orizzontali dell’idrometeora mentre l’onda polarizzata verticalmente risulta più sensibile alle dimensioni verticali. In altre parole tanto più le gocce di pioggia sono grosse tanto più assumeranno durante la caduta una struttura schiacciata; di conseguenza la riflettività dell’onda polarizzata orizzontalmente differirà da quella verticale. Tutto questo ci fornisce un’indicazione della distribuzione delle dimensioni delle idrometeore. La doppia polarizzazione ci consente anche di distinguere le gocce di pioggia dai cristalli di ghiaccio i quali durante la caduta mantengono una forma pressoché costante. Oltre all’andamento di N(D) e V(D) esiste un terzo aspetto che si è tenuto in considerazione nella formulazione di queste relazioni, vale a dire l’impatto del profilo verticale di riflettività (Vertical Reflectivity Profile o VPR). La pioggia, infatti, non è verticalmente uniforme a causa di fenomeni di evaporazione e di cambio di fase da solida a liquida. Esiste una fascia, ad un’altezza compresa tra i 2000 ed i 4000 metri a seconda della latitudine e del periodo dell’anno, dove coesistono lo stato liquido e quello solido, chiamata melting layer. Nella banda di frequenze utilizzate dai radar, questa fascia è molto ben visibile, perciò le si è dato il nome di bright band, cioè banda brillante. La causa di questa alta visibilità è la fusione dei cristalli di ghiaccio in precipitazione che si verifica a quelle altezze. La sezione radar (cioè la visibilità) di un bersaglio di forma sferica è proporzionale alla quarta potenza del suo diametro. Il ghiaccio riflette assai poco, ma possiede un comportamento interessante per i radar: nelle idrometeore è altamente poroso, quindi ha un volume grande rispetto alla quantità d’acqua che effettivamente contiene. Finché è tutto ghiaccio (al di sopra della banda brillante) riflette poco perché il ghiaccio è un cattivo conduttore elettrico, ma quando comincia a sciogliersi (all’interno della banda brillante) si ricopre di una pellicola di acqua che lo fa apparire al radar come una goccia di dimensioni superiori al normale. All’uscita dalla banda brillante, il ghiaccio si è sciolto tutto e le dimensioni della goccia sono tornate ad essere congruenti alla quantità d’acqua in essa contenuta. Ipotizzando una situazione abbastanza comune, dove si ha un profilo di z quasi uniforme accompagnato dalla presenza di una intensa banda brillante, l’impatto del VPR è illustrato in Fig. 6.85. 173 Fig. 6.85 – Impatto del VPR Si vede chiaramente come a 50 km dal radar il fascio illumini solamente la sezione costituita dalla pioggia, a 100 km la fascia illuminata è prevalentemente la banda brillante, mentre a distanze sempre maggiori il fascio illumina le zone sovrastanti il corpo nuvoloso. Nel secondo caso, perciò, si ha una forte sovrastima del valore di R, mentre nel terzo, cioè per rilevazioni a grande distanza, si ha una sottostima di R. Nell’esempio schematizzato nella figura precedente, si è ipotizzato per semplicità che il fascio di radiazioni emesse dal radar si propagasse linearmente nell’atmosfera. In realtà, in situazioni standard, si ha una curvature costante verso il basso a causa della diminuzione della densità dell’atmosfera all’aumentare della quota. Considerando la proporzionalità diretta fra la densità dell’atmosfera e l’indice di rifrazione, questo comportamento è in accordo con la legge di rifrazione di Snell. L’effetto pratico di questo fenomeno è quello di aumentare l’orizzonte visivo del radar, effetto di cui si tiene normalmente conto (moltiplicando il raggio terrestre per un fattore costante pari a 4/3). Esiste però un fenomeno abbastanza comune che provoca lo spostamento da questa situazione standard: la propagazione anomala (ANAPROP). Essa è provocata da un andamento dell’indice di rifrazione dell’atmosfera anomalo e può avere come effetto l’incurvamento non standard dei raggi elettromagnetici oppure, nel caso di inversione dell’andamento dell’indice di rifrazione, la formazione di condotti a quota costante capaci di trasportare il fascio a distanze elevatissime. In conseguenza di ciò, a seconda dei casi, si può avere uno spostamento fittizio della posizione dei bersagli, un forte aumento oppure una forte diminuzione della portata. Avremo anche uno spostamento apparente degli ostacoli fissi, che ne rende difficoltosa l’individuazione. Una tecnica che permette la calibrazione del radar e l’individuazione dei migliori parametri possibili nella relazione di conversione z-R consiste nell’utilizzo dei pluviometri, ovvero particolari strumenti che consentono la misurazione diretta dei valori di R. L’utilizzo combinato del radar e di una rete di pluviometri disposti nell’area circostante, permette la raccolta delle serie temporali di z e R. Tali serie vengono sincronizzate applicando il metodo della correlazione incrociata, il quale in pratica individua il ritardo tra la prima e la seconda, ovvero il tempo che le idrometeore impiegano a raggiungere il pluviometro partendo dalla cella osservata dal radar; una volta fatto questo, vengono infine calcolati i parametri della relazione esponenziale z = aR b tramite un algoritmo di regressione. Ciò assicura una buona aderenza della legge di conversione alla realtà. 174 Fig. 6.86 - Campo di intensità di pioggia ottenuto dai valori di riflettività rappresentati in Fig. 6.84 utilizzando la relazione Z= 300 R 1.4. La scala va da 5 a 85 mm/h con un intervallo di 5 mm/h. Il radar meteorologico ha esteso e perfezionato considerevolmente la possibilità di osservare in tempo reale, con elevata risoluzione spaziale e temporale, la struttura dei campi di precipitazione. Il suo impiego presenta alcuni sostanziali vantaggi rispetto a quanto si può ottenere con una rete di stazioni pluviometriche. Il radar meteorologico offre infatti le seguenti opportunità: - visione globale, in tempo reale, dei fenomeni di precipitazione in atto su un’area molto vasta (dell’ordine dei 10.000 km2), e determinazione dell’intensità di precipitazione su elementi di griglia di dimensione di 1-4 km2; - monitoraggio della precipitazione con continuità spaziale, e quindi possibilità di rilevare anche fenomeni estremamente localizzati; - elevata frequenza temporale della osservazione (dell’ordine dei 5 minuti); - analisi dell’andamento della precipitazione lungo la verticale; - possibilità di seguire lo spostamento e l’evoluzione dei fenomeni e di individuare le zone che potranno essere interessate da precipitazione nell’immediato futuro. In particolare, il radar ha dimostrato una notevole efficacia nel monitoraggio dei fenomeni a spiccata caratterizzazione locale, quali, ad esempio, le celle temporalesche. 6.16.2 Previsione di precipitazione tramite radar meteorologico La possibilità di prevedere l’evoluzione temporale di un campo di precipitazione a partire dalla sua osservazione tramite radar discende dalla continuità spaziale di tale osservazione relativa ad una regione piuttosto vasta. Confrontando fra loro mappe successive di precipitazione radar è possibile pervenire ad una sintetica descrizione della dinamica dell’evento meteorico, individuando una direzione di spostamento dell’idrometeora. Negli schemi più semplici, la previsione agli istanti successivi viene conseguita operativamente estrapolando gli ultimi campi di precipitazione osservati nella direzione ed alla velocità del moto precedentemente identificato. Procedure di previsione più evolute consentono di tenere in conto anche gli aspetti di crescita e di decadimento delle celle convettive eventualmente presenti nel campo di precipitazione osservato. Si tratta, in questi casi, di modelli meteorologici semplificati che consentono di utilizzare l’informazione radar disponibile sul contenuto di acqua in forma liquida della colonna atmosferica al fine di pervenire ad una simulazione numerica del fenomeno e ad una sua previsione. Nell’ambito di tali schemi basati su modelli è possibile l’uso combinato del radar meteorologico e del satellite. 175 E’ evidente che schemi di previsione come quelli appena delineati possono essere sufficienti quando l’orizzonte temporale di previsione di interesse è pari a qualche ora. Previsioni quantitative di precipitazione su orizzonti temporali più prolungati sono conseguibili, evidentemente con minore accuratezza, solamente utilizzando modelli numerici di previsione. Solitamente, i modelli a scala sinottica dei principali centri meteorologici europei (Reading, Offenbach), maggiormente affetti da errori proprio su regioni ad orografia complessa, risultano inidonei a evidenziare la distribuzione spaziale di dettaglio della nuvolosità e delle precipitazioni. I modelli ad area limitata, che utilizzano le previsioni dei modelli sinottici quali condizioni al contorno e consentono la rappresentazione dei fenomeni meteorologici su una griglia più fine, sono generalmente indicati come maggiormente affidabili nella previsione dei quantitativi di pioggia. Tuttavia, anche in questo caso la rappresentazione della struttura orografica fornita dal modello è molto semplificata e gli errori conseguenti possono essere rilevanti. L’esperienza acquisita in questo campo indica che le previsioni numeriche di precipitazione relative a regioni ad orografia complessa sono da usarsi con molta cautela, e che esse devono essere integrate da conoscenze sinottiche e regionali dettagliate, derivate da esperienza acquisita sul territorio. L’uso dell’informazione radar, in questo caso, assume un duplice valore. Da una parte, essa diventa elemento essenziale per la verifica continua, ad ampia scala spaziale, della accuratezza delle previsioni conseguite tramite modelli numerici. Dall’altra, la conoscenza dettagliata degli effetti regionali acquisita tramite l’analisi delle immagini radar consente al previsore una differenziazione regionale della previsione numerica. Per le ragioni appena indicate, il miglioramento delle previsioni di precipitazione a breve termine sembra conseguibile utilizzando, secondo un albero decisionale, i modelli numerici di previsione e i flussi cospicui di dati forniti, in tempo reale, da radar meteorologico e da satellite. 6.16.3 I Radar meteo Doppler Oltre ai normali radar meteo esistono degli speciali radar chiamati radar Doppler i quali sfruttando appunto l’effetto Doppler consentono di stimare la velocità di spostamento con cui le particelle che costituiscono la nube (gocce e cristalli) si avvicinano o si allontanano dal radar. Questi speciali radar permettono di sapere quindi, oltre all'intensità della precipitazione, la direzione di spostamento dell'evento meteorologico. 6.16.3.1 L’effetto Doppler Se si pensa al suono di una sirena, possiamo ricordare come il tono di essa cambia mentre si avvicina e in seguito mentre si allontana. Prima diviene acuto, poi grave. Scoperto dal matematico e fisico austriaco Christian Doppler (1803-1853), questo cambiamento di tonalità è il risultato di uno spostamento nella frequenza delle onde sonore, come mostrato in Fig. 6.87. Fig. 6.87 – Effetto Doppler Durante l'avvicinamento, le onde sonore provenienti dalla sirena vengono compresse nella direzione dell'osservatore. Gli intervalli tra le onde diminuiscono, il che si traduce in un aumento della frequenza (maggiore la frequenza più acuto il tono). Quando il treno si allontana, rispetto 176 all'osservatore le onde vengono "stirate", causando l'abbassamento di tonalità. Dalle variazioni del tono della sirena, è possibile determinare se il treno si sta avvicinando o se si sta allontanando. Potendo misurare il cambiamento di tonalità in un determinato tempo, è anche possibile stimare la velocità del treno. L'entità dello spostamento è determinata da: v/c dove v è la velocità di avvicinamento o di allontanamento dall'osservatore e c è la velocità alla quale si propagano le onde. Il suono si propaga alla velocità di 350 metri al secondo. Un treno che viaggi a 120 km/h si muove a 33 metri ed 1/3 al secondo, circa 1/10 della velocità di propagazione del suono. Dalla formula di Doppler, possiamo calcolare che la frequenza del suono della sirena del treno in avvicinamento subirà uno spostamento verso i toni acuti del 10%. Dopo il passaggio del treno, presumendo una velocità costante dello stesso, udiremo un abbassamento della tonalità di pari percentuale, della frequenza del suono della sirena. Analogamente, qualsiasi radiazione elettromagnetica emessa da un oggetto in movimento, è soggetta all'effetto Doppler. La radiazione elettromagnetica emessa da un oggetto in avvicinamento è compressa, la frequenza quindi aumenta: subisce quello che viene denominato "uno spostamento verso il blu" (blueshifted). All'opposto, la radiazione emessa da un oggetto in allontanamento viene "stirata" o "spostata verso il rosso" (redshifted). Come ben sanno i fisici (al contrario di quanto vorrebbe far crederci il buonsenso che conferisce al colore rosso temperature e quindi energie superiori a quelle associabili al colore blu ritenuto sinonimo di freddo), con il termine "spostamento verso il blu" si indica un aumento della frequenza e quindi dell'energia di qualsiasi forma di radiazione dell'intero spettro elettromagnetico. All'inverso, con il termine "spostamento verso il rosso" si indica una riduzione di frequenza e quindi di energia di qualsiasi radiazione. Il motivo per cui possiamo renderci conto dello spostamento Doppler, come viene anche chiamato, del suono ma non di quello della luce è diretta conseguenza della tremenda differenza tra la velocità del suono e la velocità della luce. 6.16.4 Alcuni radar meteorologici 6.16.4.1 Il radar meteo a Spino d’Adda (Cr) − − − − − •Fa capo al C.S.T.S.-C.N.R. Convenzionale (non doppler), banda S (2,8 GHz), pol. vert. Operativo dal 1978, ma non funziona continuativamente. Copre da 350 m a 150 km, risoluzione 75/150 m. Genera una mappa di pioggia ogni 90 secondi; PRF=456/228 Hz, durata 0.5/1.5 ms − Quantizzazione ad 8 bit. − 475 kW di picco. 177 6.16.4.2 Radar di Gattatico (RE) 6.16.4.3 La rete radar britannica − − − − 15 radar in banda C (5,6 cm) tra Regno Unito ed EIRE, con portata di 75 km. Scansione completa sui 4 angoli di elevazione ogni 5 minuti. Raccolta dati presso il Met Office di Exeter nel Devon. Met Office li elabora per fornire una mappa di pioggia alla risoluzione di 5 km × 5 km ogni 15’. − In caso di situazioni anomale, emette avvisi di pericolo, anche molto specifici (servizio FloodCall 178 6.16.4.4 La rete radar svizzera − Tre radar meteo con zone di copertura parzialmente sovrapposte: Lema (Lugano), La Dôle (Ginevra), Albis (Zurigo) − Mappa a risoluzione 1km×1km su tutto il territorio nazionale ogni 5 minuti, con soppressione degli echi a terra. − Previsioni di pioggia a breve termine (1 o 2 ore) e previsione eventi catastrofici. 179 PARTE SECONDA L’ELABORAZIONE DELLE IMMAGINI TELERILEVATE 180 CAPITOLO 7 LA CORREZIONE DELLE DISTORSIONI 7.1 Introduzione Ogni immagine telerilevata richiede, per poter fornire informazioni fruibili da un utente finale, un certo numero di operazioni, dipendenti dalla sua tipologia e risoluzione (spaziale, numerica, spettrale e temporale). Queste operazioni si possono raggruppare in sette grandi classi: - Correzioni geometriche, radiometriche e atmosferiche - Miglioramento delle caratteristiche d’immagine - Classificazione - Fusione di dati - Analisi di immagini iperspettrali - Modellizzazione biofisica - Trasmissione e compressione I dati raccolti dai sensori per telerilevamento necessitano, prima dell’utilizzo nelle applicazioni, di una serie di correzioni per eliminare o limitare i disturbi e le distorsioni introdotte durante l’acquisizione e la trasmissione. Questa fase di pre-elaborazione può essere divisa in due classi principali di correzioni: - correzioni geometriche - correzioni radiometriche 7.2 Le correzioni geometriche 7.2.1 La georeferenziazione Il modo più semplice di collegare un’immagine ad una mappa è quello di usare una trasformazione geometrica, cioè una funzione che mette in relazione le coordinate dei due sistemi. Per esempio, la relazione tra (x,y) e (i,j) viene normalmente rappresentata attraverso delle equazioni lineari, come: x = 3 + 5i y = − 2 + 2 .5 j (7.1) (7.2) Usando le trasformazioni sopra riportate, per esempio, la posizione che nell’immagine ha coordinate (i=5, j=8) corrisponde alle coordinate della mappa (x=28, y=18). Una volta che una tale trasformazione è stata determinata, è possibile calcolare le coordinate per ogni pixel dell’immagine. L’immagine risultante è un’immagine georeferenziata. Questo permette di sovrapporre dei vettori di dati e l’immagazzinamento dei dati in coordinate della mappa. Va detto che l’immagine rimane immagazzinata cosi come è nella struttura raster e che la sua geometria non è alterata. Il processo di georeferenziazione include due passi: la selezione di un tipo appropriato di trasformazione e la determinazione dei parametri della trasformazione. Il tipo di trasformazione dipende principalmente dal sistema piattaforma-sensore utilizzato. Per la fotografia aerea (di un terreno piatto) normalmente viene usata una trasformazione detta prospettica per correggere gli effetti di inclinazione e rotolamento. Una trasformazione più generale è quella polinomiale, che permette trasformazioni di primo, secondo e terzo ordine. In molte situazioni comunque vengono preferite le trasformazioni del primo ordine. Una trasformazione del primo ordine correla le coordinate della mappa (x,y) con quelle dell’immagine (i,j) nel modo seguente: 181 x = a + b(i ) + c( j ) (7.3) y = d + e(i ) + f ( j ) (7.4) queste equazioni richiedono la determinazione di sei parametri (a, b, c, d, e, f). I parametri della trasformazione possono essere determinati per mezzo dei Ground Control Points (GCPs), punti che possono essere chiaramente individuati nell’immagine e nella mappa che viene utilizzata per il confronto. Una possibilità è quella di utilizzare mappe topografiche a scala adeguata. L’operatore a questo punto ha bisogno di riconoscere punti identici in entrambe le immagini, per esempio utilizzando incroci tra strade, corsi d’acqua, strutture morfologiche tipiche, eccetera. Un’altra possibilità è quella di identificare i punti nell’immagine e quindi misurare le coordinate sul campo attraverso il posizionamento del satellite. Il risultato della selezione dei GCP è un insieme di punti (come quello riportato nella tabella sottostante). Per risolvere le equazioni sopra riportate, si ha bisogno di almeno tre GCP. Comunque, per calcolare l’errore commesso durante la trasformazione, è necessario avere più punti a disposizione. Fig. 7.1 – Un insieme di 5 GCP usati per determinare una trasformazione del primo ordine; xc e yc sono calcolati usando la trasformazione, mentre xc e yc sono gli errori residui Basandosi sui GCP scelti, il computer calcola i parametri della trasformazione ottima da utilizzare. Gli errori che rimangono dopo l’applicazione della trasformazione sono detti errori residui. La loro grandezza è un indicatore della qualità della trasformazione applicata. La tabella sopra riportata mostra un esempio in cui sono utilizzati 5 GCP. Basandosi sui punti dati (i,j) e (x,y), si può determinare la seguente trasformazione: x = 902,76 + 0,206i + 0,051 j (7.5) y = 152,579 − 0,044i + 0,199 j (7.6) Fig. 7.2 – Sistema di coordinate dell’immagine definite da righe e colonne (a) e sistema di coordinate mappate con assi x e y (b) Usando queste equazioni, è possibile calcolare le coordinate nell’immagine per ogni GCP singolo. Nel fare questo, ovviamente non sarà possibile trovare gli esatti valori x e y nella tabella, dal momento che i calcoli vengono effettuati solo sui primi tre decimali. Rimarrà quindi una differenza 182 tra i valori calcolati (xc,yc) e i valori reali, (x,y), perché la trasformazione è stata ottimizzata per dare la migliore corrispondenza per l’insieme totale dei GCP. Le differenze risultanti (errori residui) sono indicati con dx e dy. Gli errori residui possono essere usati per individuare quali siano i GCP che danno il maggiore contributo nel calcolo dell’errore; questo potrebbe significare, per esempio, che un GCP è stato scelto male. L’accuratezza totale della trasformazione viene espressa di solito attraverso l’errore quadratico medio (errore RMS, Root Mean Square), che calcola il valore medio dai residui individuali. L’errore quadratico medio in direzione x, indicato con mx, viene calcolato usando la formula seguente: 1 n δxi2 ∑ n i =1 mx = (7.7) Per la direzione y, viene usata una equazione simile per il calcolo di my. L’errore complessivo, indicato con mtot, viene calcolato come: mtotal = m x2 + m y2 (7.8) L’errore quadratico medio è un metodo per valutare l’accuratezza della trasformazione. Va detto però che tale errore non tiene conto della distribuzione spaziale dei GCP e che il suo valore è valido solo per la zona individuata dai GCP stessi. Nella scelta dei GCP, è consigliabile includere punti che siano vicini ai bordi dell’immagine. Il numero di punti di controllo minimo per effettuare la rettifica dipende dall’ordine della trasformazione ed è espresso da : N GCP = (n + 1)(n + 2) 2 (7.9) dove n è il grado del polinomio utilizzato. 7.2.2 La geocodifica La sezione precedente ha mostrato come sia possibile correlare tra di loro dei sistemi di coordinate bidimensionali, come quelli di un’immagine e di una mappa geografica. L’approccio di georeferenziazione è utile in molti casi; tuttavia, vi sono un certo numero di situazioni in cui è preferibile adottare l’approccio della geocodifica, nel quale la griglia dell’immagine viene anche trasformata. La geocodifica diventa necessaria quando si vogliono combinare più immagini in un’immagine unica, o quando le immagini che contengono i dati sono usate in un sistema GIS, che richiede che tutti i dati vengano immagazzinati nello stesso sistema di coordinate. La geocodifica è un processo di georeferenziazione con successivo ricampionamento dell’immagine raster. Questo significa che una nuova immagine raster viene definita lungo gli assi x,y della mappa di proiezione selezionata. In pratica la geocodifica consiste nell’assegnare delle coordinate mappa al dato immagine in modo che quest’ultimo sia sovrapponibile con carte topografiche e tematiche. Il processo di geocodifica comprende due passi principali: - Ogni nuovo elemento dell’immagine raster viene proiettato (usando i parametri di trasformazione) sull’immagine originale; - Viene determinato e successivamente immagazzinato un valore di DN per il nuovo pixel. Per ottenere la geocodifica si effettuano le operazioni di rettifica e di campionamento. La rettifica consente di trasformare la griglia (righe e colonne) di un dato origine in un nuovo reticolo mediante l’uso di polinomi. Si effettua individuando una serie di punti di controllo (GCP) ricavabili da una cartografia accurata (Map to Image Geocoding) o da un’immagine di riferimento, già precedentemente geocodificata (Image to Image Geocoding). Nel processo di correzione i punti di controllo sono definiti come coordinate geografiche (U.T.M) e come punti di coordinate dell’immagine (pixel) espressi in righe e colonne. Associando, quindi, un punto cartografico ad un 183 punto immagine è possibile ricavare i coefficienti utilizzati per la trasformazione polinomiale propria della rettifica. Applicando tale trasformazione al dato di origine si ottiene un prodotto geometricamente corretto e definito in termini di coordinate cartografiche. I polinomi utilizzati possono essere di vario ordine a seconda della qualità della correzione di sistema che ha subito il dato grezzo. L’ortorettifica è una correzione di precisione che tiene conto delle distorsioni dovute al rilievo (è necessario l’utilizzo di DEM). La distorsione dovuta al rilievo al margine della scena per immagini LandSat è di circa 10 m per ogni 100 m di altitudine al di sopra dell’elevazione media della scena e di 4 m per le immagini SPOT a ripresa nadirale. Dato che l’orientazione e la dimensione delle immagini raster originale (di ingresso) e richiesta (di uscita) sono diverse, non c’è una relazione esclusiva di corrispondenza uno-a-uno tra gli elementi (pixel) delle immagini. Di conseguenza, è necessario utilizzare dei metodi di interpolazione per prendere una decisione riguardo il nuovo valore di ogni pixel. Esistono diversi metodi di ricampionamento, tra i quali i più comuni sono: - Il vicino più prossimo o nearest neighbour; il valore di radianza del pixel nella griglia di output coincide con il valore di radianza del pixel della griglia di input ad esso più vicino. Questo metodo, sebbene mantenga inalterati i valori di radianza dei pixel dell’immagine originaria, fornisce una scarsa accuratezza geometrica; - L’interpolazione bilineare o bilinear interpolation: in esso il valore di radianza del pixel della griglia di output viene ricavato tramite interpolazione dei valori di radianza dei quattro pixel della griglia di input più vicini ad esso; - La convoluzione cubica o cubic convolution: il valore di radianza del pixel della griglia di output viene ricavato tramite interpolazione dei valori di radianza dei 16 pixel della griglia di input che si trovano nel suo intorno; questo metodo causa una forte trasformazione dei valori di radianza dell’immagine, agendo come un filtro passa basso. La scelta del tipo di algoritmo di ricampionamento dipende, tra altre cose, dal rapporto tra la dimensione dei pixel di input e di output e dallo scopo del ricampionamento stesso. Fig. 7.3 – Principio di ricampionamento: vicino più prossimo (in alto) e interpolazione bilineare (in basso) 184 Fig. 7.4 – Un’immagine radar originale (in alto), georeferenziata (al centro) e geocodificata (in basso) 185 7.3 Le correzioni radiometriche Servono a calibrare i sensori, eliminare gli errori dovuti al loro cattivo funzionamento e ridurre l’influenza dello strato di atmosfera interposto tra sensore e terra. Possono essere divise in: - Calibrazione radiometrica Equalizzazione del sensore Ripristino di linee e pixel saltati Correzione atmosferica 7.3.1 La calibrazione radiometrica Serve a trasformare il valore del DN in una grandezza fisica assoluta che molto spesso è la radianza. Lλ[Wm-2sr-1mm-1] guadagno rumore 0 255 La funzione lineare utilizzata è del tipo: Lλ = rumoreλ + DN λ × guadagnoλ (7.10) 7.3.2 L’equalizzazione del sensore Nei sistemi a scansione ottico - meccanica, ad ogni oscillazione dello specchio il singolo rivelatore registra una linea di pixel. Per varie cause, può accadere che le funzioni di trasferimento dei dati dal sensore al registratore non siano identiche per tutti i rivelatori. Questo comporta un effetto di striatura regolare nell'immagine (striping), visibile soprattutto sulle superfici omogenee quali ad esempio la neve e l’acqua. Tale effetto può essere ridotto mediante l'uso di dati di calibrazione di bordo o attraverso tecniche statistiche, come quella riassunta nella formula seguente, che fornisce il nuovo valore del DN in funzione del vecchio ritenuto alterato: DN ( c ) = DN ( c ) S S + M − Mi Si Si (7.11) dove M i e S i sono la media e la deviazione standard relative alle righe del rivelatore, mentre M ed S sono la media e la deviazione standard di tutta l’immagine. 186 Fig. 7.5 – Effetto di striatura regolare dell’immagine (striping) 7.3.3 Linee e pixel saltati Può accadere che durante la scansione di una scena da satellite, per cadute di tensione o per perdite del segnale, si presentino degli errori sulle immagini, costituiti di solito da delle righe nere o uniformemente grigie (Drop Line) o da pixel con valori anomali. Fig. 7.6 – Linee di pixel saltati in un’immagine Per la correzione di questi disturbi si usano tecniche abbastanza semplici: - nel caso di un pixel saltato, il suo valore viene sostituito con la media di quelli vicini, prendendo in esame finestre di 3×3 o 5×5 - quando invece l'errore riguarda un'intera linea, essa si sostituisce con i valori della linea precedente o di quella successiva oppure con la media di queste; i valori risultanti sono ovviamente artefatti ma vengono inclusi nei dati originali senza che questi ultimi ne vengano compromessi. 187 Esistono anche metodi più complessi che si basano sulla correlazione tra i valori del pixel in altre bande eventualmente disponibili. 7.3.4 La correzione atmosferica Fig. 7.7 – Definizione di radianza, radianza di ritorno, irradianza e irradianza alla superficie I gas atmosferici, gli aerosol ed i vapori contribuiscono ad assorbire, diffondere e rifrangere la radiazione solare diretta e riflessa dalla superficie terrestre, inteferendo con la corretta stima delle caratteristiche dell’onda che porta informazione sull’oggetto osservato. È dunque opportuno cercare di risalire alle caratteristiche originali dell’onda depurando il DN ricevuto dagli effetti di tale interferenza; questa procedura si chiama correzione atmosferica. I metodi di correzione atmosferica delle immagini si dividono in due grossi gruppi a seconda che si disponga o meno di dati sulle condizioni atmosferiche al tempo di acquisizione dell’immagine. Brevemente si tratta di risolvere la seguente equazione che consente di ricavare la riflettanza spettrale della superficie terrestre a livello del suolo: π L sλ d 2 ρs = E gλ cos(θ s ) (7.12) dove: Lsλ è la radianza a livello della superficie; E gλ è l’irradianza solare a livello della superficie; ϑs è l’angolo zenitale del Sole; d è la distanza Terra-Sole in unità astronomiche. - Si risale alla radianza Lsλ e all’irradianza Egl a livello della superficie modellando il trasporto della radiazione solare attraverso l’atmosfera. - I parametri significativi sono la trasmittanza (trasparenza) e la radianza dell’atmosfera. - Entrambi questi parametri danno contributi parassiti alla radianza al sensore, il primo negativo ed il secondo positivo; tali contributi vanno compensati. 188 Fig. 7.8 – Trasporto della radiazione solare attraverso l’atmosfera Per fare questo tipo di correzioni si possono seguire diverse procedure, in funzione della disponibilità di dati sulle caratteristiche dell’atmosfera all’epoca di acquisizione dell’immagine. Le metodologie più accurate sono quelle che ricorrono a modelli estesi all’intera colonna atmosferica che, per essere calibrati, necessitano di alcuni dati sulle condizioni atmosferiche (temperatura dell’aria, umidità, visibilità, ecc.). Tra questi modelli, i più conosciuti sono i codici 6S, Lowtran e Modtran, che forniscono valori accurati della trasmittanza e della radianza atmosferica per calcolare Lsλ ed Egλ. Metodi meno accurati, ma comunque molto usati poiché non necessitano di alcuna misura sui parametri atmosferici, sono quelli che derivano informazioni sulle caratteristiche ottiche dell’atmosfera a partire dall’immagine medesima. Pixel nero (Dark Pixel) Tra i metodi che non richiedono misure atmosferiche, il più conosciuto è senz’altro quello denominato “dark pixel” (pixel nero). Questo pixel si trova in corrispondenza di un oggetto che, per sua natura, è molto poco riflettente, per cui si ipotizza che la radianza registrata dal sensore in corrispondenza di questo pixel sia relativa alla sola atmosfera. A partire da questo dato esistono diversi metodi che permettono di determinare la trasmittanza e la radianza dell’atmosfera: il più semplice assume la trasmittanza uguale ad uno e la radianza dell’atmosfera uguale alla radianza del dark pixel. I “dark pixel” comunemente usati per queste correzioni sono le acque oligotrofiche (bassa riflettività nel visibile) e le foreste di conifere (bassa riflettività nelle bande del blu e rosso). Problemi del pixel nero - Non tiene conto della variazione spaziale dell’atmosfera. - I pixel veramente “neri” sono molto rari, e quelli neri su tutte le bande ancor di più. - Quando non si hanno pixel neri soddisfacenti, si ricorre ad altre tecniche che non richiedono la conoscenza dei parametri atmosferici bensì solo alcune assunzioni. Fig. 7.9 – La correzione atmosferica 189 - Se la diffusione atmosferica e l’illuminazione sono spazialmente variabili, ma diversi da banda a banda solo per un fattore moltiplicativo, allora M 2 ( x, y ) = cM 1 ( x, y ) (7.13) A2 ( x, y ) = cA1 ( x, y ) (7.14) A questo punto, dividendo (pixel per pixel) una banda per l’altra si ottiene una nuova immagine I 3 ( x, y ) = I 1 ( x, y ) M 1 ( x, y ) F1 ( x, y ) + A1 ( x, y ) M 1 ( x, y ) F1 ( x, y ) + A1 ( x, y ) = = I 2 ( x, y ) M 2 ( x, y ) F2 ( x, y ) + A2 ( x, y ) cM 1 ( x, y ) F2 ( x, y ) + cA1 ( x, y ) (7.15) Se la radianza atmosferica si può assumere nulla, allora A1 ( x, y ) = A2 ( x, y ) = 0 (7.16) e, di conseguenza, si ottiene I 3 ( x, y ) = I 1 ( x, y ) F ( x, y ) = 1 I 2 ( x, y ) cF2 ( x, y ) (7.17) La nuova immagine sarà insensibile alle variazioni sia di illuminazione sia di condizioni dell’atmosfera (naturalmente nella misura in cui sono valide le assunzioni di partenza). 190 CAPITOLO 8 MIGLIORAMENTO E VISUALIZZAZIONE DELLE IMMAGINI 8.1 Introduzione Le tecniche di elaborazione delle immagini telerilevate possono essere classificate secondo le seguenti diverse finalità: Miglioramento delle immagini. Sono le elaborazioni che hanno lo scopo di migliorare l’interpretabilità visiva delle immagini, ad esempio variando il contrasto o la forma degli istogrammi, variando la codifica in colori dei dati, evidenziando i contorni tra oggetti diversi o diminuendo la variabilità in aree omogenee. Ricostruzione delle immagini. Sono le elaborazioni che hanno lo scopo di eliminare gli errori e gli artefatti provocati dal sistema di ripresa ricostruendo la scena osservata a partire dall’immagine corretta. Ricordiamo in questa classe le tecniche di filtraggio di rumore, di miglioramento della focalizzazione, di eliminazione degli effetti del movimento del soggetto, etc. Nel caso in cui il sistema di ripresa sia lineare esso determina una convoluzione tra la sua risposta impulsiva e la scena osservata ed allora ricadono in questa classe tutte le tecniche di deconvoluzione ed i filtraggi che rimuovono il rumore di tipo aleatorio o le interferenze note dalla teoria di elaborazione numerica dei segnali ( ad esempio il filtro di Wiener ) . Interpretazione delle immagini. Sono le elaborazioni che hanno lo scopo di determinare, per ogni pixel dell’ immagine, una “etichetta” che ne descrive una qualche proprietà. Ad esempio ricadono in questa classe le tecniche di individuazione e riconoscimento delle forme e delle strutture (“pattern recognition”), di segmentazione delle immagini, ovvero assegnazione di una classe di appartenenza a tutti i pixel dell’ immagine. Se pure non ricadono propriamente nell’ambito della disciplina di “elaborazione delle immagini” nel caso di immagini telerilevate si fanno rientrare in tale ambito con una accezione più ampia anche elaborazioni finalizzate a: - Controllo di qualità. Hanno lo scopo di determinare la qualità del dato acquisito o certificare quella del prodotto telerilevato che deve essere fornito all’utente finale. Ad esempio nei sensori operanti nel visibile e nell’infrarosso servono a determinare il grado di copertura nuvolosa presente nella scena. - Correzioni geometriche. Sono le elaborazioni che hanno lo scopo di riproiettare le immagini rispetto ad un sistema di riferimento sulla superficie terrestre, compensando le distorsioni indotte dal sistema di ripresa, ed in particolare dal meccanismo di scansione. - Correzioni radiometriche. Sono le elaborazioni che hanno lo scopo di determinare, a partire dal segnale numerico quantizzato fornito dal sensore di telerilevamento, una grandezza fisica che rappresenta una proprietà radiativa dell’oggetto osservato. Ad esempio permettono di ricavare, a partire dal segnale in uscita del rilevatore, la temperatura di brillanza che incide sull’antenna di un radiometro a microonde oppure l’emissività della superficie del terreno osservata. Ancora, nel caso di un sensore elettroottico, permettono di determinare, a partire dal segnale elettrico in uscita all’elemento fotosensibile, la radianza del pixel oppure, valutando l’irradianza dovuta al sole, la sua riflettività. In genere le correzioni radiometriche includono la calibrazione interna ed esterna del sistema di misura, le correzioni degli effetti dell’atmosfera, la determinazione delle condizioni di illuminazione dell’oggetto osservato tenendo conto, nel caso più complesso, della pendenza e dell’elevazione della porzione di superficie considerata. In più di un’occasione durante il processo di telerilevamento capita di avere la necessità di visualizzare le immagini, come ad esempio quando si deve effettuare la georeferenziazione. Dal 191 momento che spesso il telerilevamento si occupa di dati multispettrali, ci occupiamo qui della visualizzazione delle immagini a colori. Una comprensione del modo in cui l’occhio umano percepisce il colore si rende necessaria a due diversi livelli del processo di telerilevamento. In primo luogo, è necessario per produrre delle ‘fotografie’ ottime a partire dalle immagini (multispettrali) dei dati telerilevati sullo schermo del computer. Dopo di che, la teoria della percezione dei colori gioca un ruolo importante nella successiva interpretazione di tali immagini. 8.2 La percezione del colore La percezione del colore avviene nell’occhio umano e nella parte ad esso associata del cervello umano. Con questo termine si intende la nostra abilità nel riconoscere e distinguere i colori, che a loro volta, ci permettono di riconoscere e distinguere le entità del mondo reale. Non è completamente noto come funzioni il meccanismo della vista umana, o cosa accada esattamente negli occhi e nel cervello prima che qualcuno decida, per esempio, che un oggetto è blu. Alcuni modelli teorici, supportati da risultati scientifici, comunque, sono generalmente accettati. 8.2.1 Modello tri-stimolo La sensibilità generale dell’occhio è a lunghezze d’onda tra 400 e i 700 nm. Lunghezze d’onda diverse all’interno di questo intervallo vengono percepite come diversi colori. La retina nei nostri occhi ha coni (recettori sensibili alla luce) che mandano segnali al cervello quando vengono colpiti da fotoni che corrispondono a diverse lunghezze d’onda nell’intervallo del visibile dello spettro elettromagnetico. Ci sono tre diversi tipi di coni, che corrispondono alle lunghezze d’onda del blu, del verde e del rosso rispettivamente. I segnali mandati dal nostro cervello da questi coni e le differenze tra essi, ci danno le sensazioni del colore. Oltre ai coni abbiamo i bastoncelli, che non contribuiscono alla visualizzazione del colore e possono operare con meno luce rispetto ai coni. Per questa ragione, gli oggetti appaiono meno colorati in condizioni di poca luce. Gli schermi delle televisioni a colori e i monitor dei computer sono composti da un grande numero di piccoli punti organizzati in una configurazione regolare di tre elementi: un puntino rosso, uno verde e uno blu. Ad una distanza normale dallo schermo non siamo in grado di distinguere i puntini. I cannoni elettronici per il rosso, il verde e il blu sono posizionati nella parte finale del tubo. Il numero di elettroni eccitati dai cannoni ad una certa distanza determinano la quantità di luce (rossa, verde, blu) emessa da quella posizione. Tutti i colori visibili su tale schermo sono creati dalla combinazione di diverse quantità di rosso, verde e blu. Questa combinazione avviene nel nostro cervello. Quando vediamo luce gialla monocromatica (cioè con una lunghezza d’onda ben precisa, per esempio, 570 nm), noi riceviamo la stessa impressione che abbiamo quando vediamo una combinazione di rosso (700 nm) e verde (530 nm). In entrambi i casi, i coni vengono stimolati nello stesso modo. In base a questo modello, sono necessari e sufficienti tre diversi tipi di punti. Fig. 8.1 – Intervallo visibile dello spettro elettromegnetico che include le curve di sensibilità dei coni e dei bastoncelli dell’occhio umano 192 8.2.1.1 Lo spazio dei colori Il modello di percezione dei colori sopra riportato è generalmente accettato. Questo significa che ci sono tre gradi di libertà nella descrizione di un colore. Per descrivere e definire i colori vengono usati vari spazi tridimensionali tra i quali ricordiamo i seguenti: - Spazio “Red Green Blue” (RGB) basato sul principio additivo dei colori; - Spazio “Intensity Hue Saturation” (HSI), cioè di saturazione dell’intensità del colore, che è quello più vicino alla nostra percezione intuitiva del colore; - Spazio Yellow Magenta Cyan (YMC) basato sul principio sottrattivo del colore. 8.2.1.2 RGB La definizione RGB dei colori ha attinenza diretta con il modo di funzionamento dei monitor di computer e televisioni. In ingresso al monitor ci sono tre canali (RGB) direttamente correlati ai punti rossi, verdi e blu. Quando guardiamo al risultato, il nostro cervello combina gli stimoli che gli giungono dai punti rossi, verdi e blu e ci permette di percepire tutti i colori possibili nella zona dello spettro del visibile. Durante questa combinazione, i colori vengono sommati. Quando i punti verdi sono illuminati in aggiunta a quelli rossi, vediamo il giallo. Questo principio è noto come schema additivo dei colori. La Fig. 8.2 (a) mostra i colori additivi provocati dall’insieme della luce dal rosso, dal verde e dal blu che emettono su un muro bianco in una stanza buia. Quando ci sono solo le luci rosse e verdi, il risultato è il giallo. Nell’area centrale, dove vi sono quantità uguali delle tre illuminazioni, noi percepiamo il bianco. Fig. 8.2 – Confronto tra lo schema additivo (a) e sottrattivo (b) dei colori Nello schema additivo, tutti i colori visibili possono essere espressi come combinazioni di rosso, verde e blu, e possono quindi essere rappresentati in uno spazio tridimensionale con R, G, B lungo gli assi. Lo spazio è limitato dai valori massimo e minimo (delle intensità) per il rosso, il verde e il blu; in questo modo si definisce il cubo dei colori, come si può vedere nella Fig. 8.3. Fig. 8.3 – Il cubo RGB; si noti che i colori rosso, verde e blu si trovano sugli assi 193 Nella legge additiva,si ha che: - B+G+R=Bianco; B+G=Ciano; B+R=Magenta; G+R=Giallo Nella legge sottrattiva, invece, si ha che: - White -B=Giallo; White -G=Magenta; White -R=Ciano; White -G-B-R= Nero. 8.2.2 IHS Nel linguaggio quotidiano noi non esprimiamo i colori per mezzo del sistema RGB. Il sistema HSI, che si riferisce all’intensità, al colore e alla saturazione, riflette più naturalmente le nostre effettive sensazioni riguardo al colore. L’intensità descrive in che misura un colore è luminoso o scuro. La tinta (Hue) si riferisce al nome che diamo al colore (rosso, verde, blu, giallo, arancione, eccetera). La saturazione descrive un colore in termini di opacità o vivacità. I colori pastello hanno bassa saturazione, e il grigio ha saturazione zero. Come nel modello RGB, anche qui sono sufficienti tre gradi di libertà per descrivere il modello. La Fig. 8.4 illustra la corrispondenza tra i sistemi RGB e IHS; benchè il modello matematico sia complicato, la descrizione è di fatto più naturale. Per esempio, “luce rosso chiaro” è più facile da immaginare di “tanto rosso con delle quantità considerevoli di verde e blu”. Il risultato è comunque lo stesso. Dato che il modello IHS ha a che fare con la percezione del colore, che è in qualche modo soggettiva, non esiste un accordo totale tra le definizioni. Viene definita intensità la somma dei valori R, G e B. Sulla diagonale principale del cubo dei colori (R = G = B), andando dal bianco al nero, dove troviamo tutte le tonalità di grigio, la saturazione è pari a 0. Ai lati rosso-verde, verdeblu, e blu-rosso del cubo (questi sono i lati che contengono l’origine) la saturazione è massima (100%). Se consideriamo i colori come miscele (additive) di un colore (saturato) e di grigio, la saturazione è la percentuale del colore nella miscela. Per esempio, (R, G, B) = (100, 40, 40) è una mescolanza del colore saturato (60,0,0,) e del tono di grigio (40, 40, 40). Di conseguenza, la saturazione è 60/100 = 60%. Per definire la tinta di un colore, guardiamo nel piano, perpendicolare alla diagonale principale, che contiene il colore. In quel piano, possiamo ruotare di 360°, rispettivamente guardando verso il rosso, il giallo, il verde, il cyan,il blu, il magenta e tornando quindi al rosso. L’angolo a cui si trova il nostro colore è la tonalità. Fig. 8.4 – Relazione tra gli spazi di colori RGB e IHS 194 8.3 La visualizzazione delle immagini In questa sezione introduciamo alcuni metodi per visualizzare immagini a singola banda o multibanda. Cominciamo però fornendo una descrizione del concetto di istogramma, che ha un ruolo cruciale nella realizzazione del contrasto ottimo delle immagini. 8.3.1 L’istogramma L’istogramma di un’immagine fornisce un numero elevato di caratteristiche importanti di un’immagine a singola banda, come un’immagine satellitare pancromatica, o una singola banda di un’immagine multispettrale. L’istogramma descrive la distribuzione del valore dei pixel (Digital Numbers, DN) dell’immagine considerata. Indicando con Q il numero di bit utilizzati per rappresentare ciascun pixel dell’immagine, il numero di valori che può assumere ciascun pixel è 2Q. Nel caso più comune, l’intervallo di variazione per il valore dei pixel va da 0 a 255. L’istogramma indica il numero di pixel per ogni valore compreso in questo intervallo. In altre parole, l’istogramma contiene le frequenze dei valori di DN in un’immagine. I dati di un istogramma possono essere visualizzati sia in forma di tabella sia di grafico. La rappresentazione tabulare normalmente mostra cinque colonne. Da sinistra a destra queste sono: - DN: Digital Number, nell’insieme [0,....,255] - Npix: il numero di pixel nell’immagine che hanno quel valore di DN (frequenza) - Perc: frequenza come percentuale del numero totale di pixel dell’immagine - CumNpix: numero cumulativo dei pixel dell’immagine con valori di DN minori o uguali a DN - CumPerc: frequenza cumulativa come percentuale del numero totale di pixel dell’immagine I dati dell’istogramma possono essere riassunti in alcune caratteristiche statistiche: media, deviazione standard, minimo e massimo. La deviazione standard è una misura statistica della variazione dei valori attorno alla media. Oltre alla distribuzione di frequenza, esiste la rappresentazione grafica che mostra la frequenza cumulativa. La frequenza cumulativa mostra la percentuale di pixel con DN che sono minori o al massimo uguali al valore dato. 195 Fig. 8.5 – Esempio di istogramma in formato tabulare (in alto) e riassunto delle statistiche di tale istogramma (in basso) Fig. 8.6 – Istogramma standard e istogramma cumulativo corrispondente alla tabella riportata nella figura precedente 196 Nel caso di immagini a più componenti (per es. Immagini a colori), si possono utilizzare due approcci: - Calcolare l’istogramma per ogni componente cromatica (es. R,G,B) - Calcolare un unico istogramma, considerando tutti i colori possibili (224 per immagini RGB con 8 bit per componente) oppure solamente un sottoinsieme significativo (quantizzazione vettoriale dello spazio cromatico) 8.4 Visualizzazione di immagini monobanda L’istogramma viene utilizzato per ottenere la migliore visualizzazione possibile delle immagini monobanda. Tali immagini vengono solitamente visualizzate usando una scala di grigi. Le sfumature di grigio del monitor di solito vanno dal nero (valore 0) al bianco (valore 255). Quando si applicano le sfumature di grigio, lo stesso segnale viene dato in ingresso a ciascuno dei tre canali RGB del monitor del computer. Se si utilizzano i valori originali dell’immagine per controllare i valori del monitor in genere si ottiene un’immagine con un contrasto leggero dato che vengono utilizzati solo un numero limitato di valori di grigio. Nell’esempio introdotto nella sezione precedente venivano utilizzati solo 17314=159 livelli di grigio. Per ottimizzare il numero di livelli di grigio, una funzione di trasferimento mappa i valori di DN in sfumature di grigio del monitor. La funzione di trasferimento può essere scelta in un certo numero di modi: lo stiramento per contrasto lineare viene ottenuto trovando i valori di DN dove l’istogramma cumulativo dell’immagine passa tra l’1% e il 99%. I DNs sotto l’1% diventano neri (0), mentre i DN al di sopra del 99% diventano bianchi (255), e i livelli di grigio per i valori intermedi vengono trovati per interpolazione lineare. L’equalizzazione dell’istogramma, o stiramento dell’istogramma, modella la funzione di trasferimento tenendo conto dell’istogramma cumulativo. Come risultato di questa operazione, i DNs nell’immagine vengono distribuiti più uniformemente possibile su tutti i toni di grigio. 197 Fig. 8.7 – Immagine multibanda visualizzata su un monitor usando I canali di input al monitor rosso, verde e blu Un modo alternativo per visualizzare i dati in singola banda è quello di usare una tavola di miglioramento in pseudo-colori. L’uso degli pseudo-colori è utile specialmente per visualizzare i dati che non sono misurazioni di riflettività. Con i dati dell’infrarosso termico, per esempio, l’associazione di freddo-caldo con blu-rosso è più intuitivo che con la luce scura. 8.4.1 I colori compositi Quando si ha a che fare con immagini multibanda ogni combinazione di tre bande può, in principio, essere usata come ingresso per i canali RGB del monitor. Per aumentare il contrasto, le tre bande possono essere soggette allo stiramento lineare del contrasto o all’equalizzazione dell’istogramma. Talvolta si usa fare una composizione a colori veri, quando i canali RGB si riferiscono a bande con lunghezze d’onda centrali vicine a quelle del rosso, del verde e del blu rispettivamente. Una scelta abbastanza comune è quella di collegare i canali RGB alle bande del vicino infrarosso, del rosso e del verde rispettivamente, per ottenere una composizione in falsi colori. La caratteristica più impressionante della composizione in falsi colori è che la vegetazione appare di un colore rosso purpureo. Nella parte visibile dello spettro, le piante riflettono soprattutto la luce verde (questa è la ragione per cui le piante appaiono verdi), ma la loro riflessione nell’infrarosso è anche più alta. Quindi la vegetazione in una composizione in falsi colori viene mostrata come una combinazione di vari blu ancora più che di rossi, che risultano in una più rossa tonalità di porpora. A seconda delle applicazioni, si possono usare delle combinazioni di bande diverse. Le categorie per l’uso del suolo possono essere distinte abbastanza bene assegnando una combinazione di bande TM del Landsat (5-4-3 o 4-5-3). Le combinazioni che mostrano il vicino infrarosso come verde mostrano la vegetazione di un colore verde e sono chiamate composizioni in colori pseudo-naturali. Fig. 8.8 – Imagine Landsat di Pavia e dintorni visualizzata in due modi diversi; a sinistra (Bande 4-3-2) si nota che gli edifici risultano più evidenti, a destra (Bande 4-5-2) invece si notano due coperture vegetali diverse 198 Fig. 8.9 – Composizione di un’immagine Landsat in tre diversi modi: colori naturali, pseudo naturali e falsi colori; sono possibili anche altre combinazioni 8.5 Tecniche di enfatizzazione delle immagini L’enfatizzazione o enhancement delle immagini è un insieme di tecniche che vengono utilizzate per migliorare l’aspetto delle immagini al solo scopo di facilitarne l’interpretazione visiva. Queste tecniche vengono divise in due gruppi: - Quelle che non modificano i valori dei pixel dell’immagine originale, tra cui ricordiamo la visualizzazione in pseudocolori e la composizione in falsi colori; - Quelle che agiscono sui DN, modificandone i valori e inficiandone quindi il significato radiometrico, tra cui ricordiamo lo stiramento (stretch) e i filtri. La visualizzazione in pseudocolori si applica ad una sola banda e si basa su delle modifiche nella forma delle funzioni di trasferimento relative ai tre colori primari. Fig. 8.10 – Funzioni di trasferimento relative ai tre colori primari 199 La composizione in falsi colori crea una nuova immagine dove ai tre canali RGB associa tre diverse immagini ognuna delle quali acquisita in una differente banda spettrale: Fig. 8.11 – Composizione in falsi colori Ai tre colori possono essere associate diverse bande; una delle composizioni più usate è quella con le seguenti associazioni: NIR -> rosso Rosso -> verde Verde -> blu Esiste anche una composizione detta in colori reali, dove ai tre colori sintetici vengono associate le tre bande relative alle stesse lunghezze d’onda dei colori. 8.5.1 Lo stiramento (stretch) In molte scene, i valori dei pixel occupano solo una piccola porzione dell'intervallo dei valori possibili. Se queste venissero visualizzate nella forma originale, si otterrebbero delle immagini molto poco contrastate, dove oggetti simili radiometricamente risulterebbero non distinguibili. La tecnica utilizzata per il miglioramento del contrasto consiste nell'applicazione di un algoritmo di trasformazione che permette di espandere l'intervallo dei livelli di grigio registrati nell'immagine originale, fino a coprire tutto l'intervallo dei valori possibili. 200 Fig. 8.12 – Equalizzazione dell’istogramma 201 8.5.1.1 L’enfatizzazione del contrasto lineare Un’espansione lineare coinvolge il calcolo del limite inferiore e superiore dell’istogramma (normalmente, il minimo e il massimo valore di luminosità dell’immagine) e porta a trasformare questo intervallo di valori nel pieno intervallo dei possibili valori d’immagine. Fig. 8.13 – Espansione lineare L’equazione dell’espansione lineare è: y = f ( x) = ax + b (8.1) Fig. 8.14 - L’espansione lineare dell’istogramma Tale enfatizzazione non provoca variazioni della forma dell’istogramma preservando così i valori di riflettanza originale. 202 DN ' = DN − MIN ⋅ 255 MAX − MIN (8.2) 8.5.1.2 L’enfatizzazione del contrasto logaritmica ed esponenziale Fig. 8.15 – Diagrammi dell’enfatizzazione logaritmica ed esponenziale del contrasto Si nota chiaramente dai grafici come l’enfatizzazione logaritmica sia idonea per evidenziare i bassi livelli di grigio (zone d’ombra), mentre quella esponenziale enfatizza i livelli di grigio più alti. 8.5.2 L’equalizzazione Se l’intervallo dei valori di grigio non è uniformemente distribuito, si può usare un’equalizzazione. Equalizzare l’istogramma significa cercare una trasformazione tale da rendere la distribuzione del nuovo istogramma il più possibile vicina ad una distribuzione uniforme. Si assegna un intervallo di più valori alle porzioni dell’istogramma che si presentano con maggior frequenza in ingresso, riducendone perciò la frequenza in uscita. In questo modo, il dettaglio in queste aree sarà reso più visibile rispetto a quelle aree dell’istogramma originale i cui valori ricorrono meno frequentemente. Il risultato dell’equalizzazione è ben diverso da quello dell’espansione lineare. Alcune cose si vedono meglio, ma altre sono meno chiare. In pratica con tale intervento si tende a normalizzare l’istogramma dell’immagine o della porzione dell’immagine sulla quale si intende operare; il risultato ultimo è un’immagine con istogramma quasi uniforme in cui si ha una densità di pixel quasi uniforme lungo l’asse dei DN (cioè lungo l’asse delle ascisse). Se quindi l’immagine contiene N pixel e i valori di luminosità sono pari ad L, l’equalizzazione tende ad assegnare N/L pixel a ciascun livello di grigio. Indicando con h(y) l’altezza di una barra dell’istogramma dell’immagine finale in funzione del DN ad essa riferito, si ha che la variazione di tali altezze lungo l’asse dei DN (ascisse) è, nel caso di un’equalizzazione : ho ( y )dy = N L ma dy = L −1 L (8.3) (8.4) di conseguenza: N (8.5) L −1 Poichè il numero di pixel nell’intervallo da y a y+dy dell’immagine di output è uguale a quello nel range da x a x + dx, è lecito scrivere: ho ( y ) = ho ( y ) = hi ( x)dx 203 (8.6) Segue L −1 hi ( x)dx N ∫ che rappresenta l’algoritmo utilizzato durante l’equalizzazione. y = f ( x) = (8.7) Fig. 8.16 – Equalizzazione dell’istogramma Sostanzialmente, da un dato valore x1 (livello di grigio di input) nelle ascisse del diagramma cumulativo si legge il corrispondente y nelle ordinate per poi moltiplicarlo per il fattore di scala; il risultato è il valore di grigio yo nell’immagine di output. Poichè il risultato di tale operazione spesso non porta a numeri interi, si assegna la barra dell’istogramma relativa al valore x1 di input al DN intero più prossimo al risultato yo, e ciò comporta una non perfetta normalizzazione del grafico originario. Una maggiore normalizzazione si ha assegnando un L minore rispetto ai livelli di grigio del dato di input. L’equalizzazione non provoca perdita di informazione perché non si ha il taglio dell’istogramma iniziale come nel caso del contrast stretch; essa determina, invece, una dispersione dei valori di picco dell’istogramma originario in un range più ampio. Non è possibile utilizzarla su distribuzioni bimodali con un picco marginale molto accentuato (ad esempio immagine nell’infrarosso NIR e SWIR comprendente un’ampia porzione di mare). 8.5.3 Histogram Matching Con questa operazione si cerca di rendere un’immagine radiometricamente simile ad un’altra. Il processo consiste nel normalizzare l’istogramma iniziale e trasformarlo successivamente nell’istogramma finale di forma desiderata, secondo l’espressione: y = g −1 ( f ( x) ) (8.8) dove f(x) è la funzione di normalizzazione dell’istogramma di input e g-1 è l’inverso della funzione di normalizzazione dell’istogramma che si vuole ottenere. Il fattore di scala tipico dell’equalizzazione viene ad elidersi qualora i grafici di input e di output presentino lo stesso numero di pixel: in caso contrario esso diventa N2/N1 dove N2 è il numero di pixel dell’immagine iniziale e N1 è il numero di pixel dell’immagine finale. 204 Fig. 8.17 – Le fasi dell’Histogram Matching I passi necessari per effettuare l’Histogram Matching sono: a. Viene creato il diagramma cumulativo di entrambe le immagini; b. Si estrae dal diagramma cumulativo dell’immagine iniziale il valore delle ordinate relativo ad un dato DN; c. Questo valore viene letto nelle ordinate del diagramma cumulativo dell’immagine di riferimento e si ricava il corrispondente DN’ dell’immagine finale. Nel caso di immagini con numero di pixel differente si deve moltiplicare il valore ricavato in b per N2/N1 prima di passare alla fase c. 8.5.4 Operazioni coi filtri Sono operatori di convoluzione che agiscono su finestre (di solito 3×3 o 5×5) centrate su ogni pixel dell’immagine. In un’operazione di convoluzione, il valore di ogni pixel viene sostituito con il risultato di una o più operazioni aritmetiche, eseguite sull’elemento stesso e su quelli del suo intorno. Le operazioni di filtraggio sono trasformazioni locali dell’immagine: una nuova immagine viene calcolata e il valore dei pixel dipende dai valori dei suoi vicini più prossimi. Le operazioni di filtraggio vengono di solito effettuate su una banda singola. I filtri vengono usati per il miglioramento spaziale delle immagini, per esempio per ridurre il rumore o per rendere nitide le immagini confuse. Fig. 8.18 – Ingresso e uscita di un’operazione di filtraggio: l’intorno di un pixel dell’immagine determina il valore di uscita Per definire un filtro viene utilizzato un kernel. Il kernel definisce i valori dei pixel di uscita come una combinazione lineare dei valori dei pixel in un intorno della posizione corrispondente nell’immagine di ingresso. Per un kernel specifico, il guadagno può essere calcolato come segue: guadagno = 205 1 ∑ ki (8.9) il guadagno è ottenuto come somma di tutti i coefficienti di kernel (ki); in generale la somma di tali coefficienti, dopo la moltiplicazione per il guadagno, dovrebbe essere pari a 1 per dare luogo ad un’immagine con approssimativamente lo stesso intervallo di valori di grigio. L’effetto provocato dall’uso del kernel è mostrato in Fig. 8.18, che mostra come il valore di uscita sia calcolato in termini di filtraggio medio. Negli esempi riportati qui di seguito viene utilizzato un kernel 3×3, anche se in realtà possono essere utilizzati kernel di altre dimensioni. 8.5.4.1 I filtri passa basso Hanno come effetto la riduzione del contrasto, attenuando le variazioni di valore tra pixel contigui. Ne esistono vari tipi ma il più comune è il filtro a media viaggiante, che sostituisce il valore di ogni pixel con la media aritmetica di quelli contenuti nella finestra: 1/9 1/9 1/9 1/9 1/9 1/9 1/9 1/9 1/9 Fig. 8.19 – Kernel di un filtro passa basso Questo tipo di filtro si chiama cosi perché dato che ogni segnale si può pensare come la sovrapposizione di tante componenti, da quelle variabili lentissimamente a quelle che variano rapidissimamente, un blocco (il filtro) che cancella le componenti rapide (mantenendo invece quelle lente) può essere pensato come un oggetto che fa “passare” solo le componenti con una bassa variabilità. Il filtro passabasso è fatto per enfatizzare le aree grandi ed omogenee nell’immagine e ridurre i dettagli più fini. Perciò, questo filtro normalmente serve a smussare l’aspetto di una immagine. 8.5.4.2 Il filtro passa alto Al contrario del precedente, esalta le zone dove i valori subiscono bruschi cambiamenti. Anche per questa famiglia di filtri esistono vari tipi; uno di questi applica una finestra come la seguente: -1/9 -1/9 -1/9 -1/9 8/9 -1/9 -1/9 -1/9 -1/9 Fig. 8.20 – Kernel di un filtro passa alto Un filtro passa alto lavora al contrario rispetto ad un filtro passa basso, permettendo solo alle componenti ad alta variabilità di mantenersi. In questo modo, il filtro esalta le variazioni, i cambiamenti, i contorni tra le diverse aree (che normalmente corrispondono a toni di grigio, cioè valori, differenti). 8.5.4.3 Filtro direzionale Si può pensare di produrre risultati in cui si rendono evidenti solo i dettagli fini relativi a cambiamenti in una ben determinata direzione -1 +2 -1 -1 +2 -1 -1 +2 -1 Fig. 8.21 – Kernel di un filtro direzionale Va detto che ci sono infinite direzioni ed infinite possibilità. Le combinazioni possono portare a filtri per la definizione dei dettagli verticali ed orizzontali insieme, il che normalmente porta ad una maggiore visibilità dei contorni (utile, ad es., in ambito geologico). 206 8.5.5 Riduzione del rumore Consideriamo il kernel mostrato sotto in cui tutti i coefficienti sono pari ad 1. Questo significa che i valori dei nove pixel nell’intorno vengono sommati; successivamente, il risultato viene diviso per 9 per ottenere che i valori complessivi dei pixel nell’immagine di uscita siano nello stesso intervallo di quelli dell’immagine di ingresso. 1 1 1 1 1 1 1 1 1 Fig. 8.22 – Kernel di un filtro per la riduzione del rumore Ricordando che guadagno = 1 , si vede che per il filtro riportato sopra si ha un guadagno pari a ∑ ki 1 9 = 0,11 . L’effetto prodotto applicando questo filtro di media è che l’immagine diventa più confusa o liscia. Quando si ha a che fare con gli effetti del rumore speckle delle immagini radar il risultato che si ottiene applicando questo filtro è quello di ridurre lo speckle. Nel kernel riportato sopra, tutti i pixel hanno uguale contributo nel calcolo del risultato. È anche possibile definire una media pesata; per enfatizzare il valore del pixel centrale, si può mettere un valore maggiore nel centro del kernel. Come risultato, si ha che avviene un offuscamento meno drastico. In più, è necessario tenere in considerazione che i vicini orizzontali e verticali influenzano il risultato in maniera più forte rispetto a quelli diagonali. Il kernel risultante, per cui il guadagno è 1/16=0,0625 è mostrato sotto: 1 2 1 2 4 2 1 2 1 Fig. 8.23 – Kernel di un filtro che tiene maggiormente conto (tra i pixel dell’intorno del pixel considerato) dei pixel orizzontali e verticali piuttosto che di quelli diagonali; questo tipo di appianamento è detto pesato 8.5.6 Miglioramento dei bordi Un’altra applicazione del filtraggio è l’enfatizzazione delle differenze locali nei valori di grigio, per esempio legati alle caratteristiche lineari come strade, canali, faglie geologiche, eccetera. Questo viene fatto usando un filtro di enfatizzazione dei bordi, che calcola la differenza tra il pixel centrale e i suoi vicini; ciò viene realizzato usando dei valori negativi per i coefficienti non centrali del kernel. -1 -1 -1 -1 16 -1 -1 -1 -1 Fig. 8.24 – Filtro per l’enfatizzazione dei contorni Il guadagno è calcolato come segue: 1/(16-8)=1/8=0,125 L’effetto di miglioramento dei bordi può essere reso più intenso usando valori più piccoli per il pixel centrale (con un minimo di 9). In Fig. 8.25 viene riportato un esempio degli effetti che si ottengono. 207 Fig. 8.25 – Immagine originale (al centro), immagine migliorata (a sinistra) e smussata (a destra) 8.6 Le tessiture Per un’immagine telerilevata, si possono definire tre tipi di caratteristiche: - Le caratteristiche spettrali, che danno informazioni sulla quantità di onda elettromagnetica irradiata o riflessa alle diverse frequenze; - Le caratteristiche tessiturali, che portano informazioni sulla distribuzione spaziale delle variazioni di tono entro una banda; - Le caratteristiche contestuali, che tengono conto delle relazioni che esistono in un’immagine (ad esempio, una piazza contiene almeno una strada). Similmente, per l’analisi di immagini telerilevate si ricorre a metodi di classificazione, cioè a delle procedure che associano ogni singolo punto dell’immagine a una delle “classi tematiche” (edifici, vegetazione, zone coperte d’acqua) che sono presenti nell’ambiente studiato. Anche in questo caso sono possibili diversi metodi, tra cui quello spettrale e quello spaziale. L’analisi spettrale si basa unicamente sull’informazione portata dal singolo pixel e sul fatto che zone di diversa struttura fisica e/o materiale riflettono la radiazione elettromagnetica proveniente dal sensore in modo diverso. Un’area urbana è solitamente molto complessa dal punto di vista della sua composizione, ragion per cui l’analisi spettrale fornisce in genere dei risultati poco soddisfacenti. Un metodo che permette di ottenere risultati ben più accurati è la classificazione spaziale, che classifica ogni pixel tenendo conto del suo intorno, cioè sfruttando la correlazione spaziale dell’immagine. Nel telerilevamento la tessitura costituisce una delle più importanti caratteristiche nel riconoscimento di oggetti o regioni in quanto contiene informazioni importantissime sulla disposizione strutturale delle superfici e sulla loro relazione con l’ambiente circostante. La tessitura è una proprietà intrinseca delle superfici, e può essere fine, grezza, increspata, liscia, irregolare, distesa o rigata. Nell’estrarre tali caratteristiche si deve tenere presente che l’informazione sulla tessitura in un’immagine è contenuta nella relazione spaziale che i pixel hanno con i vicini in un intorno più o meno esteso denominato finestra. Le tessiture vengono estratte a partire dal calcolo della matrice delle co-occorrenze. 8.6.1 La matrice delle co-occorrenze Ogni immagine può essere pensata come una matrice i cui elementi sono i pixel dell’immagine stessa. Ciascun pixel può assumere uno tra gli N valori di tono di grigio possibili, dove N = 2 n , e n è il numero di bit di quantizzazione. Per esempio nel caso di immagini bitmap n=8, quindi ciascun elemento della matrice assume un valore compreso tra 0 e 255. 208 Valore del tono di grigio assunto dal pixel 17 200 22 …………….. 12 34 67 65 …………….. 3 8 12 43 …………….. 255 . . . . . . . . . . . . . . . . . . . . . . . . . . . ……………… ……………… ……………… . . . . . . . . . 3 90 86 ……………… 7 Fig. 8.26 - Valori dei toni di grigio dei pixel di un’immagine N x N La matrice delle co-occorrenze ha dimensioni N × N ed è costituita da 2 n × 2 n numeri compresi tra 0 ed 1. Infatti è una matrice normalizzata ed i suoi valori rispecchiano la periodicità relativa con cui un pixel di valore x e un altro di valore y, legati da una certa relazione spaziale tramite il vettore di scostamento spaziale, sono presenti in un sottospazio dell’immagine detto finestra scorrevole. Per la costruzione della matrice delle co-occorrenze bisogna fissare tre parametri importanti: - il numero dei livelli di grigio - la dimensione della finestra scorrevole di osservazione - il vettore di scostamento spaziale Tali parametri devono essere dimensionati in funzione della risoluzione spaziale e spettrale dell’immagine, e delle caratteristiche spaziali, quali dimensione e forma delle varie classi da riconoscere. Esistono tre tipi di matrice delle co-occorrenze: orizzontale, verticale e diagonale. La distinzione dipende dalla direzione secondo la quale vengono confrontati i pixel all’interno della finestra. Una volta definita la matrice delle co-occorrenze (P[i,j]), i suoi elementi vengono posti inizialmente uguali a zero e successivamente incrementati di una unità tutte le volte che la coppia di pixel ( x, y ) è presente in un intorno (finestra) di qualsiasi pixel che si sta considerando. Per ogni pixel dell’immagine originale si costruisce cioè una finestra attorno ad esso e si eseguono tutti i confronti possibili con i pixel all’interno della finestra stessa secondo la direzione prestabilita (vettore di scostamento orizzontale, verticale o diagonale). Si consideri per esempio un’immagine di dimensioni 4 × 4, in cui ogni elemento rappresenta un pixel ed il suo valore indica il tono di grigio, ed una finestra scorrevole 3 × 3 attorno al pixel di posizione (3,3) di valore 23. Nel caso di vettore di scostamento orizzontale di valore unitario orizzontale, il primo confronto sarà tra il pixel (2,2) di valore 23 e il pixel (2,3) di valore 36. Si andrà perciò a considerare il pixel che occupa la posizione (23,36) nella matrice delle co-occorrenze e lo si incrementerà di una unità. Si procede poi analizzando la successiva coppia di punti, ovvero il pixel (2,3) di valore 36 e il pixel (2,4) di valore 7 e andando ad incrementare il pixel (36,7) della matrice delle co-occorrenze. 209 Fig. 8.27 - Finestra 3 × 3 in una matrice di dimensioni 4 × 4 Considerando inoltre le coppie a ritroso, si incrementano anche i pixel (36,23) e (7,36) della matrice che si vuole costruire. Passando poi alla seconda riga della finestra si vanno ad incrementare gli elementi P[23,143], P[143,23], P[164,23], P[23,164]. Si considera infine la terza riga e si incrementano gli elementi corrispondenti di P[i,j]. La matrice delle co-occorrenze dunque non è altro che una misurazione statistica delle occorrenze delle varie coppie di pixel; essa indica, in pratica, quante volte si presenta una certa coppia di pixel adiacenti in un intorno del pixel considerato la cui dimensione viene determinata dalla finestra scelta. Per ogni pixel dell’immagine di partenza, il risultato dei confronti coi pixel adiacenti nell’ambito della finestra scelta è dato da una matrice di dimensione 256×256 in cui i pixel con valori diversi da zero sono solo quelli corrispondenti alle posizioni relative alle coppie di pixel che si sono presentate nell’intorno considerato; per esempio, riferendoci al calcolo delle co-occorrenze nell’intorno del pixel di valore 23 potremo dire che i pixel diversi da zero della matrice corrispondente saranno quelli che si trovano in posizione (23,36), (36,7), (143,23), (23,164), (146,12), (12,11); dato che queste coppie di pixel si presentano ciascuna una sola volta, i pixel corrispondenti nella relativa matrice delle cooccorrenze avranno valore 1, e dopo la normalizzazione 1/12, dato che 12 sono i confronti effettuati (6 se si considerano solo i confronti in avanti). Nel caso in cui il pixel in esame appartenga alla zona perimetrale dell’immagine, la finestra scorrevole avrebbe degli elementi non appartenenti alla matrice dell’immagine e ai quali non può essere assegnato un valore; per questo motivo tali elementi non vengono considerati durante la fase di confronto. Finestra 3 x 3 intorno a pixel di posizione (0,0) 76 255 32 23 Fig. 8.28 - Finestra 3 x 3 intorno al pixel di posizione (0,0) 210 Nel caso di Fig. 8.28 verranno incrementati solo gli elementi P[76,255], P[255,76], P[32,23], P[23,32] della matrice delle co-occorrenze, e in questo caso il fattore di normalizzazione sarà pari a quattro. Una volta ottenuta la matrice delle co-occorrenze si possono estrarre le caratteristiche tessiturali effettuando dei calcoli sugli elementi della matrice. Di seguito ne riportiamo alcuni. Ng Ng - Entropia f1 [x, y ] = ∑∑ p[i, j ]log{ p[i, j ]} (8.10) i =0 j =0 Ng Ng - Contrasto f 2 [x, y ] = ∑∑ (i − j ) 2 p 2 [i, j ] (8.11) i = 0 j =0 Ng Ng - Media f 3 [x, y ] = ∑∑ ip[i, j ] (8.12) i =0 j =0 Ng Ng - Varianza f 4 [x, y ] = ∑∑{i − f 3[ x, y ]} p[i, j ] (8.13) i =0 j =0 Ng Ng ∑∑ (ij) p[i, j ] − { f [ x, y ]} 2 3 - Correlazione f 5 [x , y ] = - Momento secondo f 6 [x, y ] = ∑∑{ p[i, j ]}2 i =0 j =0 f 4 [ x, y ] (8.14) Ng Ng (8.15) i =0 j =0 Ng Ng f 7 [ x, y ] = ∑∑ (i − j ) p[i, j ] - Dissomiglianza i =0 j =0 (8.16) Ng Ng - Omogeneità 1 p[i, j ] j = 0 1 + (i − j ) f8[ x, y ] = ∑∑ i =0 (8.17) Nelle formule p[i,j] è il valore assunto dalla matrice delle co-occorrenze normalizzata nella posizione [i,j]; [i,j] rappresenta la posizione del pixel attorno al quale è stata calcolata la caratteristica; infine Ng è il valore massimo del tono di grigio assunto dal pixel nell’immagine. L’entropia L’entropia misura il disordine di un’immagine. Quando un’immagine non è tessituralmente uniforme, l’entropia è poco elevata e l’immagine risulta scura; al contrario, se l’immagine ha tessitura uniforme, cioè ha tutti i pixel con lo stesso valore del tono di grigio, l’entropia è massima e l’immagine risulta bianca. Il contrasto Il contrasto misura la quantità di variazioni locali presenti nell’immagine. Questa caratteristica riporta delle macchie bianche in corrispondenza di grandi variazioni locali del tono di grigio dei pixel. 211 La correlazione La correlazione rappresenta una misura delle dipendenze lineari fra i toni di grigio dell’immagine. Un alto valore di correlazione (prossimo a 1) implica un’elevata relazione tra il valore di un pixel e quello dei pixel circostanti. La media L’immagine di questa caratteristica è costituita da pixel il cui valore corrisponde al valore medio della matrice delle co-occorrenze relativa. Proprio per questo motivo l’immagine risulta molto simile all’originale, perché ogni pixel è la media dell’informazione che gli sta intorno. Va detto che l’immagine risulta tanto più sfumata quanto più è grande la finestra usata per il calcolo della matrice delle co-occorrenze. La dissimilarità Questa caratteristica fornisce un’immagine in cui le parti bianche rappresentano le zone dove i pixel subiscono variazioni e quindi sono dissimili, mentre le parti scure indicano le zone dove i pixel rimangono simili tra loro. Il momento secondo Il momento secondo è una misura dell’omogeneità: le zone in cui i valori dei toni di grigio sono uniformi nell’immagine originale, qui sono riportate con una tonalità di grigio, mentre i pixel bianchi si hanno in corrispondenza di salti di tono. L’omogeneità Questa caratteristica rappresenta le transizioni dei toni di grigio. In un’immagine omogenea ci sono poche variazioni del tono di grigio e l’immagine risulta scura. Dove invece ci sono salti del valore del tono di grigio l’immagine risulta bianca, come per il momento secondo. La varianza Questa caratteristica rappresenta una misura di eterogeneità ed è strettamente correlata alle variabili statistiche del secondo ordine e, in particolare, alla deviazione standard. La varianza ha valori alti (bianco) se esiste una elevata variazione dei toni di grigio all’interno di una piccola porzione dell’immagine. Va inoltre ricordata l’esistenza della matrice delle occorrenze, che permette di estrarre cinque tessiture, ossia il data range, la media, la varianza, l’entropia e l’obliquità (skewness). Le definizioni di media, entropia e varianza sono state già viste sopra; per cui restano da definire il data range e la skewness. Il data range (intervallo dei dati) Considerando un certo insieme di dati, esso rappresenta il valore massimo – il valore minimo. L’ obliquità (skewness) È un parametro che descrive l’asimmetria della distribuzione della probabilità di una variabile casuale, ed è definito come: E( X − µ )3 skew( X ) = (8.18) 3 σ dove µ e σ sono rispettivamente la media e la deviazione standard di X. 212 Fig. 8.29 – Immagine SAR di Pavia e dintorni del 13 agosto 1992 e sue tessiture: procedendo dall’alto in basso e da sinistra a destra abbiamo:media, contrasto, correlazione, dissomiglianza, data range, entropia, omogeneità, momento secondo, skewness e varianza. Tutte le tessiture sono state ottenute usando una finestra 21×21 e un vettore di scostamento spaziale di dimensioni x = 1, y = 1 213 8.7 Gli operatori morfologici La morfologia matematica si riferisce ad una branca dell’elaborazione e dell’analisi non lineare delle immagini inizialmente sviluppata da George Matheron e Jean Serra riguardante principlamente le strutture geometriche all’interno di un’immagine. La teoria originale si applicava solo alle immagini binarie, e fu estesa alla morfologia in scala di grigio in un secondo momento, da Sternberg, Nakagawa e Rosenfeld. I campi di applicazione dei metodi morfologici sono numerosi, e includono il miglioramento delle immagini, la segmentazione, l’individuazione dei contorni, l’analisi tessiturale, la generazione di caratteristiche, la scheletonizzazione, l’analisi delle forme, la compressione, l’analisi delle componenti. I metodi morfologici hanno prodotto risultati notevoli per l’estrazione di caratteristiche e la segmentazione di immagini in molti campi, come la biologia, la robotica, la microscopia, la metallurgia e il telerilevamento. Il filtraggio morfologico è inteso in termini di filtraggio delle caratteristiche geometriche. L’idea di base è di analizzare un’immagine con un elemento strutturante (structuring) SE e quantificare il modo in cui l’elemento strutturante si adatta (o non si adatta) all’interno dell’immagine. L’informazione trovata dipende dalla dimensione e dalla forma dell’elemento strutturante. Se la dimensione della caratteristica è più piccola dell’elemento strutturante o se la forma è diversa da quella dell’elemento strutturante, la caratteristica sarà eliminata. Di conseguenza la natura dell’informazione ottenuta dipende dalla scelta dell’elemento strutturante. I filtri morfologici vengono utilizzati anche nell’individuazione dei contorni. Le caratteristiche di estrazione dei contorni possono essere calcolate dalla differenza di due diversi filtri morfologici, ossia la dilatazione e l’erosione. 8.7.1 Definizione di filtro morfologico Un oggetto F costituente un’immagine viene rappresentato nella terminologia della morfologia matematica come un insieme all’interno dello spazio euclideo n-dimensionale Rn. Un’immagine binaria A in 2D viene indicata in R2 come: A = a : f (a) = 1, a = (a x , a y ) ∈ R 2 (8.19) Indichiamo con z = (x,y) il punto di coordinate (x,y) di un insieme. { } 8.7.2 Definizioni binarie di base e operatori Per introdurre i concetti di erosione e dilatazione, abbiamo bisogno di alcune nozioni di base. Siano A e B degli insiemi in R2, dove a = (ax,ay) e b = (bx,by); definiamo la traslazione, la riflessione e il complemento. Traslazione La traslazione di A attraverso z = (x,y) consiste nel traslare A lungo il vettore z. Il risultato di questa operazione viene indicato con (A)z ed è definito come: ( A) z = {c | c = a + z, per ogni a ∈ A} (8.20) Il complemento di riflessione La riflessione di B è definita come: Complemento Il complemento dell’insieme A è: Bˆ = {z | z = −b, per ogni b ∈ B} (8.21) A c = {z | z ∉ A} (8.22) 214 8.7.3 Dilatazione binaria La dilatazione è una traslazione morfologica che combina due insiemi usando l’addizione degli elementi dei vettori dell’insieme. La dilatazione binaria fu usata per la prima volta da Minkowki e nella letteratura matematica è chiamata addizione Minkowki. Se A e B sono due insiemi nello spazio bidimensionale (R2) con elementi a e b rispettivamente, dove a = (ax,ay) e b = (bx,by) sono due 2-tuple di coordinate degli elementi, allora la dilatazione di A attarverso B è l’insieme di tutti i possibili vettori somma delle coppie di elementi, uno proveniente da A, l’altro da B. B è detto elemento strutturante (structuring element, SE), che definisce la forma geometrica per il filtraggio. Con A e B insiemi in R2, la dilatazione di A attraverso B, indicata con A ⊕ B è definita come: { } A ⊕ B = c ∈ R 2 | c = a + b, per qualche a ∈ A, b ∈ B (8.23) L’operazione di dilatazione può essere rappresentata anche come unione di traslazioni dell’elemento strutturante come mostrato nell’equazione successiva: A ⊕ B = U Ba = U Ab (8.24) a∈A b∈B 8.7.4 Erosione binaria L’erosione di un insieme A per mezzo di un elemento strutturante B viene indicata con AΘB ed è definito da: { } A Θ B = z ∈ R 2 | b + z ⊂ A per ogni b ∈ B (8.25) L’erosione consiste di tutti i punti z per cui la traslazione di B attraverso z cade all’interno di A. L’erosione binaria può essere usata per segmentare oggetti e rimuovere il rumore. 8.7.5 Dilatazione ed erosione in scala di grigio La dilatazione e l’erosione sono delle estensioni del concetto di dilatazione ed erosione binarie. Invece di usare gli operatori logici AND e OR la dilatazione e l’erosione in scala di grigio usano gli operatori di max e min. Sia F=f(x,y) l’immagine in scala di grigi di dominio Df, e sia B=b(x,y) l’elemento strutturante di dominio Db, dove x e y sono gli indici dei pixel. L’immagine in scala di grigio dilatata fd(x,y) e l’immagine erosa fe(x,y) sono il risultato delle operazioni di base del filtraggio morfologico in scala di grigio. f d ( x, y, B ) = max{f ( x − i, y − j ) + b(i, j ) | ( x − i ), ( y − j ) ∈ D f ; (i, j ) ∈ Db } (8.26) f e ( x, y, B ) = min{f (i + x, j + y ) − b(i, j ) | (i + x), ( j + y ) ∈ D f ; (i, j ) ∈ Db } (8.27) Per quanto riguarda la dilatazione, la richiesta che i parametri (x-i) e (y-j) debbano essere contenuti nel dominio di F è analoga alla condizione presente nella definizione di dilatazione binaria che i due insiemi di sovrappongano almeno per un elemento. Per quanto riguarda l’erosione invece, la richiesta che i parametri (x+i) e (y+j) devono essere contenuti nel dominio di F è analoga alla condizione presente nella definizione di erosione binaria, in cui l’elemento strutturante doveva essere completamenre contenuto nell’insieme che doveva essere eroso. Dal momento che la dilatazione in scala di grigio è basata sulla scelta del valore massimo di F+B in un intorno definto dalla forma dell’elemento strutturante l’effetto generale che si ottiene dall’effettuare una dilatazione è duplice: 1) Se tutti i valori dell’elemento strutturante sono positivi, l’immagine ottenuta tende ad essere più luminosa di quella in ingresso; 215 2) I dettagli neri sono eliminati o ridotti, in base a come i loro valori e la loro forma sono correlati all’elemento strutturante usato per la dilatazione. In maniera opposta, l’erosione in livelli di grigio fa si che le aree più luminose si riducano mentre le aree scure si espandano. (a) (b) valore 0 valore 1 influenzato dal pixel centrale ..non inflenzato dal pixel centrale Fig. Esempio di dilatazione (a) ed erosione (b) in un’immagine in scala di grigi e relativa legenda 8.7.6 Operazioni di apertura (opening) e chiusura (closing) L’apertura è costituita da una erosione seguita da una dilatazione. La chiusura è invece costituita da una dilatazione seguita da un’erosione. Data un’immagine di partenza possiamo dire che il risultato delle operazioni di dilatazione ed erosione è dato rispettivamente da: mentre il risultato delle operazioni di apertura e chiusura è rappresentato ripettivamente da: 216 8.8 Il miglioramento della risoluzione e la rilevazione dei cambiamenti Per molti sensori ci sono dati pancromatici ad alta risoluzione e dati multispettrali a risoluzione ridotta. Ci piacerebbe avere il meglio dei due mondi, cioè prodotti ad alta risoluzione ma ancora multispettrali. In effetti, l’uso di ambedue le informazioni è necessario per comprendere le diverse classi di copertura del terreno (ad es., diversa vegetazione, o diversi materiali urbani). E’ stato dimostrato che l’uso di combinazioni di questi dati fornisce dati più facilmente traducibili in mappe accurate di classificazione. Per migliorare la risoluzione, abbiamo numerosi metodi, tra i quali ricordiamo: - Aggiunta dell’alta risoluzione come una banda aggiuntiva - Trasformazione IHS - Trasformazione nel dominio delle frequenze - Metodo ARSIS 8.8.1 La trasformazione IHS La Procedura per la trasformazione Intensity /Hue / Saturation è la seguente: - I dati a bassa risoluzione sono ricampionati ad alta risoluzione; - Si applica la trasformazione IHS; - L’intensità è rimpiazzata con quella della alta risoluzione; - Si torna indietro alla rappresentazione in RGB. Fig. 8.30 Trasformazione IHS Funziona solo con 3 bande multispettrali che coprono lo stesso intervallo di lunghezze d’onda della banda pancromatica. 217 cosθ 1 = ( S1 ) Intensità (8.28) cos θ 2 = ( S 2 ) Intensità (8.29) La procedura è la seguente: - Si calcolano i coseni per tutte le bande. - Si torna a RGB considerando la banda pancromatica come parte dell’intensità delle immagini multispettrali. RGBi = cos(θ i ) S IR2 + 2( Pan 2 ) Fig. 8.31– Scena SPOT multispettrale e pancromatica Fig. 8.32– Immagine originale (a sinistra) e dopo l’applicazione della trasformazione IHS 218 (8.30) Fig. 8.33– Scena SPOT multispettrale (a sinistra) e stessa scena dopo l’applicazione dello spectral merge 8.8.2 La Trasformazione Spectral Merge È simile alla trasformazione IHS ma mantiene intatti i valori spettrali, cioè i coseni degli angoli tra il vettore del pixel e le bande. cos(θ i ) = Si (8.31) n ∑S 2 j j I vantaggi dello spectral merge - Algoritmo semplice e veloce; L’informazione spettrale è preservata; Quindi, si possono utilizzare algoritmi di classificazione. 8.8.3 Il “change detection” o rilevazione dei cambiamenti Spesso siamo interessati ai cambiamenti nell’ambiente più che alle sue caratteristiche di per esse. Per esempio, possiamo voler sapere quanto terreno agricolo è stato urbanizzato, oppure quanta foresta è stata abbattuta per far posto ai campi, oppure ancora possiamo voler determinare l’estensione delle aree allagate. Per fare ciò è necessario che le immagini siano perfettamente coregistrate tra loro, entro meno di un pixel. In più, c’è il rischio di includere tra le variazioni rilevate anche i cambiamenti accidentali. Per rilevare i cambiamenti esistono numerose tecniche, tra cui ricordiamo: - Comparazione Postclassificazione 219 - Classificazione di Dati Multitemporali Analisi delle Componenti Principali Differenze Temporali Rapporti Temporali Change Vector Analysis Mascheratura Binaria Trasformazione Delta Fig. 8.34– Immagine del 1986 (a sinistra) e stessa immagine ripresa nel 1994 (a destra) La comparazione postclassificazione Si fa una classificazione di ogni scena separatamente. Poi si comparano le classificazioni pixel a pixel. Vantaggi: Possiamo generare delle statistiche sui cambi di classe: ad es., possiamo stabilire quale è stata la percentuale di cambiamento tra una data classe di uso del suolo e un’altra. Problemi: Gli errori in ambedue le classificazioni si sommano. Se le classificazioni hanno una precisione dell’80%, la classificazione finale non avrà una precisione migliore del 64%. Classificazione di dati multitemporali Si combinano due scene rilevate in tempi diversi in un unico insieme che contiene le bande delle due immagini come bande di una terza immagine e si classifica tutta quest’ultima immagine. Problemi: Il metodo diventa rapidamente complicato con molte date e molte bande. Ad es., 3 scene Landsat portano già il numero di bande a 18. Analisi delle componenti principali Le tecniche multispettrali forniscono diverse immagini della stessa scena, dove ogni immagine rappresenta la distribuzione spaziale dell'energia riflessa o emessa ad una diversa lunghezza d'onda. Spesso però si osserva che esiste un alto grado di correlazione tra diverse immagini di uno stesso bersaglio e ciò dipende dalla natura fisica dell'oggetto, dalla larghezza della banda e dal rumore presente nei dati. Questo può essere superato o scegliendo le bande meno correlate, oppure costruendo mediante certe combinazioni lineari di dati originali, che possano contenere la maggior parte delle informazioni in un insieme (set) ridotto di dati. Attraverso questa trasformazione, l'informazione dell'immagine multispettrale viene ridistribuita in modo da essere contenuta per la maggior parte nelle prime componenti principali, mentre la parte contenuta nelle successive può essere interpretata come solo rumore. L’utilizzo delle componenti principali ha dunque il vantaggio di comprimere l’informazione in un minor numero di immagini garantendo un maggior contributo informativo rispetto alle immagini originarie. Inoltre, le PC sono dati che forniscono una valutazione dell’indice di correlazione tra le 220 bande originarie. Per contro, va detto che il principale svantaggio delle PC è che i livelli di grigio delle stesse non sono ovviamente indicazione di diversa riflettanza per determinate lunghezze d’onda dello spettro. Il cambio del sistema di riferimento La trasformazione dalle coordinate basate sulle bande spettrali a quelle che utilizzano come sistema di riferimento gli assi delle componenti principali viene effettuata con una semplice equazione di trasformazione del tipo: y = Mx (8.32) Dal momento che le componenti principali sono assi a massima varianza che definiscono uno spazio a covarianza minima (le PC hanno covarianza bassa o nulla), la matrice di trasformazione viene scelta in modo tale che la matrice di covarianza della distribuzione dei pixel riferita ai nuovi assi sia del tipo Riassumendo, si può dire che: - i dati sono trasformati lungo direzioni ortogonali, che sono dipendenti da come sono distribuiti i valori dei dati nelle immagini. - Il primo componente principale definisce la direzione di massima variabilità dei dati. - Ogni direzione successiva ha sempre meno variabilità. Fig. 8.35– Il cambio del sistema di riferimento Si combinano due scene in un insieme multitemporale e si realizza una trasformata a componenti principali. Alcune delle bande componenti saranno molto probabilmente correlate con le aree di cambiamento nell’immagine. Problemi: Dato che le bande dei componenti principali non hanno più un significato diretto collegato con lo spettro elettromagnetico, è difficile capire quale banda è collegata a quale cambiamento. Differenze temporali Si sottrae un’immagine dall’altra, e dove ci sono differenze più alte, si avranno cambiamenti più significativi. Poi si sceglie una soglia per decidere quali cambiamenti “interessano”. 221 Problemi: Va bene solo per alcuni tipologie di cambiamenti. Non è utile ad es. per testare i cambiamenti di uso del suolo, ma serve per situazioni particolari (il grano è stato raccolto?, il lago si è ghiacciato?). Serve una coregistrazione praticamente perfetta. Esempio Scena 1986 (Banda 4 TM) – scena 1994 (Banda 4 TM) Come si può vedere da Fig. 8.36, l’istogramma non ha un picco preciso a causa di un leggero errore di coregistrazione. Fig. 8.36– Istogramma e immagine corrispondente Rapporti temporali Si dividono i valori di un’immagine per quelli dell’altra, pixel per pixel. I rapporti vicini a 1 corrispondono ad aree invariate, mentre valori molto differenti corrispondono ad aree di cambiamento in un senso o nell’altro. Problemi: Gli stessi della differenza temporale. Vantaggio rispetto alla differenza: L’effetto dell’angolo del sole e delle ombre (di conseguenza) è almeno parzialmente ridotto. 222 Change Vector Analysis E’ un passo in avanti rispetto alla differenza temporale. Infatti, si sottraggono i vettori spettrali invece delle bande prese ad una ad una. Vantaggi: L’informazione di cambiamento mantiene le informazioni spettrali, così che alla fine si può dare un’interpretazione di quello che si è trovato. Mascheratura binaria Si realizza prima una differenza temporale o un rapporto temporale. Quindi si sceglie una soglia per dividere i dati nelle due classi di cambiamento e non. Infine, si usa questa soglia per determinare i pixel della seconda immagine che sono cambiati, e si riclassificano solo questi. Vantaggio: Classificando solo le aree con cambiamenti più grandi si riescono a distinguere i cambiamenti dovuti alla vegetazione da quelli di nostro interesse. Trasformazione Delta Si basa su un’idea simile alla Principal Components Analysis nel senso che la maggioranza dei cambiamenti nella scena dipendono dalla variabilità naturale del paesaggio, ma alcune varianze rappresentano “veri” cambiamenti. Procedura: Si producono diagrammi di dispersione per ogni banda, con una data sull’asse x e l’altra sull’asse y. Se non ci fosse alcun cambiamento, l’immagine sarebbe un’ellisse con un asse a 45°. 223 CAPITOLO 9 LA CLASSIFICAZIONE DELLE IMMAGINI DIGITALI 9.1 Introduzione Nel processo di classificazione delle immagini un operatore umano istruisce il calcolatore ad effettuare una interpretazione delle stesse immagini sulla base di certe condizioni definite dall’operatore. La classificazione delle immagini è una di quelle tecniche che rientrano nell’ambito dell’interpretazione delle immagini digitali. Altre tecniche sono quelle del riconoscimento automatico di oggetti (come l’estrazione di strade, ad esempio), e la ricostruzione delle scene (come la generazione di modelli in 3D). In pratica si definisce classificazione l’assegnazione di ogni porzione di superficie terrestre nella zona osservata ad una determinata classe, ossia una categoria omogenea, scelta tra un insieme predefinito per quella specifica applicazione. Nel caso delle immagini telerilevate, la classificazione di un’immagine significa decidere per ogni pixel cosa esso rappresenta in termini di copertura o di uso del terreno. 9.2 Principi della classificazione di immagini 9.2.1 Spazio delle immagini Un’immagine digitale è un vettore bidimensionale di elementi in cui ogni elemento corrisponde all’energia riflessa o emessa dalla superficie della Terra. La disposizione spaziale delle misure definisce l’immagine, detta anche spazio immagine. A seconda del sensore, i dati vengono registrati in n bande; i dati delle immagini digitali vengono di solito immagazzinati in valori di DN a 8 bit, con valori appartenenti all’intervallo compreso tra 0 e 255. Fig. 9.1 – Struttura di un’immagine multibanda 9.2.2 Caratteristiche dello spazio In un pixel, i valori che esso assume in (ad esempio) due bande possono essere considerati come le componenti di un vettore bidimensionale, detto vettore delle caratteristiche. Un esempio di tale vettore è (13,55) che dice che i valori di DN 13 e 55 sono imagazzinati rispettivamente per la banda 1 e la banda 2. Questo vettore può essere rappresentato in un grafico bidimensionale. 224 Fig.9.2 – Grafico dei valori di un’osservazione (cioè di un pixel) nello spazio delle caratteristiche per un’immagine a due e a tre bande Questo approccio può essere visualizzato allo stesso modo quando si hanno tre bande, utilizzando in tal caso un grafico tridimensionale. Ovviamente tale tipo di visualizzazione diventa più complicata per immagini con più di tre bande, in quanto in questa situazione si devono visualizzare tutte le possibili combinazioni di due bande. 9.2.2.1 Distanze e gruppi nello spazio immagine La distanza nello spazio delle caratteristiche è intesa come ‘distanza Euclidea’ e le unità sono i DN (che sono le unità degli assi). In uno spazio delle caratteristiche bidimensionale la distanza si può calcolare in base al Teorema di Pitagora. Nella situazione riportata in Fig. 9.3, la distanza tra (10,10) e (40,30) è uguale alla radice quadrata di (40-10)2+(30-10)2; quando si hanno tre o più dimensioni, la distanza si calcola in maniera simile. Fig 9.3 – La distanza Euclidea tra due punti è calcolata per mezzo del teorema di Pitagora 225 9.2.3 Alcune definizioni - Struttura o pattern: insieme di valori in scala di grigio di un singolo pixel sulle diverse bande spettrali; - Caratteristiche o features: sono gli attributi che caratterizzano il pattern, come ad esempio l’intensità nelle diverse bande spettrali; - Dimensionalità di un’immagine: il numero di bande dell’immagine stessa; - Pixel misto (Mixel): pixel contenente informazioni spettrali da più di un tipo di copertura; - Nuvola di dati: distribuzione di dati in una immagine in n dimensioni; - Aggruppamento o cluster di dati: un gruppo di pixel con valori simili in senso statistico; - Realtà a terra (Ground Truth): informazioni relative alla effettiva classe di appartenenza di un insieme di pixel dell’immagine telerilevata; di solito si ottengono per conoscenza diretta della zona, per sopralluogo o per interpretazione manuale, ove possibile senza ambiguità relativamente alle classi predefinite. - Classificazione: si basa sull’idea di ripartire la nuvola di dati in aree di una certa dimensione che appartengono ad una certa copertura; in altre parole, si tratta di analizzare ogni pixel per vedere a quale gruppo appartiene (usando varie statistiche); - Classificazione non supervisionata (unsupervised): prescinde dalla conoscenza della realtà a terra; si basa su algoritmi che analizzano tutti i pixel e li raggruppano in un certo numero di classi chiamate aggruppamenti (cluster) in base ai soli valori di radianza; spesso l’operatore può impostare alcune variabili quali il numero massimo di aggruppamenti o il numero minimo di pixel necessari per formare un aggruppamento; - Classificazione supervisionata (supervised): si basa sulla conoscenza di alcune aree campione rappresentative delle classi di superficie (insieme di addestramento); - Classificazione ibrida: si tratta dell’utilizzo di entrambi i precedenti metodi in modo che la classificazione non supervisionata possa essere la guida per aiutare la definizione dei training sites utili per la classificazione supervisionata; - Classificazione rigida: non tiene conto dei pixel misti; - Classificazione sfumata: tiene conto dei pixel misti. 9.2.4 La firma spettrale e la separabilità tra le classi Riferiamoci, per semplicità, al caso di un sensore che operi su due classi spettrali. Le osservazioni per ogni pixel determinano un vettore x, in questo caso con due elementi, che individua un punto in piano. Per i diversi pixel appartenenti ad una determinata classe i processi radiativi determinano osservazioni tra loro simili. Tuttavia, a causa delle inevitabili differenze tra elementi di una medesima classe ed a causa delle fluttuazioni e degli errori strumentali, l’ osservazione x varia aleatoriamente intorno ad un valore medio. Le proprietà di tale distribuzione aleatoria, ed in particolare il suo valore medio, caratterizzano dal punto di vista della risposta spettrale la classe in considerazione e costituiscono la cosiddetta “firma spettrale” della classe. Evidentemente diverse classi hanno diverse firme spettrali. In Fig. 9.4 è riportato un esempio con tre classi per cui la probabilità di coerenza dell’ osservazione è diversa da zero in una regione ellitica limitata. Evidentemente è possibile separare gli elementi della classe 3 senza errore mentre si avrà una certa “confusione” nel distinguere le classi 1 e 2. La separabilità tra classi cresce pertanto quanto più sono diversi i valori medi e quanto più piccole sono le varianze delle distribuzioni intorno a tali valori medi. 226 Fig. 9.4 – La separabilità tra le classi 9.3 Varianza e covarianza Si definiscono: - vettore del pixel medio (mean vector pixel) m= 1 K K ∑x k =1 k (9.1) Dove xk sono i vettori dei pixel singoli (individual pixel vectors) per un numero totale di K vettori; data una distribuzione di punti, il vettore del punto medio definisce l’ubicazione dell’insieme di punti nello spazio. - Varianza 1 K (9.2) σ x2 = ∑ ( x1k − m) k − 1 k =1 La varianza indica la distribuzione della proiezione dei punti lungo un determinato asse (in questo caso x1). - Dalla varianza si ricava la deviazione standard che è la stima di quanto i punti si discostino dal valore medio; 1 K ∑ ( x1k − m) 2 K − 1 k =1 - Per i pixel vettori ha più senso parlare di matrice varianza-covarianza 1 K = ( x k − m)( x k − m) t ∑ x K −1 ∑ k =1 In pratica la covarianza definisce la forma dell’ellissoide di distribuzione dei pixel σ x = σ x2 = (9.3) (9.4) 9.4 Basi geometriche della classificazione - L’interpretazione visiva dei grafici riconosce: I. Gli aggruppamenti in funzione della loro posizione, della caratteristica densità di punti all’interno di ciascuna e degli spazi vuoti all’esterno; II. La distanza tra le classi quale parametro di somiglianza o meglio di dissimilarità. - La posizione delle classi è definita dal vettore che definisce la posizione del pixel centrale (medio) della classe. - La densità e la compattezza delle classi può essere definita dalla distanza media di ciascun punto rispetto al punto centrale (medio) della classe. 227 - Il grado di separazione delle varie classi può essere definito come la distanza tra i centri delle varie classi. Si tratta quindi di un problema di distanze che possono essere calcolate facendo uso del semplice Teorema di Pitagora. La distanza euclidea tra due punti - In uno spazio bidimensionale è quindi d ab = ( x a − xb ) 2 + ( y a − y b ) 2 (9.5) - In uno spazio tridimensionale è d ab = ( x a − xb ) 2 + ( y a − yb ) 2 + ( z a − z b ) 2 - E in uno spazio n-dimensionale è (9.6) d ab = ( x a − xb ) 2 + ( y a − y b ) 2 + ( z a − z b ) 2 + .... + ( p a − pb ) 2 = p ∑ (x t =1 ta − xtb ) 2 (9.7) 9.5 Classificazione di immagini La Fig. 9.5 mostra uno spazio delle caratteristiche in cui le osservazioni (i vettori delle caratteristiche) sono state tracciate per sei classi di copertura del terreno specifiche (prati, acqua, alberi, eccetera). Fig. 9.5 – Spazio delle caratteristiche che mostra i rispettivi gruppi di appartenenza di sei classi; si noti come ogni classe occupi una’area diversa nello spazio delle caratteristiche Ogni gruppo di osservazione (classe) occupa la propria area nello spazio. In questa figura si vede quindi l’assunzione principale che viene fatta nella classificazione delle immagini: una parte specifica dello spazio delle caratteristiche corrisponde ad una classe specifica. Una volta che le classi sono state definite nello spazio delle caratteristiche, ogni pixel dell’immagine osservata può essere confrontato con quelle classi e assegnato alla classe corrispondente. Perché siano distinte durante l’operazione di classificazione, le classi devono avere caratteristiche spettrali differenti. Tale comportamento può essere verificato, ad esempio, paragonando le curve di riflettanza spettrale. La Fig. 9.5 mostra però anche una limitazione della classificazione di immagini: se le classi non hanno insiemi distinti nello spazio delle caratteristiche, la classificazione non fornisce risultati attendibili. Il principio della classificazione delle immagini è che ogni pixel è assegnato ad una classe che si basa sul suo vettore delle caratteristiche confrontandolo con degli insiemi predefiniti nello spazio delle caratteristiche. Il punto cruciale della classificazione delle immagini sta nel confrontare il vettore delle caratteristiche con degli insiemi predefiniti, che richiedono quindi la definizione degli insiemi e dei metodi per effettuare il confronto. La definizione degli insiemi è un metodo interattivo 228 effettuato durante il processo di training, o di allenamento. Il confronto delle osservazioni dei singoli pixel con gli insiemi avviene usando gli algoritmi di classificazione. 9.6 Il processo della classificazione delle immagini Il processo della classificazione delle immagini di solito prevede cinque passi: 1. la selezione e la preparazione dell’immagine. In base ai tipi di coperture che devono essere classificate vengono scelti il tipo di sensore, le date (o i periodi) di acquisizione e le lunghezze d’onda più appropriate. 2. la definizione degli insiemi nello spazio delle caratteristiche. Qui sono possibili due diversi approcci: la classificazione supervisionata e quella non supervisionata. In una classificazione supervisionata, l’operatore definisce gli insiemi (che costituiscono le classi) durante il processo di addestramento; in una classificazione non supervisionata un algoritmo di clustering (di ragguppamento) automaticamente trova e definisce un numero di insiemi nello spazio delle caratteristiche. 3. la selezione dell’algoritmo di classificazione. Una volta che le classi spettrali sono state definite nello spazio delle caratteristiche, l’operatore deve decidere in che modo i pixel (il loro valore di DN) debbano essere assegnati alle varie classi. L’assegnamento può basarsi su criteri diversi. 4. l’esecuzione della classificazione. Una volta stabiliti i dati di allenamento e scelto l’algoritmo di classificazione, si può eseguire la classificazione. Questo significa che, basandosi sul valore dei DN, ogni singolo pixel nell’immagine è assegnato ad una delle classi definite. 5. la valutazione della classificazione (validation). Una volta che l’immagine classificata è stata prodotta, la sua qualità viene determinata confrontandola con un dato di riferimento detto verità a terra, o ground truth ; tale operazione richiede la scelta di un algoritmo di campionamento, la generazione di una matrice di errore e il calcolo dei parametri di errore. Per semplicità si è scelto di riferire la maggior parte degli esempi ad un caso bidimensionale, anche se in linea di principio la classificazione può essere eseguita anche su insiemi di dati ndimensionali. L’interpretazione visuale delle immagini si ferma per ovvie ragioni al caso di tre bande. 9.7 Preparazione per la classificazione delle immagini La classificazione delle immagini ha come scopo primario quello di convertire le immagini che contengono i dati in mappe tematiche. Dal punto di vista delle applicazioni, infatti, si è più interessati alle caratteristiche tematiche di una certa area che non ai valori di riflessione della stessa. La caratteristiche tematiche, come la copertura del territorio, l’uso del terreno, i tipi di suolo o di minerali, possono essere usati per ulteriori analisi e come ingressi in modelli. In più, la classificazione delle immagini può essere considerata come una riduzione di dati: le n bande multispettrali in ingresso al classificatore forniscono in uscita un file raster singolo. Le possibilità per la classificazione dei tipi di copertura del suolo dipendono dalla data in cui le immagini sono state acquisite. Questo non è vero solo per le coltivazioni, che hanno un certo ciclo di crescita, ma anche per altre applicazioni. Prima di cominciare il lavoro bisogna effettuare una selezione delle bande spettrali disponibili. La ragione principale che spinge a non usare tutte le bande disponibili (per esempio, le 7 bande del Landsat TM) sta nella correlazione tra bande, e, qualche volta, nelle limitazioni dell’hardware e del software utilizzato. La correlazione tra bande si verifica quando la riflessione spettrale è simile tra più bande. Un esempio è la correlazione tra le bande corrispondenti alle lunghezze d’onda del verde e del rosso per la vegetazione: ad una bassa riflettanza nel verde corrisponde una bassa riflettanza nel rosso. Per scopi di classificazione, le bande correlate danno informazione ridondante e possono disturbare il processo di classificazione stesso. 229 9.8 La classificazione non supervisionata La classificazione supervisionata richiede la conoscenza dell’area che si tratta; se tale conoscenza non è disponibile in modo sufficiente o le classi di interesse non sono state definite, si può applicare una classificazione non supervisionata. Nella classificazione non supervisionata, gli algoritmi di clustering vengono utilizzati per partizionare lo spazio delle caratteristiche in un certo numero di cluster. Fig. 9.6 – Sequenza dei risultati di un algoritmo di clustering applicato ad un insieme di dati campione Vantaggi: - non è richiesta nessuna conoscenza a priori; - l’errore umano è ridotto; - le classi sono spettralmente omogenee “per forza”; - si possono identificare tutte le classi che hanno caratteristiche uniche. Svantaggi: - le classi ottenute non hanno necessariamente un significato; - l’utente ha un controllo limitato sulla procedura e sui risultati. Sono disponibili numerosi algoritmi di classificazione non supervisionata, il cui principale obiettivo è quello di produrre dei raggruppamenti spettrali basati su certe caratteristiche comuni. Uno degli approcci più diffusi è quello del Classificatore K-means. 9.8.1 Il Classificatore K-means È un metodo iterativo, che aggiusta ripetutamente e progressivamente i centri degli aggruppamenti. L’operatore deve definire il massimo numero di cluster all’interno dell’insieme dei dati. Sulla base di questo, il computer alloca le medie arbitrarie dei vettori come punti centrali dei cluster. Ogni 230 pixel viene quindi assegnato ad un cluster attraverso la regola di decisione della minima distanza dal centroide del cluster. Una volta che tutti i pixel sono stati etichettati vengono ricalcolati i centri dei cluster e il processo viene ripetuto finchè non vengono trovati gli esatti centri dei cluster e i pixel sono etichettati in modo appropriato. Le iterazioni si interrompono quando i centri dei cluster non cambiano più. Ad ogni iterazione i cluster (le classi) con meno di un certo numero di pixel prefissato vengono eliminati. Quando la ripartizione in classi è terminata, si effettua una analisi della vicinanza e della separabilità dei cluster attraverso le misure di media e deviazione standard delle distanze tra cluster. Per ridurre il numero di suddivisioni non necessarie si può effettuare la fusione di quelle classi che non possono essere distinte; questo viene effettuato utilizzando un valore di soglia predefinito. L’operatore deve definire il numero massimo di cluster/classi, la distanza tra i centri dei due cluster, il raggio di un cluster, e il numero minimo di pixel come numero soglia per l’eliminazione di una classe. L’analisi della compattezza del cluster attorno al suo centro è realizzata per mezzo della deviazione standard definita dall’utente per ciascuna banda spettrale. L’analisi della vicinanza dei cluster è realizzata invece misurando la distanza tra i centri dei due cluster. Se tale distanza è minore di una soglia predefinita, avviene la fusione dei due cluster. Ad ogni iterazione vengono eliminati quei cluster con un numero di pixel inferiori ad una certa soglia. I cluster che rimangono dopo questo processo iterativo sono descritti attraverso le loro statistiche. La Fig. 9.6 mostra il risultato dell’algoritmo di raggruppamento applicato ad un insieme di dati. Come si può osservare i centri dei cluster coincidono con le aree ad alta densità nello spazio delle caratteristiche. Le statistiche dei cluster ottenuti vengono utilizzate per classificare l’immagine completa usando un algoritmo di classificazione prescelto. Riassumendo si può dire che il classificatore K-means: - trova raggruppamenti “naturali” di pixel entro un insieme di dati multispettrali; - richiede all’utente pochi dati in ingresso; - richiede che le classi trovate siano “etichettate” dopo l’estrazione. 9.8.2 Il Fuzzy C-means Questo metodo aggiunge al K-means la possibilità di tenere conto anche degli elementi che non fanno parte di una determinata classe, con peso differente. In questo modo si ha la possibilità di arrivare ad un risultato tenendo fino alla fine il controllo su tutti i dati che si stanno analizzando. In generale dà risultati più precisi e soprattutto permette di caratterizzare quantitativamente l’affidabilità del risultato ottenuto attarverso la “defuzzificazione”. 9.8.3 Il Classificatore Isodata Il classificatore Isodata calcola le medie delle classi uniformemente distribuite nello spazio dei dati e dopo raggruppa iterativamente i pixel rimanenti utilizzando delle tecniche a minima distanza. Ogni iterazione ricalcola le medie e riclassifica i pixel in base alle nuove medie. La divisione, la fusione e la cancellazione iterativa delle classi viene fatta sulla base di alcuni parametri di soglia che vengono assegnati in ingresso. Tutti i pixel vengono classificati come appartenenti alla classe più vicina a meno che non sia specificata una soglia di deviazione standard o di distanza, nel qual caso alcuni pixel potranno rimanere non classificati se non verificano le condizioni fissate. Tale processo continua fino a che il numero di pixel in ogni classe cambia oppure fino a quando venga raggiunto il numero massimo di iterazioni consentite. 9.9 La classificazione supervisionata Uno dei passi principali nella classificazione delle immagini è la ripartizione dello spazio delle caratteristiche. Nella classificazione supervisionata tale passo è realizzato da un operatore che definisce le caratteristiche spettrali delle classe individuando delle aree campione dette aree di addestramento (training areas). La classificazione supervisionata necessita quindi di una buona conoscenza dell’area sotto osservazione da parte dell’operatore; egli deve infatti essere in grado di individuare le aree di interesse nell’area coperta dall’immagine. Un campione di una classe 231 specifica, comprendente un certo numero dei pixel di addestramento, forma un insieme nello spazio delle features. Questi insiemi, cosi come vengono scelti dall’operatore: - devono formare un insieme di dati rappresentativo per una determinata classe; questo significa che bisogna tenere conto della variabilità di una classe all’interno dell’immagine. Inoltre, in senso assoluto, è richiesto anche un numero minimo di campioni per cluster. Benchè esso dipenda dall’algoritmo del classificatore, una utile regola empirica è quella di considerare 30 × n campioni, dove n è il numero di bande. - devono non sovrapporsi oppure sovrapporsi solo in minima parte con gli altri cluster, altrimenti non è possibile ottenere una separazione attendibile. Usando un insieme di dati specifico, alcune classi possono avere delle significative sovrapposizioni spettrali, il che, in linea di principio, significa che queste classi non possono essere discriminate dalla classificazione. Soluzioni a questo problema possono essere l’aggiunta di bande ulteriori e/o l’aggiunta di immagini di dati acquisite in altri momenti. 9.9.1 Siti di addestramento (o campioni di addestramento) Durante la scelta dei training sites si decide il numero delle classi in base alle quali si vuole classificare le immagini, le loro caratteristiche spettrali e la separabilità tra le medesime. Per fare questo si possono effettuare le seguenti analisi: - analisi degli istogrammi dei siti di addestramento di ogni classe per ciascuna banda spettrale: si vede la correlazione tra bande per una stessa classe e se l’istogramma è unimodale o no; - analisi del coincident spectral plot (risposta spettrale media di ogni classe): per valutare il grado di sovrapposizione tra le varie classi sulle diverse bande; - analisi della matrice di divergenza: per valutare la separabilità tra le varie classi; - classificazione preliminare non supervisionata dei siti di addestramento: per vedere se esistono pixel non puri all’interno delle classi e per valutare la coerenza stessa delle classi; - classificazione preliminare interattiva (solo in alcuni software, non in Envi); - classificazione preliminare di una parte della scena (sottoscena o subscene). Dopo aver definito gli insiemi di addestramento possiamo effettuare la classificazione applicando un algoritmo di, appunto, classificazione. Esistono numerosi algoritmi di classificazione; la scelta dell’algoritmo dipende soprattutto dal motivo per cui si effettua la classificazione stessa e dalle caratteristiche dell’immagine e dei dati di allenamento. L’operatore deve decidere anche se permettere o impedire che nella classificazione vi siano pixel non classificati, cioè se permettere o meno l’esistenza di una classe “sconosciuto”. 232 9.10 Gli algoritmi di classificazione supervisionata 9.10.1 Il classificatore Parallelepipedo È il metodo di classificazione più semplice. Inizialmente vengono definiti i limiti superiore e inferiore per ciascuna classe. Questi limiti possono essere basati sui valori di massimo e minimo, o di media e deviazione standard per ogni classe. Quando si stabiliscono i limiti superiore e inferiore, questi definiscono un’area simile ad un riquadro nello spazio delle caratteristiche, che è il motivo per cui si è dato questo nome al classificatore. Il numero di riquadri dipende dal numero di classi. Durante la classificazione, un pixel sconosciuto viene controllato per vedere se esso cada o meno in uno dei riquadri. Se sì, esso viene etichettato con l’etichetta del riquadro in cui è contenuto. I pixel che non cadono in nessuno dei riquadri vengono assegnati alla classe detta “sconosciuta”, in pratica non vengono classificati. Lo svantaggio di questo classificatore è la sovrapposizione delle classi; quando alcune classi si sovrappongono, i pixel che cadono nella zona di sovrapposizione (zona di overlap) vengono assegnati in maniera arbitraria ad una delle classi che si sovrappongono, a meno che non si assegni a ciascuna di queste classi un indice di priorità. Fig.9.7 – Principio di funzionamento del classificatore Parallelepipedo in una situazione bidimensionale 9.10.2 Classificatore Minimum Distance to Mean (minima distanza dalla media) La base di questo classificatore è costituita dai centri dei cluster. È quindi necessario sapere già all’inizio del calcolo quante siano le classi e quale siano le coordinate del valore medio che ne definisce la posizione; tali parametri vengono determinati sulla base dei siti di addestramento. Durante la classificazione vengono calcolate le distanze euclidee di un pixel dai centri dei vari cluster; il pixel sconosciuto viene assegnato alla classe a cui è più vicino, ossia alla classe del centro da cui il pixel ha la distanza più piccola. La Fig. 9.8 mostra come uno spazio delle caratteristiche viene partizionato sulla base dei centri dei cluster. Uno dei difetti di questo classificatore è che anche pixel che hanno una distanza notevole dal centro di un cluster possono essere assegnati a quel centro. Questo problema può essere superato definendo un valore di soglia che limiti la distanza in cui si cerca. In genere i confini di decisione (decision boundary) tra una classe e l’altra sono scelti come il luogo di punti equidistante rispetto al centro di ciascuna classe. 233 Fig.9.8 – Principio di funzionamento del classificatore Minimum Distance to Mean in una situazione bidimensionale. I confini di decisione sono mostrati per un caso in cui non sono state stabilite distanze di soglia (in alto a destra) e per un caso in cui tali vincoli sono stati definiti (in basso a destra) Si possono dunque stabilire soglie oltre le quali il pixel non viene assegnato a nessuna classe; tali soglie si basano sulla compattezza delle classi definite sulla base della deviazione standard calcolata per i pixel del sample site che definisce la classe. Un ulteriore svantaggio di questo classificatore è che esso non tiene conto della variabilità delle classi; alcune classi sono piccole e dense mentre altre sono grandi e disperse. Il classificatore a massima verosimiglianza tiene conto invece di questa caratteristica. 9.10.3 Il classificatore Maximum Likelihood (massima verosimiglianza) Questo classificatore non considera solo il centro del cluster, ma anche la sua forma, dimensione e orientazione. Tutto ciò è reso possibile dal calcolo di una distanza statistica basata sui valori di media e sulla matrice di covarianza dei cluster. In questo caso infatti dai training sites è necessario ricavare la posizione del pixel medio, la varianza e la covarianza di ogni classe; tali parametri stabiliscono forma e posizione della nuvola relativa alla data classe. Dai training sites si ricavano anche le funzioni di probabilità per ciascuna classe che derivano dall’andamento della quantità di pixel presenti in una data classe all’allontanarsi del punto medio della classe stessa. In sostanza si definiscono delle curve concentriche di equiprobabilità che si allontanano dal punto medio della classe. La distanza statistica è un valore di probabilità: la probabilità che un’osservazione x appartenga al cluster specificato. Il pixel viene assegnato alla classe (cluster) a cui ha una probabilità di appartenere più alta. L’assunzione di molti classificatori ML è che ogni classe sia caratterizzata da una distribuzione unimodale e gaussiana. Per ogni cluster, possono essere disegnati attorno ai centri dei cluster quelli che vengono chiamati i contorni di equiprobabilità. I classificatori ML permettono anche all’operatore di definire una distanza di soglia definendo un valore di massima probabilità. 234 Una piccola ellisse centrata sulla media definisce i valori con la probabilità più alta di appartenere ad una classe. Ellissi progressivamente più grandi circondanti il centro rappresentano i contorni di probabilità di appartenenza ad una classe, con la probabilità che diminuisce via via che ci si allontana dal centro. La Fig. 9.9 mostra i contorni di decisione per una situazione con e senza distanza di soglia. Fig.9.9 - Principio di funzionamento del classificatore Maximum Likelihood in una situazione bidimensionale. I confini di decisione sono mostrati per un caso in cui non sono state stabilite distanze di soglia (in alto a destra) e per un caso in cui tali vincoli sono stati definiti (in basso a destra) Questo algoritmo calcola quindi la probabilità che un determinato pixel sia in una data classe e assegna il pixel alla classe più verosimile (alto valore di probabilità). Le dimensioni delle classi possono essere utili come peso relativo al calcolo delle probabilità. L’utente può determinare la probabilità minima perché un pixel venga assegnato; se tale valore non viene raggiunto, il pixel non viene classificato. 9.10.4 Il Classificatore di Mahalanobis È un classificatore rispetto alla distanza che usa delle statistiche per ogni classe. È simile al classificatore Maximum Likelihood ma assume che le covarianze di tutte le classi siano uguali, per cui è un metodo più veloce. Tutti i pixel vengono classificati come appartenenti alla classe più vicina a meno che non sia specificata una soglia di deviazione standard o di distanza, nel qual caso alcuni pixel potranno rimanere non classificati se non verificano le condizioni fissate. 9.10.5 Il classificatore Spectral Angle Mapper (SAM) È un classificatore spettrale che usa un angolo n-dimensionale per confrontare i pixel con uno spettro di riferimento. L’algoritmo usato determina la somiglianza spettrale tra due spettri calcolando l’angolo tra gli spettri, trattando questi ultimi come vettori in uno spazio con dimensione 235 pari al numero delle bande spettrali. Questa tecnica, se usata su dati di riflettanza calibrati, è relativamente insensibile agli effetti dovuti all’illuminazione e agli albedo. Gli spettri usati dal classificatore SAM possono provenire da file ASCII, da librerie spettrali, o possono essere estratti direttamente dalle immagini. Questo classificatore confronta l’angolo tra il vettore relativo allo spettro di riferimento e il vettore di ogni pixel in uno spazio n-dimensionale. Angoli piccoli corrispondono a punti più vicini allo spettro di riferimento. I pixel che superano il valore di soglia specificato per l’angolo massimo (in radianti) non vengono classificati. 9.10.6 Il classificatore Binary Encoding La tecnica di classificazione Binary Encoding codifica i dati e gli spettri usati come riferimento in 0 e 1 basandosi sulla considerazione se una banda cada sotto o sopra la media dello spettro. Per confrontare ogni spettro di riferimento codificato con gli spettri codificati dei dati si usa una funzione di OR esclusivo, e viene quindi prodotta un’immagine classificata. Tutti i pixel vengono assegnati allo spettro con il più alto numero di bande che coincidono, a meno che non sia stata specificata una soglia minima di corrispondenza, nel qual caso i pixel che non corrispondono ai criteri scelti non vengono classificati. 9.10.7 Valutazione dei risultati La classificazione fornisce in uscita un’immagine raster in cui i singoli elementi sono etichettati come appartenenti alle varie classi. Dato che la classificazione è basata sulla determinazione dei campioni delle varie classi, la qualità della classificazione deve essere valutata e quantificata successivamente. Per fare questo di solito si usa un approccio a campione in cui viene selezionato un certo numero di elementi raster e si confrontano il risultato della classificazione e quelli delle classi in cui si è diviso lo spazio delle caratteristiche. Per effettuare il confronto viene creata la matrice di errore, detta anche di confusione, dalla quale possono essere misurate diverse misure di accuratezza. Per selezionare i pixel per effettuare il test sono stati proposti vari schemi di campionamento. Le scelte che vanno fatte riguardano il numero di campioni richiesto, e l’area dei campioni. Strategie raccomandate di campionamento nel campo della copertura del suolo sono il campionamento semplice casuale e quello stratificato. Il numero di campioni può essere messo in relazione a due fattori nella valutazione dell’accuratezza: 1. il numero di campioni deve essere scelto in modo da scartare gli insiemi di dati che risultano inaccurati; 2. il numero di campioni richiesto per determinare la reale accuratezza, entro alcuni margini di errore, per un insieme di dati. La teoria del campionamento è usata per determinare il numero dei campioni richiesti. Il numero dei campioni deve essere commisurato all’area coperta da un’unità campione. Un’unità campione può essere un punto ma anche un’area di una certa dimensione; può essere un singolo elemento raster ma può anche includere gli elementi raster circostanti. Tra le altre considerazioni che vanno fatte, la dimensione ottima dell’area del campione dipende dall’eterogeneità della classe. 236 Fig.9.10 – La matrice di errore con gli errori derivati e le accuratezze espressi in percentuali; A, B, C e D si riferiscono alle classi considerate, mentre a, b, c, d si riferiscono alle classi nel risultato della classificazione. L’accuratezza totale è del 53% Una volta effettuato il campionamento e raccolti i dati, viene costruita una matrice degli errori, detta matrice di confusione o di contingenza. In questa matrice vengono elencate quattro classi (A,B,C,D) per un totale di 163 campioni. Dalla tabella si può leggere che, per esempio, sono stati trovati nel mondo reale 53 casi di ‘A’ (‘reference’) mentre il risultato della classificazione ha trovato 61 casi di ‘A’. In 35 casi i due risultati coincidono. La prima e più comune misura di accuratezza della classificazione è l’accuratezza totale (Overall Accuracy ), detta anche Proportion Correctly Classified (PCC). L’accuratezza totale è il numero di pixel correttamente classificati (cioè, la somma delle celle diagonali nella matrice di confusione) diviso per il numero totale di pixel analizzati. Nella tabella riportata sopra l’accuratezza totale è (35+11+38+2)/163=53%. Molte delle misure che vengono effettuate attraverso la matrice di confusione sono relative alle singole classi: - l’errore di omissione riguarda quei punti campione che sono stati omessi nell’interpretazione del risultato. Consideriamo la classe ‘A’, per la quale sono stati presi 53 campioni; 18 di questi 53 campioni sono stati interpretati come b, c, o d. Questo produce un errore di omissione pari a 18/53=34%; l’errore di omissione comincia con i dati di riferimento e si legge nelle colonne della matrice di confusione. - L’errore di inclusione comincia dall’interpretazione del risultato e si legge nelle righe della matrice di confusione; tale errore riguarda i campioni classificati in maniera scorretta; consideriamo la classe D: solo due campioni su 21 (10%) sono etichettati correttamente; gli errori di commissione e di omissione sono conosciuti anche come errori di I e II tipo rispettivamente; - L’accuratezza dell’utente è il corollario dell’errore di commissione, mentre l’errore di omissione è il corollario dell’accuratezza del produttore. - L’accuratezza del produttore è la probabilità che un punto associato ad una classe nella mappa appartenga veramente a quella classe. Un’altra misura largamente usata è il coefficiente Kappa, il quale prende in considerazione il fatto che anche assegnando etichette a caso si possa ottenere un buon grado di accuratezza. Il coefficiente k può assumere valori compresi tra 0 ed 1, ed indica quanta dell’accuratezza ottenuta non è banale; in altre parole, valori di k prossimi a zero significano che l’accuratezza ottenuta non si discosta molto da quella che si sarebbe ottenuta “gratis” cioè assegnando ad ogni pixel una classe a caso, 237 mentre valori di k prossimi ad 1 indicano che il risultato della classificazione ha effettivamente un alto contenuto d’informazione. La formula per il calcolo del coefficiente k è la seguente: N ∑ x kk − ∑ x k ∑ x ∑ k k= k N 2 − ∑ xk ∑ x∑ k (9.8) k dove N è il numero di pixel contenuto in tutte le classi della verità a terra, e xkk rappresenta i pixel sulla diagonale nella matrice di confusione. 9.10.8 Problemi nella classificazione delle immagini La classificazione delle immagini è una tecnica potente per ottenere delle classi tematiche da dei dati multispettrali. I limiti principali della classificazione delle immagini basate sul pixel sono che la classificazione fornisce classi spettrali e che ogni pixel è assegnato ad una classe soltanto. Le classi spettrali sono classi direttamente legate alle bande spettrali usate nella classificazione. A loro volta, queste sono collegate alle caratteristiche della superficie. In questo senso si può quindi dire che le classi spettrali corrispondono alle classi di copertura del suolo. Nel processo di classificazione una classe spettrale può essere rappresentata da più classi di addestramento; questo è dovuto, tra le altre cose, alla variabilità all’interno di una classe spettrale. Consideriamo una classe come l’erba; ci sono tipi differenti di erba, che hanno diverse caratteristiche spettrali. In più, lo stesso tipo di erba può avere diverse caratteristiche spettrali se considerate su aree grandi, a causa, ad esempio, delle diverse condizioni del terreno e del clima. Alle volte si è interessati alle classi di uso del suolo piuttosto che a quelle di copertura del suolo. Certe volte una classe di uso del suolo può comprendere numerose classi di copertura del suolo. L’altro grosso problema è che ogni pixel è assegnato solo ad una classe. Quando si ha a che fare con pixel relativamente piccoli, questo non è un problema, ma quando si ha a che fare con pixel relativamente grandi più classi di copertura del terreno si presenteranno nello stesso pixel. Come risultato, il valore spettrale del pixel è una media della riflettanza delle coperture del suolo presenti all’interno del pixel. In una classificazione standard questi contributi non possono essere distinti e il pixel verrà assegnato ad una piuttosto che ad un’altra delle classi presenti; questo fenomeno è noto come fenomeno dei pixel misti o mixel. Questo problema dei pixel misti pone l’accento sulla necessità di usare dati con una risoluzione spaziale appropriata. 9.11 L’approccio neurale Una rete neurale è un insieme di unità di elaborazione semplici, detti nodi o neuroni, collegate da una serie di connessioni detti pesi sinaptici. I nodi sono delle unità computazionali in grado di compiere delle operazioni aritmetiche molto semplici, e sono organizzati in una serie di strati o layer. Il numero di nodi e di strati determina la complessità della rete. Lo strato di input riceve i dati da elaborare, lo strato intermedio (detto anche strato nascosto perché non è in diretto collegamento con l’esterno) elabora i dati provenienti dallo strato precedente e li trasmette all’ultimo strato, che è quello di output che fornisce il risultato alla rete. 238 STRA TO D’USCITA (OUTPUT LAYER) NEURONI o NODI STRA TO NASCOS TO (HIDDEN LAYER) PESI o CONNESSIONI STRA TO D’INGRESSO (INPUT LAYER) Fig. 9.11 -: architettura di una semplice rete neurale Nel funzionamento di una rete neurale vengono distinte due fasi: apprendimento e riconoscimento. Durante la fase di apprendimento la rete viene istruita grazie ad un campione di dati presi dall’insieme di quelli che saranno elaborati in seguito, che sono immessi nella rete assieme alla loro etichetta di classe affinché la rete possa “impararli”. Durante la fase di riconoscimento, che costituisce poi il normale funzionamento della rete, essa viene usata per elaborare i dati di input in base all’apprendimento effettuato. Le reti neurali sono rese estremamente interessanti dalle capacità di cui godono. Innanzi tutto, tali reti imparano adattivamente da esempi di training senza chiedere alcun tipo di assunzione a priori circa la distribuzione statistica delle classi nel set di dati, ed inoltre sono capaci di autoorganizzarsi. Infine, tollerano informazioni incomplete, affette da rumore o ridondanti. 9.11.1 La rete Fuzzy Artmap La rete Fuzzy Artmap si basa sulla logica ART (Adaptive Resonance Theory), introdotta da Grossberg nel 1976 e sviluppata successivamente insieme a Carpenter. Questa rete è ottenuta combinando due moduli ART, denominati ARTa e ARTb, con un blocco centrale chiamato Map Field. Fig. 9.12 – Struttura delle rete Fuzzy Artmap 239 La struttura della rete Fuzzy Artmap utilizzata per la classificazione di immagini telerilevate è in realtà più semplice di quella sopra esposta, in quanto il modulo ARTb è sostituito da uno strato di neuroni denominato output layer. OUTPUT LAYER ONE TO ONE connection ρ2 MAP FIELD LAYER MAP FIELD WEIGHTS W2 ρ1 CATEGORY LAYER CATEGORY LAYER WEIGHTS W1 INPUT LAYER INPUT VECTOR A Fig. 9.13 – Struttura di una rete semplice Nell’ipotesi di classificare dati ad n dimensioni, possiamo dire che lo strato di ingresso (input layer) è costituito da 2n neuroni. Lo strato di uscita (output layer) lavora in modalità bidirezionale, ossia funziona da ingresso nella fase di addestramento e da uscita nella fase di classificazione. Tale strato è costituito da m neuroni, dove m è il numero di classi che si desidera distinguere. Il secondo strato, il category layer, cresce dinamicamente di dimensioni, essendo inizialmente costituito da un solo neurone. I neuroni di questo strato, che si creano durante l’addestramento, vengono chiamati categorie. Il mapfield layer è connesso neurone per neurone con l’output layer e ne ha la stessa dimensione. Questo strato costituisce un controllo per minimizzare il numero di categorie create, in modo da permettere un apprendimento rapido senza peggiorare l’errore di predizione. 9.11.2 Parametri ed operatori I parametri utilizzati sono i seguenti: parametro di scelta; il suo intervallo di valori è tra 0 e 1; α β1, β2 costanti per l’apprendimento della rete; 0 ≤ β ≤ 1 ρ1, ρ 2 costanti di vigilanza; 0 ≤ ρ ≤ 1 Si definiscono inoltre: A vettore di ingresso B vettore di uscita W1n vettore dei pesi tra input layer e il nodo n del category layer W2n vettore dei pesi tra map field layer e il nodo n del category layer 240 Gli operatori usati sono: r x = ∑ xi Norma di un vettore x: (9.9) i Fuzzy-AND: ( X ∧ Y ) i = min( x i , y i ) Indicando con j l’indice della categoria A ∧ W1 j Scelta di categoria Tj : Tj = α + W1 j Match ratio al map field Rm: Rm = Match ratio al category layer Rc: Rc = Risonanza: ( (9.10) (9.11) B ∧W 2 j (9.12) B A ∧ W1 j ) (9.13) A W 1NEW = β 1 A ∧ W 1OLD + (1 − β 1 )W 1OLD j j j ( (9.14) ) W 2 NEW = β 2 B ∧ W 2 OLD + (1 − β 1 )W 2 OLD j j j si noti che per β = 1 le espressioni precedenti si riducono a: W 1NEW = A ∧ W 1OLD j j W 2 NEW = B ∧ W 2 OLD j j in questo caso si parla di apprendimento rapido o fast learning. (9.15) (9.16) (9.17) 9.11.3 Formato dei pattern di ingresso e uscita Le componenti dei vettori di ingresso per Fuzzy Artmap sono numeri reali compresi tra 0 e 1. La struttura d’ingresso è costituita da m vettori di n componenti, dove m è il numero di pixel delle immagini da classificare e n è il numero di immagini. La figura seguente riassume quanto detto: Immagine 1 Immagine 2 VETTORE DI INGRESSO Immagine 3 Immagine 4 In realtà Fuzzy Artmap lavora con vettori di ingresso normalizzati per evitare il verificarsi del fenomeno noto come proliferazione delle categorie, cioè di nodi del category layer. Per evitare di perdere informazioni sul modulo dei vettori in ingresso, si esegue una codifica complementare degli ingressi, ossia, dato un vettore di ingresso I costruito come sopra, si costruisce un vettore di ingresso I’ così definito: I’=(I, 1-I). I vettori di uscita invece sono vettori costituiti da elementi tutti nulli, ad eccezione di quello che rappresenta la classe di appartenenza del pixel e che viene posto a uno. 241 1 0 0 classe 1 0 1 classe 2 0 0 0 1 classe 3 9.11.4 Algoritmo Fase di addestramento Si presenta il vettore di ingresso corrispondente al primo pixel all’input layer e la corrispondente uscita all’output layer. Il primo ingresso viene associato al primo nodo del category layer, dopodiché si esegue la risonanza. Si procede con la successiva coppia di ingressi-uscite e per ogni nodo del category layer si calcola la funzione di scelta Tj; si cerca quindi il nodo che presenta il valore massimo. Si calcola il match ratio al map field Rm per questo nodo e si effettua il test di vigilanza, cioè si verifica se Rm ≥ ρ2 Se questo test è superato si esegue la risonanza altrimenti entra in gioco una sottoprocedura per cercare nuovi modi che soddisfino determinati vincoli; se ciò non accade si crea una nuova categoria e si esegue sempre la risonanza. La fase di addestramento è molto importante in quanto è responsabile della precisione della classificazione finale. Dopo la fase di training la rete sarà in grado di distinguere le varie classi delle immagini presentate in ingresso. Fase operativa Si presenta il vettore d’ingresso e si calcola la funzione di scelta per ogni nodo del category layer, individuando quello con valore massimo. Dopodiché viene inviato all’output layer il vettore di uscita corrispondente al nodo scelto. Si procede quindi per ogni pixel dell’immagine da classificare. I risultati forniti dalla rete sono influenzati dal valore dei parametri. Al parametro α viene di solito assegnato il valore di 0,001, mentre il valore di β è il più delicato da scegliere. Se β = 1 si ottiene un addestramento della rete più veloce ma non risultati vantaggiosi. La dinamica di questo parametro prevede che con valori alti diminuiscano le classi e di conseguenza con valori bassi le classi tendono ad aumentare. Il parametro ρ è quello che incide di più sulla scelta delle categorie, perché influenza il criterio di risonanza. Per bassi valori di ρ il numero di classi rimane basso, mentre tende ad aumentare al suo crescere. In conclusione si possono fare le seguenti considerazioni per la rete Artmap: - Ha un numero di parametri abbastanza limitato; - Non è richiesta l’assegnazione di un valore iniziale per i vettori dei pesi; - Il meccanismo di match tracking, assegnando il valore più opportuno per ρ1, consente al sistema di creare il numero minimo di categorie; - Possiede una discreta velocità di esecuzione dell’intero ciclo di classificazione; - Il sistema è stabile perché i vettori dei pesi hanno un andamento non crescente. 9.12 Applicazioni alla vegetazione 9.12.1 Operazioni tra bande Per enfatizzare o ridurre alcuni difetti propri dell’immagine e delle caratteristiche spettrali degli oggetti in essa contenuti si possono effettuare le operazioni tra bande, o tra bande della stessa immagine o tra bande di immagini diverse, acquisite cioè in momenti diversi, ma relative alla stessa area. Tali operazioni, che vengono effettuate tra i DN delle varie bande, sono di solito la somma, la differenza, il prodotto e il rapporto. 242 Somma e differenza Sono operazioni poco usate direttamente, ma rientrano in molti calcoli più complessi, come il calcolo degli indici di vegetazione. La somma viene utilizzata per ricavare il valore medio di una scena ripresa in tempi diversi ma nella stessa banda. La differenza viene utilizzata per enfatizzare le variazioni di riflettanza tra due scene prese in tempi diversi. Prodotto Si usa moltiplicando due bande o una banda per se stessa allo scopo di aumentare il contrasto ed enfatizzare i pixel che hanno alti valori di riflettanza. Rapporto Si tratta del rapporto tra due bande preventivamente riscalate a 0-255 livelli di grigio secondo la nota formula: DN ' = DN − MIN ⋅ 255 MAX − MIN (9.18) Si può anche riscalare usando come soglia il valore 1 del rapporto per poi assegnare un valore tra 0 e 127 per i risultati < 1 e da 127 a 255 per quelli > 1. Il suo utilizzo è molteplice perché è il migliore strumento per confrontare risposte spettrali diverse su bande differenti. In sostanza, utilizzando il rapporto si mettono in relazione picchi e minimi appartenenti alla firma spettrale di uno stesso oggetto (tipo di roccia, vegetazione, suolo). Il rapporto permette di ridurre l’effetto topografico (ombre e zone con maggiore illuminazione), ma se effettuato tra due bande, tende ad enfatizzare il rumore. Come la somma è utilizzato all’interno di operazioni più complesse; viene usato per attenuare i problemi dovuti alla diversa illuminazione della scena a causa dell’orografia del terreno. 9.12.2 Gli indici di vegetazione Sono il mezzo più efficace per l’osservazione della vegetazione e si basano su combinazioni algebriche di misure di riflettanza in due o più canali spettrali. Questi indici sono altamente correlati con i parametri relativi allo stato di salute delle piante e alla produttività come densità e copertura, biomassa verde, indice di area fogliare, clorofilla e condizione delle colture. Possono essere divisi in tre categorie: - Indici intrinseci: considerano solo la riflettanza; - Indici legati alla linea dei suoli: riducono l’effetto del terreno; - Indici corretti contro gli effetti atmosferici. 9.12.2.1 Gli indici intrinseci I due indici intrinseci più conosciuti sono il Simple Ratio (SR) e il Normalized Difference Vegetation Index (NDVI); SR È il più semplice indice di vegetazione; assume valori compresi tra 0 e infinito, generalmente tra 0 e 1 per i suoli e tra 1 e 6 per la vegetazione verde. SR = ρ nir ρr (9.19) Per studi multitemporali questo rapporto ha lo svantaggio di dipendere dal valore assoluto di NIR e IR e quindi di essere affetto in buona misura dalla condizioni atmosferiche di ripresa. 243 NDVI È il più usato e comune; assume valori tra –1 e 1, in particolare inferiori a 0 per l’acqua, poco superiori a 0 per i suoli, e tra 0,4 e 0,7 per la vegetazione. Solo vegetazioni molto dense arrivano a 0,8. NDVI = ρ nir − ρ r ρ nir + ρ r (9.20) Questo indice viene determinato in maniera diversa per diversi sensori multispettrali, ma può essere sintenticamente assimilato ad una combinazione delle radianze in un canale visibile (particolarmente nel rosso) e nel vicino infrarosso, attraverso opportuni coefficienti e formule simili a quella riportata sopra. È intuitivo come una maggiore presenza di pigmenti accresca il numeratore, mentre il rapporto genera una quantità relativamente indipendente da fattori moltiplicativi o additivi sulle radianze (dovuti, ad esempio, a cambiamenti nella calibrazione del sensore). I profili temporali di tale indice durante l’anno sono correlati alle variazioni nella quantità e nella funzionalità dell’apparato fotosintetizzante. Ciò può essere utilizzato per stimare, con opportuni modelli, le rese di una coltura e contribuire alla previsione della produzione allorchè sia nota l’area di territorio interessata da tale coltura. Questo indice ha il vantaggio di risentire in maniera minore delle condizioni atmosferiche rispetto agli indici SR e DVI (Differenced Vegetation Index; DVI = ρnir - ρr). Un indice di vegetazione equivalente (TVI: Transformed vegetation index) è stato calcolato per il sensore LandSat TM TM 4 − TM 3 TVI = + 0,5 ⋅ 100 TM 4 + TM 3 (9.21) 9.12.2.2 Indici legati alla linea dei suoli Spesso la vegetazione non è tanto densa da coprire il 100% il terreno su cui cresce, per cui la risposta rimane influenzata dalle caratteristiche di colore dei suoli e dal loro contenuto di umidità. In generale per i suoli si hanno valori più alti di riflettanza spettrale nell'infrarosso vicino rispetto al rosso. Sperimentalmente si osserva una relazione di tipo lineare: nello spazio spettrale "rossoinfrarosso vicino" infatti, i punti rappresentativi dei suoli S tendono a disporsi lungo una linea detta "linea dei suoli": ρ Snir = aρ Sr + b (9.22) PVI (Perpendicular Vegetation Index) Questo indice vale zero sulla linea dei suoli (Indice di Area Fogliare=0) e cresce linearmente man mano che ci si sposta perpendicolarmente ad essa. PVI = ρ nir − aρ r − b a2 +1 244 (9.23) SAVI (Soil Adjusted Vegetation Index) Questo indice si presta bene nel caso di vegetazione con scarsa copertura ed inoltre tale indice può essere adattato a diverse tipologie di suolo. SAVI = ρ nir − ρ r × (1 + L) ρ nir + ρ r + L (9.24) 9.12.2.3 Indici corretti per effetti atmosferici ARVI (Atmospherically Resistant Vegetation Index) In esso il termine ρrb è dato dalla combinazione delle riflettanze nelle bande spettrali del blu e del rosso, ed il parametro γ dipende dal tipo di aerosol. In genere γ= 1 . ARVI = ρ nir − ρ rb ρ nir + ρ rb ρ rb = ρ r − γ ( ρ b − ρ r ) (9.25) (9.26) GEMI (Global Environment Monitoring Index) GEMI = η × (1 − 0.25η ) − ρ r − 0.125 1 − ρr 2 2( ρ nir − ρ r2 ) + 1.5 ρ nir + 0.5 ρ s η = ρ nir + ρ r + 0.5 (9.27) (9.28) 9.13 I dati iperspettrali Mentre multispettrale significa con più bande, iperspettrale significa con molte bande (più di 100); ciò significa che il telerilevamento iperspettrale fornisce una traccia praticamente completa di misure alle diverse lunghezze d’onda delle risposte spettrali di diversi materiali. Analisi di dati iperspettrali L’approccio generale prevede : - Sviluppo di una “Libreria Spettrale”, ovvero di un archivio di risposte spettrali di diversi tipi di materiali. - Costruzione di curve di risposta spettrale per materiali abbastanza “puri” - Da queste curve si possono estrarre i picchi specifici di riflettanza e di assorbimento. - Quindi i dati sono confrontati con gli spettri ottenuti in laboratorio (mixture analysis) - Misture di due o anche tre materiali possono essere riconosciuti in un singolo pixel attraverso metodologie di “demissaggio” Librerie spettrali Va tenuta in conto sia la diversità di materiali recuperabili nella immagine di interesse, sia la loro diversa risposta a seconda della loro posizione rispetto al sensore (BRTF: bidirectional radiative transfer function). 245 Analisi dei dati iperspettrali Ricerca dei pixel “puri”: - Bisogna trovare prima di tutto questi pixel, utilizzando un indice, detto Pixel Purity Index (PPI). - A cosa servono? I pixel “puri” forniscono spettri che possono essere utilizzati per separare i contributi dei diversi materiali in aree che sono invece di commistione. - Se si suppone di avere una combinazione lineare, è possibile estrarre le componenti di ciascun pixel risolvendo una serie di equazioni lineari, o meglio minimizzando un funzionale attraverso tecniche dei minimi quadrati. Problemi dei dati iperspettrali Il volume enorme di dati richiede una riduzione delle informazioni da elaborare (feature reduction) o metodi di calcolo molto efficienti. Il costo di questi dati li rende proibitivi per la maggior parte delle applicazioni. La necessità di correzioni geometriche e atmosferiche di alto livello richiede un certo numero di dati di supporto, non alla portata di chiunque. Non ultimo, la complessità della loro analisi ne rende difficile l’utilizzabilità immediata. 9.14 Il sensore AVIRIS AVIRIS sta per Airborne Visible/infrared Imaging Spectrometer; è un sensore di tipo passivo che rileva la riflettanza degli obiettivi presi in esame. Esso acquisisce dati in 224 bande di frequenza che coprono l’intervallo da 400 nm a 2450 nm; la frequenza di scansione è di 12 scans / sec .Ogni banda ha una larghezza di circa 10 nm. La risoluzione spaziale di un pixel, che è rappresentato da due byte per banda, è 20 m × 20 m. Fig. 9.14 - Metodo di funzionamento del sensore AVIRIS Le specifiche tecniche - La larghezza tipica della strisciata è di 11 km. - La dispersione dello spettro in fase di acquisizione di dati viene ottenuta attraverso una griglia ottica di diffrazione. 246 - L’intervallo totale di frequenze va da 380 a 2500 nanometri (all’incirca lo stesso delle bande del TM su LANDSAT). - L’immagine è costruita, con scansione longitudinale, come una successione di linee di 644 pixel. - Ultimamente, è stato fatto volare più in basso, grazie a miglioramenti nell’elettronica, con risoluzione di 5/10 metri. • Procedura utilizzata 9.15 Il Dais DAIS sta per Digital Airborne Imaging Spectrometer. È un sensore iperspettrale con: - 79 Bande spettrali tra 0,4 e 12,3 µm - Dati di temperatura nel canale 80 247 - Risoluzione a terra fino a 2,6 metri É utilizzato principalmente per: - L’investigazione sullo stato della vegetazione - La mappatura risorse agricole e forestali - Il reperimento di dati geografici - Il monitoraggio ambientale Prima di operare con questi dati, essi necessitano di alcune operazioni preliminari, soprattutto della correzione geometrica e a maggior ragione di quella atmosferica. Durante l’elaborazione di questi dati vengono usati dei dati ausiliari; per esempio, in contemporanea al volo per HySens sono stati utilizzati: - Misure dell’intensità di radiazione solare per le correzioni atmosferiche - Misure di firme spettrali di alcuni materiali - Misure GPS ad alta precisione per le correzioni In più: - Misure di firme spettrali dal CNR 9.16 Sensori iperspettrali da satellite Hyperion è un sensore montato sul satellite EO-1 (lanciato nel Dicembre 2000). Esso ha: - La stessa orbita del Landsat 7 - 220 canali da 400 a 2500 nm - Una risoluzione a terra di 30 metri. 248