Dispense non ufficiali di telerilevamento

Transcript

Dispense non ufficiali di telerilevamento
UNIVERSITÀ DEGLI STUDI DI PAVIA
FACOLTÀ DI INGEGNERIA
DIPARTIMENTO DI ELETTRONICA
INTRODUZIONE
AL TELERILEVAMENTO
PER L’OSSERVAZIONE
DELLA TERRA
Ing. Giovanna Trianni
Pavia, 28 Febbraio 2006
Desidero ringraziare il Professor Paolo Gamba, che mi ha trasmesso l’interesse per il
Telerilevamento, e l’Ing. Fabio Dell’Acqua, ispiratore di questo lavoro, che non avrebbe mai visto
la luce senza il suo prezioso aiuto.
II
INDICE
PARTE PRIMA.................................................................................................................................. 8
GLI STRUMENTI DEL TELERILEVAMENTO.......................................................................... 8
CAPITOLO 1 ..................................................................................................................................... 9
INTRODUZIONE AL TELERILEVAMENTO ............................................................................. 9
1.1 DEFINIZIONI DI TELERILEVAMENTO ................................................................................................. 9
1.2 METODI DI RILEVAZIONE DIRETTA E DI TELERILEVAMENTO ............................................................ 9
1.2.1 I vantaggi del telerilevamento ................................................................................................... 10
1.2.2 Gli svantaggi del telerilevamento ............................................................................................. 11
1.3 L’OSSERVAZIONE DELLA TERRA MEDIANTE TECNICHE DI TELERILEVAMENTO ............................. 11
CAPITOLO 2 ................................................................................................................................... 12
L’ENERGIA ELETTROMAGNETICA E IL TELERILEVAMENTO............................................................ 12
2.1 INTRODUZIONE .............................................................................................................................. 12
2.2 L’ENERGIA ELETTROMAGNETICA .................................................................................................. 13
2.2.1 Alcune definizioni ..................................................................................................................... 14
2.2.2 Onde e fotoni ............................................................................................................................. 14
2.3 SORGENTI DI ENERGIA EM ............................................................................................................ 15
2.4 LO SPETTRO ELETTROMAGNETICO ................................................................................................. 17
2.5 INTERAZIONE DELL’ENERGIA NELL’ATMOSFERA ........................................................................... 18
2.5.1 Assorbimento e trasmissione .................................................................................................... 19
2.5.2 Diffusione atmosferica .............................................................................................................. 19
2.5.3 Diffusione di Rayleigh .............................................................................................................. 20
2.5.4 Diffusione di Mie ...................................................................................................................... 21
2.6 INTERAZIONI DELL’ENERGIA EM CON LA SUPERFICIE TERRESTRE ................................................. 22
2.6.1 Bilancio di energie .................................................................................................................... 24
2.7 LA CURVA DI RIFLETTANZA ........................................................................................................... 25
2.7.1 Vegetazione ............................................................................................................................... 25
2.7.2 Suolo ......................................................................................................................................... 25
2.7.3 Acqua ........................................................................................................................................ 26
CAPITOLO 3 ................................................................................................................................... 27
OSSERVAZIONE DELLA TERRA: ASPETTI SISTEMISTICI ............................................... 27
3.1 INTRODUZIONE .............................................................................................................................. 27
3.2 LE COMPONENTI DI UN SISTEMA DI OSSERVAZIONE DELLA TERRA ................................................ 27
3.2.1 Oggetto osservato (Bersaglio) .................................................................................................. 27
3.2.2 La sorgente del campo elettromagnetico .................................................................................. 28
3.2.3 Il mezzo sede della propagazione della radiazione ................................................................... 28
3.3 I SENSORI ...................................................................................................................................... 29
3.4 CLASSI DI SENSORI ........................................................................................................................ 30
3.4.1 I Sensori passivi ........................................................................................................................ 30
3.4.2 I Sensori attivi ........................................................................................................................... 31
3.5 LE PIATTAFORME........................................................................................................................... 32
3.5.1 Le piattaforme aeree.................................................................................................................. 33
3.5.2 Le piattaforme spaziali .............................................................................................................. 33
3.5.2.1 Le orbite ................................................................................................................................. 35
3.6 CONVERSIONE ANALOGICO-DIGITALE ........................................................................................... 37
3.6.1 Rappresentazione dei dati (imaging): RASTER e VETTORIALE .......................................... 38
3.7 SISTEMA DI TERRA ........................................................................................................................ 39
3.7.1 Centro di supporto ..................................................................................................................... 40
3.7.2 Sistema di Acquisizione ed Archiviazione ............................................................................... 40
3.7.3 Sistema di Elaborazione ............................................................................................................ 41
3.7.4 Sistema di Distribuzione ........................................................................................................... 42
3.7.5 Centro di Supporto Utenti ......................................................................................................... 42
3.8 REQUISITI DI UN SISTEMA DI EO: CAMPIONAMENTO SPETTRO-SPAZIO-TEMPORALE ...................... 43
3.8.1 Lo stato del bersaglio ................................................................................................................ 43
3.8.2 Il campionamento spettro-spazio-temporale ............................................................................. 43
3.9 I REQUISITI D’OSSERVAZIONE ........................................................................................................ 44
3.10 I VINCOLI TECNOLOGICI............................................................................................................... 45
3.10.1 Tecnologie di bordo e sensori ................................................................................................. 45
3.10.2 I fattori ambientali ................................................................................................................... 46
3.11 ALCUNE ULTERIORI DEFINIZIONI ................................................................................................. 46
3.12 CARATTERISTICHE DELLE IMMAGINI ........................................................................................... 47
3.12.1 Relazioni tra risoluzioni .......................................................................................................... 48
3.12.2 Agire sulle risoluzioni ............................................................................................................. 48
CAPITOLO 4 ................................................................................................................................... 50
IL TELERILEVAMENTO OTTICO: LA FOTOGRAFIA AEREA ................................................................ 50
4.1 INTRODUZIONE .............................................................................................................................. 50
4.2 LA FOTOGRAFIA AEREA ................................................................................................................. 52
4.3 STRUTTURA DI UNA FOTOCAMERA ................................................................................................ 54
4.3.1 Lente conica .............................................................................................................................. 54
4.3.2 Contenitore della pellicola e dati ausiliari................................................................................. 55
4.4 CARATTERISTICHE SPETTRALI E RADIOMETRICHE ......................................................................... 55
4.5 FOTOGRAFIA MONOCROMATICA .................................................................................................... 56
4.6 LA FOTOGRAFIA A COLORI VERI E QUELLA A INFRAROSSO O FALSI COLORI ................................... 56
4.6.1 Confronto .................................................................................................................................. 58
4.7 LE CARATTERISTICHE SPAZIALI ..................................................................................................... 58
4.7.1 La scala ..................................................................................................................................... 58
4.7.2 La risoluzione spaziale .............................................................................................................. 59
4.8 LE MISSIONI DI FOTOGRAFIA AEREA .............................................................................................. 59
4.8.1 La pianificazione della missione ............................................................................................... 59
4.8.2 L’esecuzione della missione ..................................................................................................... 59
4.8.3 Le tecnologie di supporto .......................................................................................................... 60
CAPITOLO 5 ................................................................................................................................... 61
GLI SCANSORI MULTISPETTRALI....................................................................................................... 61
5.1 LA SCANSIONE............................................................................................................................... 61
5.1.1 Scansione trasversale ................................................................................................................ 61
2
5.1.1.1 La geometria .......................................................................................................................... 62
5.1.2 Scansione longitudinale o “pushbroom” ................................................................................... 62
5.2 LE TECNICHE MULTISPETTRALI ..................................................................................................... 63
5.3 FOTOGRAFIA E RILEVAZIONE ELETTRONICA .................................................................................. 64
5.4 TERMOGRAFIA .............................................................................................................................. 64
5.4.1 Bande termiche ......................................................................................................................... 64
5.4.2 Immagini termiche .................................................................................................................... 65
5.5 ALCUNI SCANSORI MULTISPETTRALI ............................................................................................. 65
5.5.1 Meteosat-5 ................................................................................................................................. 65
5.5.2 NOAA-15 .................................................................................................................................. 67
5.5.3 LandSat-7 .................................................................................................................................. 69
5.5.3.1 Le bande del LandSat ............................................................................................................. 69
5.5.3.2 Le applicazioni del LandSat ................................................................................................... 70
5.5.4 SPOT ......................................................................................................................................... 71
5.5.5 IKONOS.................................................................................................................................... 73
5.5.6 QuickBird .................................................................................................................................. 73
5.5.7 TERRA – ASTER ..................................................................................................................... 74
5.5.8 Il sensore MERIS di Envisat-1.................................................................................................. 75
5.5.8.1 I requisiti della missione ........................................................................................................ 76
5.5.8.2 Le prestazioni dello strumento ............................................................................................... 78
5.5.8.3 I dati MERIS .......................................................................................................................... 79
5.6 LE DISTORSIONI NEL TELERILEVAMENTO OTTICO .......................................................................... 80
5.6.1 Origine ...................................................................................................................................... 80
5.6.2 Cause specifiche ........................................................................................................................ 80
CAPITOLO 6 ................................................................................................................................... 83
I RADAR ........................................................................................................................................... 83
6.1 INTRODUZIONE .............................................................................................................................. 83
6.2 PRINCIPI DI ACQUISIZIONE DI IMMAGINI RADAR ............................................................................ 84
6.3 LE BANDE COMUNEMENTE USATE ................................................................................................. 86
6.4 LE POLARIZZAZIONI DELLE MICROONDE ........................................................................................ 88
6.5 PROPRIETÀ GEOMETRICHE DEL RADAR .......................................................................................... 89
6.5.1 Geometria del radar ................................................................................................................... 89
6.6 RISOLUZIONE SPAZIALE................................................................................................................. 90
6.6.1 Risoluzione in slant range ........................................................................................................ 91
6.6.2 Risoluzione in ground range (o distanza al suolo) .................................................................... 91
6.6.3 Risoluzione in azimut................................................................................................................ 91
6.7 RADAR AD APERTURA SINTETICA (SYNTHETIC APERTURE RADAR, SAR) .................................... 91
6.8 PRINCIPI DI ACQUISIZIONE RADAR ................................................................................................. 95
6.8.1 Risoluzione di un radar ad apertura sintetica ............................................................................ 96
6.8.2 Storia della fase di un bersaglio puntiforme ............................................................................. 97
6.8.3 Elaborazione in azimut.............................................................................................................. 98
6.8.4 Elaborazione in portata ........................................................................................................... 101
6.8.5 Caratteristiche delle immagini SAR ....................................................................................... 102
6.9 DISTORSIONI NELLE IMMAGINI RADAR ........................................................................................ 103
6.9.1 Distorsioni di scala .................................................................................................................. 103
6.9.2 Distorsioni introdotte dal terreno ............................................................................................ 103
6.9.3 Distorsioni radiometriche ........................................................................................................ 104
6.9.3.1 Il rumore speckle .................................................................................................................. 105
6.9.3.1.1 Il modello di rumore moltiplicativo per lo Speckle .......................................................... 106
3
6.9.3.1.2 Elaborazione multi-look .................................................................................................... 107
6.9.3.1.3 I filtri anti-speckle ............................................................................................................. 107
6.10 APPLICAZIONI DEL RADAR......................................................................................................... 112
6.11 DIFFERENZE TRA LE IMMAGINI OTTICHE E LE IMMAGINI RADAR ................................................ 112
6.12 ALCUNI SISTEMI RADAR ............................................................................................................ 113
6.12.1 SeaSat .................................................................................................................................... 113
6.12.2 SIR-C .................................................................................................................................... 113
6.12.3 ERS ....................................................................................................................................... 113
6.12.4 Radarsat-1 ............................................................................................................................. 113
6.12.5 La costellazione COSMO/SkyMed ....................................................................................... 114
6.13 ENVISAT-1: IL NUOVO SATELLITE EUROPEO .............................................................................. 115
6.13.1 Capacità di registrazione a bordo .......................................................................................... 116
6.13.2 La piattaforma polare ............................................................................................................ 117
6.13.3 Gli strumenti del carico utile ................................................................................................. 117
6.13.4 Il sensore ASAR.................................................................................................................... 119
6.13.4.1 La struttura dello strumento ............................................................................................... 119
6.13.4.2 Prestazioni dello strumento: modalità operative della missione globale e regionale ........ 120
6.13.4.3 I dati ASAR ........................................................................................................................ 124
6.14 L’INTERFEROMETRIA SAR ........................................................................................................ 125
6.14.1 Stima dell’altezza topografica mediante l’uso del SAR ....................................................... 125
6.15 LA POLARIMETRIA SAR ............................................................................................................ 127
6.15.1 Principi di base della polarimetria SAR ................................................................................ 127
6.15.1.1 Introduzione alle onde elettromagnetiche e alle loro proprietà.......................................... 127
6.15.1.2 L’ellisse di polarizzazione ................................................................................................. 128
6.15.1.3 La polarizzazione nei sistemi radar .................................................................................... 130
6.15.1.3.1 Il modo HH ..................................................................................................................... 130
6.15.1.3.2 Il modo VV ..................................................................................................................... 131
6.15.1.3.3 Il modo HV ..................................................................................................................... 131
6.15.1.3.4 Il modo VH ..................................................................................................................... 132
6.15.1.4 Lo stato di polarizzazione .................................................................................................. 132
6.15.1.5 La diffusione polarimetrica ................................................................................................ 133
6.15.1.6 La matrice di diffusione (Scattering Matrix) ..................................................................... 134
6.15.1.6.1 Convenzione nelle coordinate ......................................................................................... 135
6.15.2 I dati polarimetrici espressi nel dominio della potenza......................................................... 135
6.15.2.1 Le matrici di covarianza e di coerenza............................................................................... 135
6.15.2.2 Le matrici di Stokes e di Mueller ....................................................................................... 137
6.15.2.3 Compressione dei dati e formati di archiviazione.............................................................. 137
6.15.3 La sintesi di polarizzazione ................................................................................................... 137
6.15.4 I parametri polarimetrici ....................................................................................................... 138
6.15.4.1 La potenza totale ................................................................................................................ 138
6.15.4.2 Il coefficiente di correlazione di co-polarizzazione ........................................................... 138
6.15.4.3 La differenza di fase di co-polarizzazione ......................................................................... 139
6.15.4.4 Il grado di polarizzazione................................................................................................... 139
6.15.4.5 Il coefficiente di variazione................................................................................................ 139
6.15.5 L’interpretazione delle immagini polarimetriche ................................................................. 140
6.15.5.1 La calibrazione dei dati ...................................................................................................... 140
6.15.5.2 L’interpretazione visuale.................................................................................................... 141
6.15.5.3 L’interpretazione basata sui modelli di diffusione ............................................................. 142
6.15.5.3.1 La decomposizione di Cloude ......................................................................................... 143
6.15.6 Gli algoritmi di classificazione ............................................................................................. 143
6.15.6.1 La classificazione non supervisionata basata sui parametri H/A/α ................................... 144
4
6.15.6.2 La classificazione supervisionata basata sul criterio a Massima Verosimiglianza di Bayes
.......................................................................................................................................................... 147
6.15.6.3 Un algoritmo di classificazione combinato ........................................................................ 148
6.15.7 Le applicazioni della polarimetria SAR ................................................................................ 150
6.15.7.1 Applicazioni in agricoltura................................................................................................. 151
6.15.7.1.1 Introduzione .................................................................................................................... 151
6.15.7.1.2 La salvaguardia del suolo: la coltivazione del suolo e il residuo di vegetazione............ 151
6.15.7.1.3 La produttività delle colture/variazione all’interno di un campo .................................... 153
6.15.7.2 Applicazioni al ghiaccio marino ........................................................................................ 155
6.15.7.2.1 Introduzione .................................................................................................................... 155
6.15.7.2.2 Analisi polarimetriche per il ghiaccio marino................................................................. 156
6.15.7.2.3 Ambiguità tra ghiaccio e acqua ....................................................................................... 156
6.15.7.2.4 Strutture e tipi di ghiaccio ............................................................................................... 158
6.15.7.2.5 La classificazione del ghiaccio marino ........................................................................... 159
6.15.7.3 Applicazioni allo studio delle foreste................................................................................. 163
6.15.7.3.1 Dipendenza dalla frequenza ............................................................................................ 163
6.15.7.3.2 Dipendenza dalla polarizzazione .................................................................................... 164
6.15.7.3.3 I parametri polarimetrici ................................................................................................. 164
6.15.7.4 Idrologia ............................................................................................................................. 166
6.15.7.4.1 La mappatura dell’umidità del suolo .............................................................................. 166
6.15.7.4.2 La mappatura della neve ................................................................................................. 169
6.16 IL RADAR METEOROLOGICO ....................................................................................................... 170
6.16.1 Stima di precipitazione tramite il radar meteorologico ......................................................... 171
6.16.2 Previsione di precipitazione tramite radar meteorologico .................................................... 175
6.16.3 I Radar meteo Doppler .......................................................................................................... 176
6.16.3.1 L’effetto Doppler ............................................................................................................... 176
6.16.4 Alcuni radar meteorologici ................................................................................................... 177
6.16.4.1 Il radar meteo a Spino d’Adda (Cr) ................................................................................... 177
6.16.4.2 Radar di Gattatico (RE)...................................................................................................... 178
6.16.4.3 La rete radar britannica ...................................................................................................... 178
6.16.4.4 La rete radar svizzera ......................................................................................................... 179
PARTE SECONDA........................................................................................................................ 180
L’ELABORAZIONE DELLE IMMAGINI TELERILEVATE ................................................ 180
CAPITOLO 7 ................................................................................................................................. 181
LA CORREZIONE DELLE DISTORSIONI ............................................................................................. 181
7.1 INTRODUZIONE............................................................................................................................ 181
7.2 LE CORREZIONI GEOMETRICHE .................................................................................................... 181
7.2.1 La georeferenziazione ............................................................................................................. 181
7.2.2 La geocodifica ......................................................................................................................... 183
7.3 LE CORREZIONI RADIOMETRICHE ................................................................................................ 186
7.3.1 La calibrazione radiometrica ................................................................................................... 186
7.3.2 L’equalizzazione del sensore .................................................................................................. 186
7.3.3 Linee e pixel saltati ................................................................................................................. 187
7.3.4 La correzione atmosferica ....................................................................................................... 188
CAPITOLO 8 ................................................................................................................................. 191
5
MIGLIORAMENTO E VISUALIZZAZIONE DELLE IMMAGINI ............................................................. 191
8.1 INTRODUZIONE ............................................................................................................................ 191
8.2 LA PERCEZIONE DEL COLORE....................................................................................................... 192
8.2.1 Modello tri-stimolo ................................................................................................................. 192
8.2.1.1 Lo spazio dei colori .............................................................................................................. 193
8.2.1.2 RGB ..................................................................................................................................... 193
8.2.2 IHS .......................................................................................................................................... 194
8.3 LA VISUALIZZAZIONE DELLE IMMAGINI ....................................................................................... 195
8.3.1 L’istogramma .......................................................................................................................... 195
8.4 VISUALIZZAZIONE DI IMMAGINI MONOBANDA ............................................................................. 197
8.4.1 I colori compositi .................................................................................................................... 198
8.5 TECNICHE DI ENFATIZZAZIONE DELLE IMMAGINI......................................................................... 199
8.5.1 Lo stiramento (stretch) ............................................................................................................ 200
8.5.1.1 L’enfatizzazione del contrasto lineare ................................................................................. 202
8.5.1.2 L’enfatizzazione del contrasto logaritmica ed esponenziale................................................ 203
8.5.2 L’equalizzazione ..................................................................................................................... 203
8.5.3 Histogram Matching ............................................................................................................... 204
8.5.4 Operazioni coi filtri ................................................................................................................. 205
8.5.4.1 I filtri passa basso ................................................................................................................. 206
8.5.4.2 Il filtro passa alto.................................................................................................................. 206
8.5.4.3 Filtro direzionale .................................................................................................................. 206
8.5.5 Riduzione del rumore .............................................................................................................. 207
8.5.6 Miglioramento dei bordi ......................................................................................................... 207
8.6 LE TESSITURE .............................................................................................................................. 208
8.6.1 La matrice delle co-occorrenze ............................................................................................... 208
8.7 GLI OPERATORI MORFOLOGICI..................................................................................................... 214
8.7.1 Definizione di filtro morfologico ............................................................................................ 214
8.7.2 Definizioni binarie di base e operatori .................................................................................... 214
8.7.3 Dilatazione binaria .................................................................................................................. 215
8.7.4 Erosione binaria ...................................................................................................................... 215
8.7.5 Dilatazione ed erosione in scala di grigio ............................................................................... 215
8.7.6 Operazioni di apertura (opening) e chiusura (closing)............................................................ 216
8.8 IL MIGLIORAMENTO DELLA RISOLUZIONE E LA RILEVAZIONE DEI CAMBIAMENTI......................... 217
8.8.1 La trasformazione IHS ............................................................................................................ 217
8.8.2 La Trasformazione Spectral Merge......................................................................................... 219
8.8.3 Il “change detection” o rilevazione dei cambiamenti ............................................................. 219
CAPITOLO 9 ................................................................................................................................. 224
LA CLASSIFICAZIONE DELLE IMMAGINI DIGITALI .......................................................................... 224
9.1 INTRODUZIONE ............................................................................................................................ 224
9.2 PRINCIPI DELLA CLASSIFICAZIONE DI IMMAGINI .......................................................................... 224
9.2.1 Spazio delle immagini ............................................................................................................. 224
9.2.2 Caratteristiche dello spazio ..................................................................................................... 224
9.2.2.1 Distanze e gruppi nello spazio immagine ............................................................................ 225
9.2.3 Alcune definizioni ................................................................................................................... 226
9.2.4 La firma spettrale e la separabilità tra le classi ....................................................................... 226
9.3 VARIANZA E COVARIANZA .......................................................................................................... 227
9.4 BASI GEOMETRICHE DELLA CLASSIFICAZIONE ............................................................................. 227
9.5 CLASSIFICAZIONE DI IMMAGINI ................................................................................................... 228
9.6 IL PROCESSO DELLA CLASSIFICAZIONE DELLE IMMAGINI ............................................................. 229
6
9.7 PREPARAZIONE PER LA CLASSIFICAZIONE DELLE IMMAGINI ........................................................ 229
9.8 LA CLASSIFICAZIONE NON SUPERVISIONATA ............................................................................... 230
9.8.1 Il Classificatore K-means ........................................................................................................ 230
9.8.2 Il Fuzzy C-means .................................................................................................................... 231
9.8.3 Il Classificatore Isodata ........................................................................................................... 231
9.9 LA CLASSIFICAZIONE SUPERVISIONATA ....................................................................................... 231
9.9.1 Siti di addestramento (o campioni di addestramento) ............................................................. 232
9.10 GLI ALGORITMI DI CLASSIFICAZIONE SUPERVISIONATA ............................................................. 233
9.10.1 Il classificatore Parallelepipedo ............................................................................................ 233
9.10.2 Classificatore Minimum Distance to Mean (minima distanza dalla media) ......................... 233
9.10.3 Il classificatore Maximum Likelihood (massima verosimiglianza) ...................................... 234
9.10.4 Il Classificatore di Mahalanobis ........................................................................................... 235
9.10.5 Il classificatore Spectral Angle Mapper (SAM) ................................................................... 235
9.10.6 Il classificatore Binary Encoding .......................................................................................... 236
9.10.7 Valutazione dei risultati ........................................................................................................ 236
9.10.8 Problemi nella classificazione delle immagini...................................................................... 238
9.11 L’APPROCCIO NEURALE ............................................................................................................. 238
9.11.1 La rete Fuzzy Artmap ........................................................................................................... 239
9.11.2 Parametri ed operatori ........................................................................................................... 240
9.11.3 Formato dei pattern di ingresso e uscita................................................................................ 241
9.11.4 Algoritmo .............................................................................................................................. 242
9.12 APPLICAZIONI ALLA VEGETAZIONE ........................................................................................... 242
9.12.1 Operazioni tra bande ............................................................................................................. 242
9.12.2 Gli indici di vegetazione ....................................................................................................... 243
9.12.2.1 Gli indici intrinseci............................................................................................................. 243
9.12.2.2 Indici legati alla linea dei suoli .......................................................................................... 244
9.12.2.3 Indici corretti per effetti atmosferici .................................................................................. 245
9.13 I DATI IPERSPETTRALI ................................................................................................................ 245
9.14 IL SENSORE AVIRIS .................................................................................................................. 246
9.15 IL DAIS ...................................................................................................................................... 247
9.16 SENSORI IPERSPETTRALI DA SATELLITE ..................................................................................... 248
7
PARTE PRIMA
GLI STRUMENTI DEL TELERILEVAMENTO
8
CAPITOLO 1
INTRODUZIONE AL TELERILEVAMENTO
1.1 Definizioni di telerilevamento
Tre sono le più comuni definizioni che vengono date per il telerilevamento:
- Il telerilevamento è la scienza di acquisire, elaborare e interpretare immagini che registrano
l’interazione tra l’energia elettromagnetica e la materia;
- Il telerilevamento è la scienza o l’arte di ottenere informazioni circa un oggetto, un’area, o
un fenomeno attraverso l’analisi di dati acquisiti per mezzo di un dispositivo che non è in
contatto con l’oggetto, l’area o il fenomeno sotto esame.
- Il telerilevamento è l’insieme della strumentazione, delle tecniche e dei metodi per osservare
la superficie terrestre a distanza e per interpretare le immagini o i valori numerici ottenuti in
modo da acquisire informazioni significative di oggetti particolari sulla Terra.
Comune alle tre definizioni è il fatto che i dati riguardanti le caratteristiche della superficie terrestre
sono acquisiti con un dispositivo che non è in contatto con gli oggetti che si misurano. Il risultato è
solitamente immagazzinato sotto forma di immagini. Le caratteristiche misurate dai sensori sono
l’energia elettromagnetica emessa e riflessa dalla superficie terrestre. Questa energia riguarda
alcune parti specifiche dello spettro elettromagnetico: di solito la luce visibile, ma anche
l’infrarosso o le onde radio.
L’energia elettromagnetica generata da una opportuna sorgente (o dall’oggetto stesso) interagisce
con l’oggetto osservato (fenomeni di riflessione, diffusione, assorbimento ecc) e di conseguenza si
modifica. Tale radiazione si propaga e viene misurata e registrata da un sensore remoto.
Analizzando e interpretando tali misure di campo elettromagnetico è possibile risalire alle proprietà
di interesse dell’oggetto. Per particolari applicazioni geofisiche vengono usati altri tipi di campo,
quali quello gravitazionale e magnetico della Terra e il campo di pressione (onde acustiche); basti
pensare al sonar o semplicemente all’eco scandaglio per il sondaggio del fondale marino da
imbarcazioni.
L’oggetto osservato può essere di varia natura; noi ci riferiremo a quei casi in cui esso è costituito
dal nostro pianeta, la Terra, nelle sue diverse componenti (atmosfera, terre emerse, biosfera, oceani,
ghiacci) che interagiscono tra loro attraverso processi chimico-fisici fondamentali per la
conservazione della vita sul pianeta.
1.2 Metodi di rilevazione diretta e di Telerilevamento
In linea di principio, si può dire che esistano due categorie principali di acquisizione di dati spaziali:
- Metodi di rilevazione diretta, come il fare osservazioni di campo, effettuando misurazioni in
situ e rilevamenti topografici. Quando si usano questi metodi, si dice che si opera
nell’ambiente del mondo reale.
9
- Metodi del telerilevamento, che sono basati sull’uso di immagini acquisite da sensori come
camere aeree, scanner o radar. Utilizzare un approccio di questo tipo significa che
l’informazione viene estratta dai dati rappresentati sotto forma di immagini, che
costituiscono una rappresentazione limitata del mondo reale.
Il telerilevamento, nell’accezione indicata nel precedente paragrafo, è pertanto una delle tecnologie
in grado di acquisire informazioni sull’ambiente terrestre. Si può trattare di misure di specifiche
grandezze geofisiche (ad esempio la temperatura del mare), di rappresentazioni e rilevamenti del
territorio (ad esempio le carte topografiche e tematiche, i modelli digitali di elevazione del terreno),
di informazioni di natura statistica e inventari (ad esempio la stima del raccolto del grano in una
determinata area geografica) e di informazioni di tipo ancora diverso. Queste informazioni hanno
rilevanza di per sé oppure in quanto forniscono i dati di ingresso a modelli ambientali, ad esempio
per la previsione meteorologica, delle variazioni climatiche o per la valutazione di un determinato
rischio ambientale. E’ noto come molte di queste informazioni possano essere raccolte anche con
altre tecniche, dette tecniche convenzionali. Ad esempio la temperatura del mare o dell’aria viene
misurata da stazioni meteo-marine, la cartografia si realizza con tecniche fotogrammetriche e con
l’ausilio di rilievi topografici, mentre gli inventari agricoli si realizzano anche con rilevamenti
campionari sul territorio. Il telerilevamento deve perciò essere inteso come una tecnica
complementare a quelle già esistenti e che in certi casi risulta particolarmente vantaggiosa sia dal
punto di vista della qualità dell’informazione che dal punto di vista economico. Le informazioni
ottenute per mezzo del telerilevamento sono sempre associate alla loro localizzazione geografica e
spesso sono anche rappresentate in forma cartografica. Con lo sviluppo delle tecnologie di misura
geofisica e di rilievo esse stanno diventando sempre più dettagliate e voluminose in termini di mole
di dati. Inoltre la “domanda” di esse da parte di diversi soggetti (pubblici e privati) è in continuo
aumento e devono pertanto essere gestite, aggiornate e rese fruibili anche in postazioni remote. I
sistemi dedicati a questo sono i cosiddetti “Sistemi Informativi Territoriali” o SIT (in inglese GIS:
Geographycal Information System) che utilizzano i dati di Osservazione della Terra ripresi da
sensori di telerilevamento come una delle possibili sorgenti di informazione. Va sottolineato quindi
come la geofisica, la fotogrammetria, la topografia, la cartografia, i GIS e il telerilevamento
costituiscano un insieme di discipline e tecnologie che concorrono a rilevare e gestire le
informazioni e a studiare i processi ambientali.
1.2.1 I vantaggi del telerilevamento
I maggiori vantaggi del telerilevamento rispetto alle misure convenzionali sono associabili a queste
sue peculiarità:
- Distanza del sensore dall’oggetto che permette di osservare territori remoti e di difficile
accesso.
- Possibilità di osservare grandi porzioni di superficie terrestre in tempi brevi con sensori
montati su aereo e su satellite (vista sinottica).
- Possibilità di misure frequenti nel tempo con i sensori satellitari, e di misure praticamente
continue con sensori posti a terra.
- Nessuna perturbazione (o perturbazione del tutto trascurabile) dell’oggetto osservato.
10
- Possibilità di effettuare misure di grandezze in due dimensioni (immagini, come ad esempio
mappe della temperatura del mare) e talvolta anche nella terza dimensione (sondaggi
verticali, come nel caso dei profili verticali della temperatura nell’atmosfera).
1.2.2 Gli svantaggi del telerilevamento
- Una grande accuratezza dei dati è ottenibile solo dopo una campagna di validazione sul
terreno
- I dati analizzati si riferiscono quasi sempre alle superfici degli oggetti studiati (roccia, suolo,
alterazione, ecc..), solo in pochi casi si riesce ad avere informazioni sull’interno (ad
esempio, osservazione del pack artico con radar polarimetrico).
- Le condizioni di acquisizione influenzano la qualità del dato (illuminazione, rilievo,
pendenza e giacitura superfici, condizioni meteo, ombre).
1.3 L’Osservazione della Terra mediante tecniche di telerilevamento
Come noto, la Terra è composta da un certo numero di sistemi (atmosfera, idrosfera, criosfera,
biosfera) che interagiscono tra loro attraverso processi fondamentali (come il ciclo idrologico
dell’acqua, i processi biochimici nell’atmosfera). Il telerilevamento dallo spazio è in grado di
misurare diversi parametri chimico-fisici in maniera sinottica offrendo uno strumento unico per
studiare lo stato del pianeta nella sua interezza ed analizzare e prevedere i cambiamenti climatici.
Questa concezione del telerilevamento da satellite è ormai universalmente identificata con il
termine Osservazione della Terra, (generalmente indicato con la sigla EO, che deriva dalla sua
denominazione anglosassone Earth Observation) con il quale le grandi Agenzie descrivono tutte le
missioni spaziali dedicate appunto al rilevamento del pianeta Terra. L’obiettivo è pertanto quello di
misurare tutte le grandezze in grado di controllare l’evoluzione dei processi suddetti attraverso un
insieme di piattaforme spaziali recanti a bordo sensori opportuni. I sistemi di Osservazione della
Terra dallo spazio, specialmente con lo sviluppo delle tecnologie dei sensori e il miglioramento
delle capacità di osservare dettagli a terra, hanno acquistato anche un ruolo nelle applicazioni su
media e grande scala, come supporto alla gestione del territorio ed al controllo di fenomeni su scala
locale. L’identificazione dei parametri e delle grandezze geofisiche da misurare, la definizione delle
caratteristiche spaziali e temporali del campionamento di tali grandezze e l’identificazione,
progettazione e realizzazione delle tecnologie di telerilevamento in grado di soddisfare tali requisiti
sono i passi fondamentali nella realizzazione di un sistema di Osservazione della Terra.
11
CAPITOLO 2
L’ENERGIA ELETTROMAGNETICA E IL TELERILEVAMENTO
2.1 Introduzione
Il telerilevamento dipende da misurazioni dell’energia elettromagnetica (EM), la quale può
assumere forme diverse. La sorgente di energia elettromagnetica più importante per la superficie
terrestre è il Sole, che ci fornisce, ad esempio, la luce (visibile), il calore (sotto forma,
principalmente, di radiazione infrarossa) e la luce ultravioletta (UV), invisibile, che può essere
dannosa per la nostra pelle.
Fig. 2.1 – Un sensore per telerilevamento misura l’energia riflessa o emessa; un sensore attivo ha la sua propria
sorgente di energia
Molti dei sensori usati in applicazioni di telerilevamento misurano la luce del sole riflessa. Alcuni
sensori invece rilevano l’energia emessa dalla Terra stessa (es. i radiometri) o emettono essi stessi
l’energia che interagirà con l’oggetto osservato (es. il radar).
Infatti, la sorgente della radiazione E.M. può essere lo stesso oggetto osservato che, trovandosi ad
una temperatura superiore allo zero assoluto (0° Kelvin) emette spontaneamente energia, o sorgenti
diverse dall’oggetto osservato, di solito il Sole; lo stesso strumento può poi essere dotato di una
sorgente propria di radiazione ed in tal caso si parla di strumenti attivi. Nel primo caso (emissione
termica) evidentemente il sensore (di tipo passivo) rileva le proprietà emissive dell'oggetto. Nel
secondo caso (radiazione proveniente dal Sole) il sensore (ancora di tipo passivo) misura le capacità
dell'oggetto di rispondere ad una eccitazione esterna reirradiando energia E.M., ovvero caratterizza
le proprietà di diffusione (e riflessione) da parte dell'oggetto. La stessa considerazione vale nel terzo
caso ovvero quello di sensore attivo. Ovviamente talvolta il sensore può ricevere allo stesso tempo
radiazione emessa e riflessa da parte dell'oggetto; inoltre tutto ciò che è interposto tra oggetto e
sensore (e quindi l'atmosfera) può contribuire con ulteriore emissione e diffusione sia verso il
sensore che verso l'oggetto, oltre che con assorbimento della radiazione, rendendo estremamente
difficile l'interpretazione del dato rilevato.
Indichiamo con Es l'energia prodotta dalla sorgente, Ea quella prodotta dall'atmosfera verso il basso,
Ea' quella prodotta dall'atmosfera verso l'alto, Ee quella prodotta dalla superficie terrestre; inoltre t
rappresenti la frazione di energia che attraversa l'atmosfera, r quella che viene riflessa dalla
12
superficie ed Et l'energia che raggiunge il sensore. Potremo scrivere, per schematizzare quanto detto
sia pure in maniera molto semplificata:
E t = t (rE i + E e ) + E a'
(2.1)
ove Ei = tE s + E a è l'energia che incide sull'oggetto. Si veda in Fig. 2.2 uno schema del processo
che permette l'acquisizione di informazioni sull'ambiente mediante il telerilevamento. I passi di
correzione strumentale e calibrazione radiometrica permettono di ricavare le proprietà dell’oggetto
osservato (ad esempio per osservazioni della superficie la componente Ee ) a partire dalle uscite del
sensore, depurando queste ultime dell’influenza dei fattori di disturbo elencati sopra; essi
richiedono modelli fisico-quantitativi dei processi di acquisizione (sensore, piattaforma) e di effetti
ambientali (generazione della radiazione E.M., interazione con la superficie e l'atmosfera). Esistono
poi diversi approcci all'interpretazione dei dati telerilevati, alcuni dei quali di tipo fisicoquantitativo tendenti all'estrazione di valori di parametri geofisici, altri di tipo statistico o di
interpretazione visiva delle immagini basata sull'esperienza. In entrambi i casi tuttavia è necessaria
una base di conoscenza delle proprietà della radiazione E.M., della maniera con cui essa viene
generata e dei processi di interazione con gli oggetti osservati e con il mezzo di propagazione.
Fig. 2.2 – Le tappe del processo di telerilevamento
2.2 L’energia elettromagnetica
Com’è noto, la radiazione elettromagnetica consiste di un campo magnetico e di un campo elettrico
che oscillano in maniera coordinata; il numero di oscillazioni in un secondo prende il nome di
frequenza. La radiazione elettromagnetica può avere frequenze diverse, che vanno dalle più piccole
(al limite zero quando siamo di fronte ad un campo statico, ad esempio quello prodotto da cariche
elettriche ferme), alle più elevate. Radiazioni E.M. di frequenze diverse generano diversi fenomeni
di interazione con i mezzi in cui si propagano e di scambio di energia e sono utilizzate per diverse
applicazioni. Le frequenze più basse, ad esempio, sono usate nell'ambito delle comunicazioni via
radio, mentre le più alte sono i raggi cosmici ed i raggi gamma.
L'utilizzo di una determinata banda dello spettro elettromagnetico per il telerilevamento è legato a
quattro condizioni fondamentali:
-
l'esistenza della sorgente della radiazione (eventualmente artificiale);
13
-
l'esistenza di tecnologie per la ricezione della radiazione;
-
la trasparenza dell'atmosfera (nel caso di osservazione della superficie terrestre);
-
l'allocazione nelle bande ammesse compatibilmente con altre applicazioni quali le
telecomunicazioni, i sistemi militari, ecc.
2.2.1 Alcune definizioni
L’energia è la capacità di compiere lavoro e si misura in Joule (J).
L’energia radiante invece è l’energia associata ad un’onda elettromagnetica.
Si definisce poi flusso di energia radiante l’energia trasportata da un’onda elettromagnetica
nell’unità di tempo. Non è altro che la potenza associata all’onda elettromagnetica, quindi si misura
in Watt (W).
Quando l’emissione di energia elettromagnetica non è omogenea sulla superficie conviene definire
la densità di flusso radiante, ossia il flusso radiante emesso od assorbito per unità di superficie.
Essendo una densità di potenza, si misura in W/m2.
Nota: Quando il flusso radiante è incidente, si usa denominare la densità di flusso radiante con il
termine irradianza, mentre quando il flusso è uscente si usa il termine emittanza. Nonostante la
diversa nomenclatura, dal punto di vista fisico l’irradianza e l’emittanza sono grandezze equivalenti.
La radianza è definita come la densità di flusso radiante emessa da una unità di superficie vista
attraverso un angolo solido unitario.
La riflettanza è il rapporto dimensionale tra l’irradianza (o densità di flusso radiante incidente) e
l’emittanza (o densità di flusso radiante uscente).
Va detto che gli strumenti del telerilevamento misurano la radianza incidente, mentre l’elaborazione
successiva è volta a ricavarne la riflettanza, obiettivo spesso non facilmente raggiungibile.
2.2.2 Onde e fotoni
L’energia elettromagnetica può essere rappresentata in due modi: come onde o come energia portata
da delle particelle chiamate fotoni.
Nel modello delle onde, si considera che l’energia elettromagnetica si propaghi attraverso lo spazio
sotto forma di onde sinusoidali. Tali onde sono caratterizzate da due campi, quello elettrico (E) e
quello magnetico (M), perpendicolari l’uno all’altro. È per questo motivo che si utilizza il termine
energia elettromagnetica. La vibrazione di entrambi i campi è perpendicolare alla direzione di moto
dell’onda. Entrambi i campi si propagano attraverso lo spazio alla velocità della luce c, che è pari a
299,790 m s-1 e può essere arrotondata a 3 ⋅ 108 m s-1.
Fig. 2.3 – I vettori di campo elettrico (E) e magnetico (M) di un’onda elettromagnetica
14
La caratteristica più importante delle onde elettromagnetiche ai fini del telerilevamento è la
lunghezza d’onda λ, definita come la distanza tra due picchi successivi dell’onda. La lunghezza
d’onda si misura in metri (m), o in sottomultipli del metro, come i nanometri (nm, 10-9 metri) o i
micrometri (µm, 10-6 metri).
La frequenza, ν, è il numero di onde complete che passano per un punto nell’unità di tempo. La
frequenza è di solito misurata in hertz (Hz), che è equivalente ad un ciclo al secondo. Il periodo (T)
è il tempo necessario affinchè un’onda completa passi per un punto. Dato che la velocità della luce
nel vuoto è costante, la lunghezza d’onda e la frequenza nel vuoto sono inversamente proporzionali:
c = λ ⋅v
(2.2)
In questa equazione, c è la velocità della luce, λ è la lunghezza d’onda (m), e v è la frequenza
(cicli al secondo, Hz). Più piccola è la lunghezza d’onda, più alta è la frequenza. Viceversa,
maggiore è la lunghezza d’onda, più bassa è la frequenza.
Una proprietà importante delle onde elettromagnetiche è la polarizzazione, che rappresenta la
direzione lungo la quale oscilla il campo elettrico durante la propagazione dell’onda. La
polarizzazione viene trattata nel dettaglio nel § 6.19.
Fig. 2.4 – Relazioni tra lunghezza d’onda, frequenza ed energia
Molte caratteristiche dell’energia elettromagnetica possono essere descritte usando il modello delle
onde, come visto sopra. Per alcuni scopi, invece, l’energia elettromagnetica è modellata più
convenientemente con la teoria delle particelle, nella quale l’energia elettromagnetica è composta
da unità discrete chiamate fotoni. La quantità di energia portata da un fotone di una specifica
lunghezza d’onda è data da:
c
Q = h⋅v = h⋅
(2.3)
λ
dove Q è l’energia di un fotone (J), h è la costante di Planck (6,6262 ⋅ 10-34 J s) e v la frequenza
(Hz). Dall’equazione scritta sopra, si vede che a lunghezze d’onda maggiori corrisponde un minore
contenuto energetico del fotone. I raggi Gamma (intorno a 10-9 m) sono i più energetici, mentre le
radio onde (> 1 m) le meno energetiche. Una conseguenza importante per il telerilevamento è che
per alcune tecnologie, come ad esempio sensori a CCD, è molto più difficile misurare le onde
elettromagnetiche lunghe piuttosto che quelle corte perché il singolo fotone a lunghezza d’onda
minore non ha energia sufficiente per attivare il sensore.
2.3 Sorgenti di energia EM
Le molecole di tutti i corpi con temperatura sopra lo zero assoluto (0° K o gradi Kelvin) sono in
movimento attorno alla loro posizione media; l’entità di tale movimento, che è detto agitazione
termica, determina la temperatura del corpo. Un effetto secondario dell’agitazione termica è
l’emissione di radiazioni che coprono porzioni di spettro variabili a seconda della temperatura. La
potenza totale emessa per unità di superficie viene detta eccitanza, quando è riferita a tutto lo
spettro, eccitanza spettrale quando è relativa ad una specifica lunghezza d’onda. L’eccitanza
spettrale teorica è determinata dalla così detta legge di Planck:
15
aλ−5
Mλ =
e
(b λT )
(2.4)
−1
Mλ = eccitanza spettrale [W m-2 µm-1]
a = 3,742 × 10-16 W m-2
b = 1,4338 × 10-2 m K
λ = lunghezza d’onda (m)
T = temperatura in °K
Integrando sullo spettro l’eccitanza spettrale si ottiene l’eccitanza. La legge di Planck è valida per il
così detto corpo nero, ovverosia un corpo ideale in grado di assorbire tutta l’energia
elettromagnetica incidente. Per i corpi reali la legge di Planck non è rigorosamente valida, tuttavia
nella maggior parte dei casi è ancora una buona approssimazione, e rappresenta sempre il punto di
partenza dal quale si può derivare il comportamento dell’oggetto studiato.
Fig. 2.5 – Curve di radiazione di un corpo nero basate sulla legge di Planck
L’emissività è il rapporto tra il flusso radiante di un oggetto e quello di un corpo nero alla stessa
temperatura, ossia è una misura di quanta radiazione è emessa da un corpo confrontata con quella
che emetterebbe un corpo nero alla stessa temperatura. La quantità di energia irradiata da un oggetto
dipende dalla sua temperatura assoluta e dalla sua emissività, ed è una funzione della lunghezza
d’onda.
Tipicamente le superfici degli oggetti presentano un valore di emissività compreso
approssimativamente fra 0,1 e 0,95.
All’aumentare della temperatura aumenta l’intervallo delle radiazioni elettromagnetiche emesse e la
quantità totale di energia mentre diminuisce la lunghezza d’onda relativa al picco di massima
eccitanza.
L’eccitanza totale è descritta dall’equazione di Stefan-Boltzmann, ottenuta integrando su tutto lo
spettro l’equazione di Planck:
M = σT 4
(2.5)
σ = costante di Stefan-Boltzmann (5,67 × 10-8 W m-2K-4)
T = temperatura in °K
La Fig. 2.5 mostra la radiazione emessa da un corpo nero a temperature diverse. Sull’asse
orizzontale sono riportate le lunghezze d’onda, mentre sull’asse verticale la quantità di energia per
unità di area. L’area sotto la curva, quindi, rappresenta la quantità totale di energia emessa ad una
specifica temperatura. Si può vedere che una temperatura più alta corrisponde ad un contributo più
16
elevato delle lunghezze d’onda più corte, ed a un picco più elevato; il massimo di eccitanza a 400°C
è circa 4µm, mentre quello a 1000°C è 2,5µm.
Anche il sole e la terra, in quanto corpi a temperature superiori allo zero assoluto, emettono
radiazione elettromagnetica, con picchi rispettivamente a 0,5 µm (coincidente con il picco di
sensibilità dell’occhio umano!) ed a 14 µm.
2.4 Lo spettro elettromagnetico
Tutto l’intervallo possibile di lunghezze d’onda, da zero ad infinito, è chiamato generalmente
spettro elettromagnetico.
Fig. 2.6 – Lo spettro elettromagnetico
La parte ottica dello spettro EM è la parte di spettro in cui possono essere applicate le leggi
dell’ottica. Tali leggi riguardano fenomeni, come la riflettanza e la rifrazione, che possono essere
usati per mettere a fuoco la radiazione. L’intervallo ottico si estende dai raggi X (0,02 µm)
attraverso la parte del visibile fino al lontano infrarosso (1000 µm) incluso. La parte di spettro EM
dell’UV (ultravioletto) ha le lunghezze d’onda più corte ancora utilizzate per il telerilevamento.
L’intervallo delle microonde copre le lunghezze d’onda che vanno da 1 mm a 1 m. La regione
visibile dello spettro è comunemente chiamata “luce” e occupa una porzione relativamente piccola
dello spettro EM. È importante notare come questa sia l’unica parte dello spettro a cui sia possibile
associare il concetto di colore. Le lunghezze d’onda più lunghe utilizzate per il telerilevamento sono
quelle nelle regioni dell’infrarosso termico e delle microonde. L’infrarosso termico dà informazioni
relative alla temperatura della superficie che può essere messa in relazione con la composizione dei
minerali delle rocce o con la condizione della vegetazione. Le microonde invece possono dare
informazioni circa la rugosità delle superfici e le proprietà di queste ultime come per esempio il
contenuto di acqua.
Ricapitolando, si può dire che il telerilevamento si occupa prevalentemente delle bande delle
microonde, dell’infrarosso (vicino e termico), del visibile e, più raramente, dell’ultravioletto, oltre il
quale non si va praticamente mai.
17
Ultravioletto: Lunghezze d’onda da 0,4 µm a scendere, fino circa a 1 nm, dove si ha la transizione
verso i raggi X. Le frequenze vanno, in modo corrispondente, da 1015 a 1017 Hz.
I raggi ultravioletti hanno una propagazione simile a quella della luce, ma subiscono una forte
attenuazione atmosferica; sono prevalentemente usati per la spettrometria.
Visibile: Lunghezze d’onda tra 0,75 µm (rosso) e 0,4 µm (violetto), frequenze tra 4 × 1014 e 7 × 1014
Hz. La propagazione è di tipo ottico; l’attenuazione in atmosfera è più forte alle lunghezze d’onda
più corte ma di solito accettabile, mentre il rumore cresce con la frequenza.
Infrarosso: si distingue in:
− IR VICINO (0,7 – 3 µm, o 4 × 1014 – 1 × 1014 Hz) o RIFLESSO: propagazione di tipo ottico,
prevalentemente emesso da sorgente esterna e riflesso dal corpo osservato;
− IR TERMICO (3 – 100 µm, o 1 × 1014 – 3 × 1012 Hz) o EMESSO, prevalentemente emesso per
irraggiamento spontaneo del corpo osservato.
L’infrarosso vicino (NIR) si comporta come la radiazione visibile, viene riflesso dalla superficie
terrestre e può essere rilevato da speciali pellicole fotografiche.
L’infrarosso medio o termico viene emesso in quantità significativa anche dalla superficie terrestre
e per questo viene anche detto infrarosso emesso.
Gli impieghi più diffusi sono di classificazione per l’IR vicino, di studio dell’ambiente e
meteorologici per l’IR termico.
Microonde: lunghezza d’onda da 1mm a 1 m, frequenze da 3 × 1011 a 3 × 108 Hz. La loro
propagazione si studia con i metodi di studio dei campi elettromagnetici; sono ampiamente
utilizzate per il telerilevamento, sia attivo (SAR, InSAR,..) sia passivo (radiometri).
2.5 Interazione dell’energia nell’atmosfera
La sorgente più importante di energia è il Sole. Prima che l’energia del Sole raggiunga la superficie
terrestre, possono aversi tre tipi di interazione con l’atmosfera: l’assorbimento, la trasmissione e la
diffusione o scattering. L’energia trasmessa viene quindi riflessa o assorbita dal materiale della
superficie.
Fig. 2.7 – Interazioni dell’energia nell’atmosfera e sul terreno.
18
2.5.1 Assorbimento e trasmissione
L’energia elettromagnetica, viaggiando attraverso l’atmosfera, viene parzialmente assorbita da varie
molecole: le molecole presenti nell’atmosfera che assorbono la radiazione solare in modo più
efficiente sono l’ozono (O3), il vapore acqueo (H2O) e il biossido di carbonio (CO2). In Fig. 2.8 si
dà una rappresentazione schematica della trasmissione atmosferica nella regione che copre le
lunghezze d’onda comprese nell’intervallo tra 0 e 22 µm.
Fig. 2.8 – Trasmissione atmosferica espressa in percentuale
Come si può osservare da questa figura circa metà dello spettro considerato non viene utilizzato per
gli scopi del telerilevamento della superficie terrestre, semplicemente perché nessuna delle
corrispondenti energie può penetrare l’atmosfera. Solo le regioni di lunghezze d’onda fuori dalle
bande principali di assorbimento dei gas atmosferici possono essere usate per il telerilevamento.
Queste regioni vengono chiamate finestre di trasmissione atmosferica5 e includono:
− Una finestra nel visibile e nella regione dell’infrarosso riflesso, tra 0,4 – 2 µm. Questa è la
finestra in cui i sensori ottici operano come l’occhio umano.
− Tre finestre nella regione dell’infrarosso termico, precisamente due finestre vicine intorno ai
3 e 5 µm, e una terza, relativamente lontana, finestra che si estende approssimativamente
dagli 8 ai 14 µm.
A causa della presenza dell’umidità atmosferica, le bande di forte assorbimento si trovano a
lunghezze d’onda grandi. Nella regione tra i 22 µm e 1 mm c’è a malapena trasmissione di energia.
La regione più o meno trasparente oltre 1 mm è la regione delle microonde.
2.5.2 Diffusione atmosferica
La diffusione atmosferica ha luogo quando le particelle o le molecole gassose presenti
nell’atmosfera fanno sì che le onde EM vengano indirizzate su un percorso diverso dall’originale.
La quantità di diffusione dipende da numerosi fattori, come la lunghezza d’onda della radiazione, la
quantità di particelle e di gas, e la distanza che la radiazione percorre attraverso l’atmosfera. La
causa primaria della diffusione è la differenza di indice di rifrazione tra il diffusore e il suo intorno.
Per le lunghezze d’onda del visibile, il 100% (nel caso di copertura delle nuvole) e il 5% (in caso di
atmosfera libera) dell’energia ricevuta dal sensore è stato diffuso dall’atmosfera.
Le principali particelle che contribuiscono alla diffusione atmosferica sono:
- Molecole di gas (0,01 µm);
- Aerosoli (0,1 – 1 µm);
- Particelle d’acqua nelle nubi (1 – 10 µm);
- Cristalli di ghiaccio sospeso (1 – 100 µm);
- Grandine (fino a 10 cm).
5
L’atmosfera è sufficientemente trasparente solo in certe porzioni dello spettro, in dipendenza anche delle sue proprietà
(zona climatica, condizioni di nuvolosità e/o pioggia, ecc.). Nelle bande dello spettro in cui l’atmosfera è opaca è
possibile però telerilevare le proprietà dell’atmosfera stessa.
19
È fondamentale il rapporto tra la dimensione delle particelle che causano la diffusione e la
lunghezza d’onda della radiazione in transito.
Dopo aver definito il parametro
α = 2π r λ
(2.7)
è possibile suddividere i fenomeni di diffusione in:
- α < 0,001
diffusione trascurabile;
- 0,001 < α < 0,1
diffusione di Rayleigh;
- 0,1 < α < 50
diffusione di Mie;
- α > 50
si usa l’ottica geometrica.
Il tipo di diffusione dipende da:
− Il tipo dei diffusori (in funzione della radiazione)
− Il numero di eventi di diffusione (se la radiazione viene diffusa una volta o molte volte)
− La composizione dei diffusori:
La diffusione in un solido trasparente per mezzo di oscillazioni (fononi) si chiama
“diffusione di Brillouin”
La diffusione in cui la lunghezza d’onda non cambia si chiama “diffusione di
Rayleigh”
Possono verificarsi tre tipi di diffusione: la diffusione di Rayleigh, quella di Mie e quella non
selettiva.
2.5.3 Diffusione di Rayleigh
Questo tipo di diffusione predomina sugli altri quando la radiazione EM interagisce con particelle
che sono più piccole della lunghezza d’onda della luce in ingresso. L’effetto della diffusione di
Rayleigh è inversamente proporzionale alla quarta potenza della lunghezza d’onda: le lunghezze
d’onda più corte vengono diffuse di più di quelle più lunghe.
Fig. 2.9 – La diffusione di Rayleigh è causata da particelle più piccole della lunghezza d’onda ed è massima per
lunghezze d’onda piccole.
In assenza di particelle e quindi di diffusione il cielo apparirebbe nero. Durante il giorno, i raggi del
Sole attraversano l’atmosfera e la diffusione di Rayleigh fa sì che da tutte le direzioni una certa
quantità di luce blu-azzurra raggiunga l’osservatore. Il colore della luce diffusa è dovuto al fatto che
le lunghezze d’onda vicine al violetto (con lunghezze d’onda minori) sono diffuse più fortemente
delle altre. Al sorgere del Sole e al tramonto, invece, i raggi del Sole percorrono una distanza
notevolmente maggiore attraverso l’atmosfera, prima di raggiungere la superficie terrestre. Tutte le
lunghezze d’onda più corte vengono diffuse dopo una certa distanza e solo le più lunghe
raggiungono la superficie terrestre. Come risultato di ciò, il cielo appare arancione o rosso.
Fig. 2.10 – La diffusione di Rayleigh fa si che noi percepiamo una luce blu diffusa di giorno ed un sole rosso al
tramonto
20
Nell’ambito del telerilevamento, la diffusione di Rayleigh è quella più importante; essa causa una
distorsione delle caratteristiche spettrali della luce riflessa quando la si confronta con le misurazioni
fatte al suolo: per effetto della diffusione di Rayleigh, le lunghezze d’onda più corte sono
sovrastimate. In generale, la diffusione di Rayleigh diminuisce il contrasto nelle foto, e questo ha un
effetto negativo sulle possibilità di interpretazione. Quando si ha a che fare con dati rappresentati da
immagini digitali, la distorsione delle caratteristiche spettrali della superficie può limitare le
possibilità di classificare tali immagini.
2.5.4 Diffusione di Mie
Si ha diffusione di Mie quando la dimensione prevalente delle particelle è comparabile con la
lunghezza d’onda della radiazione elettromagnetica. Nell’atmosfera, le fonti più importanti di
diffusione di Mie sono i cosi detti aerosol: un miscuglio di gas, vapor acqueo, polveri. Questo tipo
di diffusione è prevalente nella bassa atmosfera, dove la polvere è più abbondante; domina in
presenza di nuvole coprenti e influenza tutto lo spettro compreso tra l’ultravioletto e il vicino
infrarosso. È un tipo di diffusione fortemente anisotropo con lobo principale nella direzione di
transito e con scarsa dipendenza dalla lunghezza d’onda della radiazione. Inoltre è il tipo di
diffusione che si verifica nelle nubi e le fa apparire bianche. È anche la causa dell’alone bianco che
a volte sembra circondare il sole.
Fig. - 2.11 – Effetti diretti e indiretti delle nuvole nel telerilevamento ottico.
Fig. - 2.12 – Schema riassuntivo dei vari tipi di diffusione possibili
21
2.6 Interazioni dell’energia EM con la superficie terrestre
Nelle applicazioni del telerilevamento che riguardano il terreno e l’acqua ciò che ci interessa
particolarmente è la radiazione riflessa perché essa ci fornisce utili informazioni riguardo le
caratteristiche della superficie che stiamo esaminando. La riflessione avviene quando la radiazione
rimbalza sul bersaglio e viene reirradiata; di conseguenza è un fenomeno molto importante, in
quanto è qui che avviene fisicamente la raccolta di informazioni sull’oggetto stesso.
L’assorbimento invece avviene quando la radiazione viene assorbita dal bersaglio.
Un materiale è un riflettore perfetto se è perfettamente liscio (alla lunghezza d’onda dell’onda
incidente), mentre è un diffusore anisotropo se l’intensità luminosa diffusa non dipende dall’angolo
di osservazione. Il tipico (teorico) diffusore anisotropo ha una “superficie Lambertiana” dalla quale
cioè l’intensità luminosa diffusa varia con la legge Lambertiana.
Una sorgente si dice Lambertiana se presenta un’intensità direttamente proporzionale al coseno
dell’angolo dal quale è vista; ciò significa che la radianza è indipendente dall’angolo di vista.
Fig. - 2.13 – Definizione di sorgente lambertiana in termini di intensità in funzione dell’angolo di vista
Indicando con:
L la radianza (Watt ⋅ m-2 ⋅ sr-1);
Φ il flusso radiante (Watt);
ϑ l’angolo formato dalla normale alla superficie e dalla direzione della radianza L (rad);
A l’area (metri quadri);
r
ω l’angolo solido (sr)
la radianza L è definita come:
1
d 2Φ
L =
⋅
r
cos ϑ dAdω
(2.8)
Ai due opposti tipi di materiale definiti sopra corrispondono due opposti tipi di riflessione, che
rappresentano i due estremi del modo in cui l’energia è riflessa da un bersaglio, ossia la riflessione
speculare e quella diffusa. Nel mondo reale, di solito ciò che si osserva è una combinazione di
questi due tipi di riflessione.
- La riflessione speculare, o riflessione a specchio, avviene quando la superficie è liscia (cioè
le sue irregolarità sono piccole rispetto alla lunghezza d’onda) e tutta (o quasi tutta)
l’energia viene rimbalzata via dalla superficie in una singola direzione (angolo di riflessione
pari all’angolo di incidenza, caso (a)). La riflessione speculare può essere causata, ad
esempio, da uno specchio d’acqua o dal tetto di una serra. Ciò dà luogo ad un punto molto
luminoso (detto anche ‘punto caldo’, in inglese hotspot) nell’immagine. Si definisce
pertanto un coefficiente di riflessione speculare come rapporto delle ampiezze del campo
elettrico della radiazione riflessa ed incidente. Questi coefficienti (coefficienti di Fresnel)
22
possono essere espressi in funzione dell'angolo di incidenza, delle proprietà dei due
materiali e della polarizzazione. Nel caso di polarizzazione verticale (che si ha quando il
vettore campo elettrico si trova nel piano dell’incidenza, ossia nel piano individuato dal
raggio incidente e dalla normale alla superficie) esiste un angolo di incidenza che rende
nullo il coefficiente di Fresnel nel caso di mezzo non dissipativo o che comunque determina
un suo minimo se il mezzo sottostante è dissipativo; pertanto, per onde qualunque incidenti
con tale angolo la radiazione riflessa contiene soltanto la componente polarizzata
orizzontalmente, essendo la componente con polarizzazione verticale integralmente
trasmessa; ciò giustifica in molti casi il comportamento di diverse coperture al variare della
polarizzazione. L'onda trasmessa si propaga nel mezzo sottostante la superficie; se questo è
dissipativo, ovvero la costante di propagazione ha una parte reale, tale onda viene attenuata
e si definisce pertanto una dimensione (profondità di penetrazione) oltre la quale la
radiazione viene ridotta di un fattore 1/e (pari a circa 1/2,7). Tale profondità risulta
proporzionale alla lunghezza d'onda e pertanto, a parità di costante dielettrica in una
determinata banda di frequenza, la penetrazione dell'onda è maggiore alle frequenze più
basse (ciò rende possibile, ad esempio nel dominio delle microonde, la misura di parametri
del suolo anche in presenza di una limitata copertura vegetale). Essendo la penetrazione
dell'onda determinata principalmente dal termine dissipativo della costante dielettrica, a
parità di frequenza essa è estremamente legata al contenuto di umidità del mezzo sottostante
che influenza appunto la sua conducibilità (ad esempio le massime penetrazioni nel terreno
si ottengono a microonde con frequenze particolarmente basse in mezzi estremamente
asciutti. Nei corpi d’acqua si ha una penetrazione significativa solo nel visibile). Nel caso di
superfici reali esse possono essere considerate piane quando le rugosità superficiali siano
molto piccole rispetto alla lunghezza d'onda. Alle lunghezze d'onda del visibile solo
superfici estremamente levigate si comportano in maniera speculare (ad esempio la
superficie di un cristallo) mentre alle microonde tale condizione può essere soddisfatta più
facilmente (per esempio le pareti di un edificio). Questo tipo di riflessione rende difficile il
rilevamento a distanza perché a parità di coefficiente di riflessione si hanno radianze molto
diverse allo strumento a seconda di dove si trova la direzione di osservazione rispetto alla
direzione di illuminazione.
- La riflessione diffusa avviene in situazioni in cui la superficie è rugosa e l’energia è diffusa
in modo praticamente uniforme in tutte le direzioni, caso (b). Il fatto che un particolare
bersaglio rifletta in maniera speculare o diffusa, o talvolta in maniera mista, dipende dalla
rugosità della superficie, paragonata alla lunghezza d’onda della radiazione incidente. In
presenza di rugosità significative la radiazione incidente viene reirradiata in diverse
direzioni (diffusa) in funzione prevalentemente dell'ampiezza delle rugosità rispetto alla
lunghezza d'onda e delle proprietà dielettriche del mezzo sottostante. Per rugosità crescente
essa viene sempre di più ridistribuita nello spazio perdendo importanza la componente
speculare e crescendo generalmente l'energia reirradiata nella direzione opposta a quella di
incidenza (retrodiffusione). La dipendenza dalla rugosità spiega, ad esempio, l'influenza del
moto ondoso sulla risposta di un radar (a microonde), mentre la dipendenza della costante
dielettrica dalla presenza di acqua nel terreno giustifica la possibilità di rilevare variazioni di
umidità del suolo.
23
Fig. 2.14 – Diagrammi schematici che mostrano la riflessione speculare (a) e diffusa (b)
In caso di assenza di fenomeni di diffusione, riflessione e assorbimento, si ha trasmissione della
radiazione. Si noti in proposito che spesso materiali che sono trasparenti ad una frequenza non lo
sono ad altre (l’acqua non è trasparente all’infrarosso, ad esempio).
2.6.1 Bilancio di energie
L’energia della radiazione incidente su di una determinata superficie può dunque essere assorbita,
riflessa o trasmessa:
Ri = Ra + Rr + Rt
(2.9)
Dato un intervallo dello spettro, si definiscono assorbanza, riflettanza e trasmittanza spettrale i
valori di queste energie per unità di lunghezza d’onda su quell’intervallo, riferiti all’energia
dell’onda incidente.
In altre parole, la riflessione (quello che vediamo) è la differenza tra quanto incide e quanto viene
assorbito o trasmesso.
Fig. 2.15 – Rappresentazione schematica dei meccanismi di riflessione, trasmissione e assorbimento dell’energia
radiante incidente sulla vegetazione
Coeff di riflessione ρ = Er/Ei
Coeff di trasmissione τ = Et/Ei
Coeff di assorbimento α = Ea/Ei
Ei = energia incidente alla superficie
Er = energia riflessa dalla superficie
Ea = energia assorbita dalla superficie
Et = energia trasmessa dalla superficie
ρ +τ +α =1
24
(2.10)
2.7 La curva di riflettanza
Consideriamo una superficie composta da un certo materiale; l’energia che raggiunge tale superficie
è detta irradianza. L’energia riflessa dalla superficie è detta radianza; che si misura in W m-2 ⋅sr-1.
Per ogni materiale può essere stabilita una curva di riflettanza, che mostra la frazione della
radiazione incidente riflessa come funzione della lunghezza d’onda.
La curva di riflettanza descrive l’andamento della riflettanza per una data superficie nell’intervallo
spettrale 0,4 – 2,5 µm. Ovviamente la curva di riflettanza di una superficie varia molto in funzione
delle condizioni ambientali (periodo dell’anno, condizione fisica e chimica della superficie) e di
ripresa (geometria sorgente- superficie- sensore). È possibile disegnare delle curve di riflettanza
media che, pur avendo valore indicativo in quanto soggette alle variazioni appena descritte, possono
dare delle informazioni importanti sul comportamento delle superfici in esame. Le curve di
riflettanza sono realizzate per la parte ottica dello spettro elettromagnetico fino a 2,5 µm.
Attualmente vengono fatti molti sforzi per immagazzinare raccolte di curve di riflettanza tipiche in
librerie spettrali.
2.7.1 Vegetazione
Le caratteristiche di riflettanza della vegetazione dipendono da proprietà delle foglie come
l’orientazione e la struttura della copertura delle foglie stesse. La porzione della radiazione riflessa
in parti differenti dello spettro dipende dalla pigmentazione della foglia, dal suo spessore, dalla
composizione (struttura della cella) e dalla quantità di acqua nel tessuto della foglia stessa. La Fig.
2.16 mostra una curva di riflettanza ideale per della vegetazione sana.
Fig. 2.16 – Una curva di riflettanza spettrale ideale per della vegetazione in salute
Nella porzione visibile dello spettro, la riflessione dalla luce blu e rossa è bassa in quanto queste
porzioni vengono assorbite dalla pianta stessa (dalla clorofilla, soprattutto) per fotosintesi e la
vegetazione riflette di più la luce verde. La riflettanza nel vicino infrarosso è più alta ma la quantità
dipende dallo sviluppo della foglia e dalla struttura della cella delle foglie. Nell’infrarosso medio, la
riflettanza è determinata soprattutto dall’acqua libera nel tessuto delle foglie; più acqua libera
significa un più basso valore di riflettanza. Quando le foglie seccano, per esempio durante il periodo
del raccolto, la pianta può cambiare colore (per esempio, può diventare gialla). A questo livello non
c’è fotosintesi, il che comporta una riflettanza più alta nella porzione del rosso dello spettro. Inoltre,
le foglie secche producono una più alta riflettanza nel medio infrarosso; di conseguenza si può dire
che il telerilevamento ottico fornisce informazioni sul tipo di pianta e anche sulle condizioni di
salute della pianta stessa.
2.7.2 Suolo
La riflettanza del suolo spoglio dipende da cosi tanti fattori che è molto difficile dare una curva
tipica della riflettanza del suolo. Comunque, i fattori principali che influenzano la riflettanza del
25
suolo sono il colore del suolo, il contenuto di umidità, la presenza di carbonati, e il contenuto di
ossido di ferro. La Fig. 2.17 mostra le curve di riflettanza ottenute per i cinque tipi di suolo più
diffusi negli Stati Uniti.
Fig. 2.17 – Spettri di riflettanza di campioni di 5 suoli minerali; (a) composto in prevalenza da parti organiche, (b)
minimamente modificato, (c) modificato dal ferro, (d) intaccato da componenti organici, e (e) composto
prevalentemente da ferro.
Si può osservare la forma tipica di alcune di queste curve, che mostrano una forma convessa tra i
500 e i 1300 nm con dei minimi a 1450 e 1950 nm. Questi minimi sono chiamati bande di
assorbimento dell’acqua e sono causate dalla presenza di umidità del suolo. La curva (e), che si
riferisce ad un suolo in cui domina la presenza di ferro, ha un andamento diverso, e questo può
essere spiegato con il fatto che l’assorbimento del ferro domina a lunghezze d’onda maggiori.
2.7.3 Acqua
Se paragonata a quelle di vegetazione e suolo, si nota subito che l’acqua ha una riflettanza più
bassa. La vegetazione può riflettere fino al 50%, il suolo fino al 30-40% mentre l’acqua riflette al
massimo il 10% della radiazione incidente. L’acqua riflette l’energia EM nel visibile fino al vicino
infrarosso. Oltre 1200 nm tutta l’energia viene assorbita. La Fig. 2.18 mostra l’andamento di alcune
curve di riflettanza per diversi tipi di acqua. La riflettanza più alta è data dall’acqua fangosa, e da
acqua contente piante che hanno un picco della riflessione della clorofilla alla lunghezza d’onda del
verde. Tuttavia, tale riflettanza apparente nasce dalla riflessione dei corpi contenuti nell’acqua
piuttosto che dall’acqua stessa.
Fig. 2.18 – Effetti tipici della clorofilla e dei sedimenti sulla riflettanza dell’acqua; (a) acque oceaniche, (b) acqua
torbida, (c) acqua con clorofilla
26
CAPITOLO 3
OSSERVAZIONE DELLA TERRA: ASPETTI SISTEMISTICI
3.1 Introduzione
Un sistema completo di Osservazione della Terra è composto da un certo numero di sottosistemi ed
investe un certo numero di processi:
- La sorgente del campo elettromagnetico ed i meccanismi di generazione della radiazione;
- L’oggetto da osservare ed i fenomeni di interazione della radiazione elettromagnetica con
esso;
- Il mezzo sede della propagazione della radiazione ;
- I sensori e le piattaforme (segmento aerospaziale, se il rilevamento avviene da piattaforma
aerea o spaziale; se la piattaforma è terrestre, assieme al sensore confluisce nel segmento di
terra, vedi di seguito) ;
- I sistemi di acquisizione, archiviazione, elaborazione e distribuzione dei dati e dei prodotti
(segmento terrestre o segmento di terra);
- I processi di analisi ed interpretazione dei dati e dei prodotti, basati su interpretazione visiva
di un operatore esperto o su elaborazioni digitali per estrarre l’informazione di interesse
sull’oggetto osservato;
- I processi attraverso i quali le informazioni estratte dai dati telerilevati vengono usate nelle
applicazioni finali, per meglio conoscere l’oggetto, fornire ulteriori informazioni su esso o
assistere nella soluzione di un particolare problema.
Nel seguito verrà data una descrizione del "sistema di telerilevamento" nel suo complesso,
illustrandone sommariamente le componenti e gli aspetti tecnologici che in esse intervengono.
3.2 Le componenti di un sistema di Osservazione della Terra
3.2.1 Oggetto osservato (Bersaglio)
Gli oggetti osservabili ("bersagli") dal sistema di telerilevamento possono essere: oggetti posti sulla
superficie terrestre, quali porzioni di superficie vegetata, di suolo nudo, di aree urbane, di superfici
liquide, di mari ed oceani, o porzioni di superficie costituite da una "mescolanza" di superfici pure
(es. vegetazione + suolo nudo, ecc.), porzioni dell'atmosfera terrestre di spessore variabile. Il
bersaglio può riflettere la radiazione emessa dal Sole o da sorgenti artificiali o può essere esso
stesso, come già accennato, una sorgente di radiazione. Nel primo caso esso viene caratterizzato
dalla riflettività spettrale (coefficiente di reirradiazione nel caso delle microonde), definita
genericamente come il rapporto tra l'energia riflessa e l'energia incidente sul bersaglio ad una certa
frequenza6; nel secondo caso da una emissività spettrale, definita come il rapporto tra l'intensità
della radiazione realmente emessa dal bersaglio e quella che dovrebbe essere emessa da un corpo
emettitore perfetto (corpo nero). Quest'ultima è funzione della temperatura del corpo nero secondo
la legge di Planck. La riflettività spettrale, l'emissività spettrale, la temperatura e le loro variazioni
nel tempo e nello spazio costituiscono dunque gli "osservabili radiativi" del telerilevamento. I primi
due sono correlati, in maniera spesso non perfettamente nota, con la composizione chimica,
strutturale e la disposizione geometrica dei singoli elementi costitutivi del bersaglio stesso; la
temperatura del bersaglio può essere considerata funzione degli scambi energetici del bersaglio con
l'esterno e degli elementi presenti in esso. La porzione di superficie terrestre elementare minima
6
La quantità che il sensore misura è legata all’energia riflessa verso il sensore stesso, quindi non a tutta l’energia
riflessa; tuttavia, se si assume diffusione isotropa, le due energie riflesse sono tra di loro proporzionali.
27
osservata (in un sistema che produce immagini) può essere considerato il pixel7 (termine che
significa picture element, ovvero porzione elementare dell’immagine), generalmente quadrato, il cui
lato può variare da qualche decimetro a qualche chilometro a seconda delle caratteristiche dello
strumento e dell’organizzazione dei dati. Un'immagine è formata da un certo numero di pixel,
numero che può essere molto elevato. Il bersaglio può essere costituito da un singolo pixel o da un
insieme di pixel. Un'immagine può contenere più bersagli.
3.2.2 La sorgente del campo elettromagnetico
La prima condizione da verificare per il telerilevamento è l’esistenza di una sorgente adeguata della
radiazione elettromagnetica, che può essere naturale od artificiale. Fra le prime le più importanti
sono il Sole e la Terra (ovvero l’oggetto stesso del rilevamento, nell’EO). Tra le sorgenti artificiali
di campo elettromagnetico le più comuni sono l'antenna di un trasmettitore di onde radio ed il laser.
Tali sorgenti emettono energia (radiazione) elettromagnetica caratterizzata da:
- intensità, ovvero la “quantità di campo” trasportata dall’onda; la potenza è proporzionale al
quadrato della “quantità di campo”;
- lunghezza d'onda (o intervallo di lunghezze d’onda nel caso di radiazione con spettro finito),
- polarizzazione, ovvero direzione del campo elettrico, che può anche essere funzione del
tempo in una stessa onda;
- direzione di propagazione.
Nel caso del Sole e delle sorgenti artificiali la radiazione generata viene diffusa dall’oggetto
osservato (elemento di superficie terrestre o atmosfera) e raggiunge il sensore di telerilevamento.
Nel caso la sorgente sia l’oggetto osservato la radiazione è generata spontaneamente per emissione
termica, che per la Terra è significativa (cioè rilevabile) nell'infrarosso termico, lontano ed alle
microonde. Essa raggiunge direttamente il sensore. In questo caso pertanto la sorgente di
radiazione e l'oggetto da osservare coincidono. L'esistenza di sorgenti aventi proprietà adeguate
vincola l'utilizzo delle diverse bande di frequenza dello spettro elettromagnetico per le applicazioni
del telerilevamento. Ad esempio il laser, per le caratteristiche di ingombro, peso ed assorbimento di
energia, pone molte difficoltà al suo uso su satellite.
3.2.3 Il mezzo sede della propagazione della radiazione
Nel caso del Sole e delle sorgenti artificiali la radiazione deve anche propagarsi lungo i percorsi
sorgente-oggetto e successivamente oggetto-sensore. Lungo tali percorsi essa viene trasmessa ma
può anche subire delle modifiche. Anche nel caso in cui la sorgente sia l’oggetto osservato la
radiazione emessa raggiunge il sensore solo dopo essersi propagata (ed eventualmente essere stata
modificata) attraverso il percorso oggetto-sensore. Nella maggior parte delle situazioni questi
percorsi attraversano l’atmosfera terrestre. Non è sempre esattamente così; ad esempio se
osserviamo le proprietà del terreno la propagazione in parte avviene anche attraverso un eventuale
strato vegetato sovrastante. L'atmosfera terrestre può essere considerata, da una parte, come il
mezzo interposto tra la sorgente di radiazione e l’oggetto e tra quest'ultimo ed il sensore e, dall'altra,
come oggetto stesso del rilevamento. Essa può intervenire a modificare l'intensità spettrale, le
proprietà di coerenza e di polarizzazione e la direzione di propagazione della radiazione con
modalità diverse a seconda che si tratti di frequenze ottiche o di microonde. L'atmosfera può
costituire un elemento di disturbo nel caso in cui interessi l'osservazione della superficie terrestre
mascherando la radiazione proveniente da quest'ultima. Pertanto l'atmosfera limita l'utilizzo della
radiazione elettromagnetica, per tali applicazioni, a quelle frequenze in cui si comporta come mezzo
per quanto possibile trasparente (finestre atmosferiche). Dal momento che non esistono finestre
7
Il pixel è definito come la più piccola area dell’immagine alla quale è associata una intensità. Aree più piccole non
possono che avere associata la stessa intensità del pixel nel quale sono contenute. Il caso di aree più piccole ma
contenute in più pixel (a cavallo tra diversi pixel) va trattato a parte.
28
atmosferiche tra 100 micron e 1 mm in questa zona dello spettro non è possibile fare
telerilevamento; di conseguenza bisogna scegliere tra due tipi di telerilevamento molto diversi
l’uno dall’altro, ossia tra l’ottico e le microonde, che corrispondono alle zone collocate
rispettivamente prima o dopo la zona oscura
3.3 I Sensori
In generale nel telerilevameno il sensore è un’apparecchiatura in grado di registrare l’energia EM su
di esso incidente. In senso più largo, è tutto ciò che serve perché l’acquisizione di dati telerilevati
abbia fisicamente luogo. A seconda della modalità con cui l’acquisizione avviene, si possono
suddividere i sensori in diverse classi; per esempio, in base alla gamma di frequenze coinvolte, in
base alla capacità o meno da parte del sensore di emettere energia, ecc.
Fig. 3.1 – Schema generale di un sensore
La prima grossa distinzione che si può fare è quella tra sensori attivi e sensori passivi.
I sensori passivi
Dipendono da una sorgente esterna di energia, generalmente il Sole (alle volte comunque la Terra
stessa). Il gruppo di sensori passivi copre la parte dello spettro elettromegnetico che va dai raggi
gamma (1 pm) fino a 1 metro (micro e radio onde). Il più vecchio e più comune tipo di sensore
passivo è la macchina fotografica.
Vantaggio: non richiedono apparati per emettere radiazione e consumano poca potenza.
Svantaggio: dipendono da una sorgente esterna, e non tutte le bande sono disponibili. Sono
convenienti se si ha disponibilità di sorgente esterna o di emissione significativa, senza necessità di
controllo dell’illuminazione.
I sensori attivi
Sono quei sensori che emettono essi stessi la radiazione che poi riceveranno riflessa dal bersaglio.
Le misurazioni effettuate attraverso sensori attivi sono più controllate perché esse non dipendono da
condizioni di illuminazione che possono essere variabili.
Vantaggio: non dipendono da sorgenti esterne.
Svantaggio: richiedono apparecchiature emittenti ed una grande potenza a disposizione.
I sensori attivi comprendono sensori quali l’altimetro laser (che usa luce nell’infrarosso) e il radar.
29
3.4 Classi di sensori
Fig. 3.2 – Elenco di sensori presentati in questo capitolo
3.4.1 I Sensori passivi
Gli Spettrometri
Gli spettrometri a raggi γ misurano l’emissione di raggi γ dal suolo dovuta al decadimento nucleare
degli elementi radioattivi naturali. L’energia misurata a lunghezze d’onda specifiche fornisce
informazioni circa l’abbondanza di specifici minerali. Quindi, l’applicazione principale di questi
strumenti è nell’esplorazione mineraria.
Le Fotocamere
Sono costituite da un sistema lenti/pellicola principalmente usate nelle foto aeree. Inoltre, anche i
satelliti con orbite basse e le missioni dello Space Shuttle della NASA utilizzano questo tipo di
tecniche. Il tipo di pellicola usata nelle fotocamere è in grado di registrare l’energia
elettromagnetica nalla gamma compresa tra 400nm e 900 nm. Le fotografie aeree sono utilizzate in
molte applicazioni. La geometria rigida e regolare delle foto aeree in combinazione con la
possibilità di acquisire fotografie stereo ha fatto sì che si sviluppassero delle procedure di
fotogrammetria per ottenere coordinate precise in 3D. Le principali applicazioni includono il
rilevamento (topografico) su media e larga scala e il rilevamento catastale.
Le Videocamere
Le videocamere registrano sequenze temporali. Fino a pochi anni fa erano disponibili solo quelle
analogiche, mentre ora vanno diffondendosi sempre più quelle digitali. Sono sensibili al visibile,
raramente all’infrarosso vicino. Vengono impiegate soprattutto quando si ha la necessità di avere
immagini a basso costo per scopi qualitativi, come per esempio, quando servono informazioni
addizionali circa un’area rilevata da un altro sensore, per esempio un radar.
I Rilevatori multispettrali
Gli scansori multispettrali effettuano una misurazione punto per punto della luce del sole riflessa
dalla superficie terrestre. Tale misurazione viene fatta su più gamme di frequenza simultaneamente,
da cui deriva la denominazione di multispettrale. La ragione che porta ad effettuare la misurazione
su più bande è da ricercarsi nel fatto che ciascuna banda è legata a specifiche caratteristiche della
superficie terrestre. Per esempio, le caratteristiche di riflessione della luce intorno al blu danno
informazioni circa la composizione mineraria; le caratteristiche della riflessione della luce
infrarossa danno informazioni circa il tipo e lo stato di salute della vegetazione, ecc.
30
Gli Spettrometri d’immagine
Il principio di funzionamento degli spettrometri d’immagine è lo stesso di quello dei rilevatori
multispettrali, con la sola differenza che gli spettrometri rilevano molte più bande, e con una
larghezza di banda molto più ridotta (5-10 nm). Vengono utilizzati dove occorra determinare la
composizione chimica dell’oggetto osservato. Quindi, questi spettrometri possono essere usati per
determinare la composizione mineraria della superficie osservata, o per valutare il contenuto di
clorofilla nelle acque marine.
I Termografi
Sono analoghi ai rilevatori multispettrali, ma sono sensibili alle lunghezze d’onda tra i 10 e i 14 µm,
direttamente collegate alla temperatura dell’oggetto osservato. Conoscere le temperature della
superficie terrestre, del mare e delle nubi è molto utile per la previsione meteorologica e gli studi
climatici in generale. Per questa ragione molti sistemi per il telerilevamento concepiti con fini
meteorologici includono un termografo. I termografi sono poi usati anche per studiare gli effetti
della siccità sulle coltivazioni agricole, e per rilevare incendi e principi di incendi (nell’IR termico).
I Radiometri
Il suolo e l’immediato sottosuolo emettono radiazioni con lunghezza d’onda compresa tra 1 cm e 1
m. La profondità di emissione, e quindi l’intensità, dipendono dalle caratteristiche del suolo,
compresa l’umidità. I radiometri sono utilizzati per rilevare questa energia. Le informazioni che se
ne ricavano possono essere utilizzate per scopi di esplorazione mineraria, creazione di mappe del
suolo e di mappe del contenuto di umidità.
3.4.2 I Sensori attivi
Il LIDAR
È l’acronimo di Light Detection And Ranging, sensore aviotrasportato che usa un raggio laser IR
per rilevare la posizione del terreno o degli oggetti che si trovano su di esso. Questi dati sono
utilizzati prevalentemente per generare modelli digitali del terreno (DTM) per la creazione di
mappe topografiche. Altri impieghi che stanno prendendo piede sono la creazione di modelli di
edifici in 3D e la misurazione dell’altezza degli alberi nelle foreste.
I Radar altimetri
Sono utilizzati per misurare il profilo altimetrico lungo il percorso del satellite. Funzionano con
lunghezze d’onda comprese tra 1 cm e 6 cm, e forniscono l’altezza del punto osservato con una
precisione di 2-4 cm. Sono utili per misurare superfici abbastanza lisce come gli oceani e per
rilevamenti su piccola scala di modelli di terreno continentale.
I Radar d’immagine
Gli strumenti radar funzionano con lunghezze d’onda comprese tra 1 cm e 1 m. Come già visto per i
rilevatori multispettrali, diverse lunghezze d’onda reagiscono a diverse caratteristiche dell’oggetto
osservato (umidità, conducibilità, dimensioni, rugosità alle diverse scale). Dato che il radar è un
sensore attivo e le lunghezze d’onda utilizzate sono in grado di penetrare le nubi, esso può
funzionare con qualsiasi condizione di tempo, sia di giorno sia di notte. La combinazione di due
immagini radar della stessa area può fornire informazione sulle altezze del terreno. Combinare due
immagini radar della stessa zona ma acquisite in momenti diversi può servire per rilevare
precisamente dei cambiamenti nella quota o delle deformazioni verticali (interferometria SAR,
InSAR).
31
Fig. 3.3 – Immagine SAR proveniente dal satellite ERS relativa ad un delta in Indonesia; questa immagine permette di
distinguere tre diversi tipi di foresta.
NOTA: i sensori per telerilevamento si distinguono anche in:
− SENSORI D’IMMAGINE (telecamere, macchine fotografiche, scansori ottici, termografi,
radar..) cosi detti perché formano un’immagine;
− SENSORI NON D’IMMAGINE (altrimetri, misuratori di trasparenza LIDAR, diffusimetri..) che
forniscono dati non rappresentabili come immagini, almeno non banalmente.
3.5 Le piattaforme
I sensori sono installati su delle piattaforme che assicurano tutti i servizi necessari al loro
funzionamento. Il sistema di telerilevamento avrà caratteristiche che dipendono in maniera
sostanziale dal tipo di piattaforma. Si distinguono in particolare le piattaforme poste a terra
(piattaforme terrestri) e le piattaforme aerospaziali. Queste ultime sono costituite da aerei, elicotteri
e palloni oppure da piattaforme spaziali orbitanti intorno alla Terra (satelliti).
Per quanto riguarda il telerilevamento a terra, la piattaforma può consistere in un apposito supporto,
una gru, un ponteggio, un edificio. Esempi di questo tipo di telerilevamento sono il radar di terra
degli aeroporti, il radar meteorologico, gli strumenti per la rilevazione delle caratteristiche spettrali
dei bersagli. Le piattaforme terrestri assicurano un rilevamento continuo di una porzione limitata di
territorio. In alcuni casi si usano sensori su piattaforme terrestri per scopi di ricerca scientifica,
ovvero per sperimentare tecnologie hardware di nuovi sensori e/o sviluppare modelli matematici di
interpretazione dei dati da essi telerilevati su porzioni di territorio ben note. In altri casi vengono
usati sensori a terra per la calibrazione di strumenti aerotrasportati. Esistono anche sensori su
piattaforme terrestri utilizzati come strumenti di acquisizione di dati ambientali a scopi operativi,
come nel caso del radar meteorologico per la misura delle precipitazioni atmosferiche in una
determinata area o del radiometro a microonde per la misura di profili meteorologici.
Le piattaforme aerospaziali su cui possono essere installati i sensori di telerilevamento possono
invece essere aerei o piattaforme orbitanti attorno alla Terra; la scelta dell’uno o dell’altro tipo di
piattaforma dipende in generale da:
- La dimensione dell’area da osservare;
- La frequenza di ripresa del bersaglio;
- La risoluzione spaziale desiderata.
Nel telerilevamento aeronautico la piattaforma consiste di un mezzo in grado di volare, come un
aeroplano, un elicottero, un aquilone, un pallone aerostatico..Le altezze vanno dai 100 m ai 30-40
32
km. Esempi di strumenti tipicamente usati nel telerilevamento aeronautico sono i radar ad apertura
sintetica.
Le piattaforme spaziali sono solitamente costituite dai così detti satelliti artificiali, che orbitano
intorno alla Terra a distanze dalla superficie terrestre variabili da circa 200 km a 36.000 km. .
3.5.1 Le piattaforme aeree
Il principale supporto per il telerilevamento aeronautico è l’aeroplano, di solito opportunamente
modificato per agevolare l’uso dello strumento. La velocità di volo varia tra i 140 e i 600 km/h ed è
legata al tipo di sensore montato. Oltre all’altezza, anche l’orientazione dell’aeroplano influenza le
caratteristiche geometriche dei dati telerilevati acquisiti. L’orientazione dell’aeroplano è influenzata
dalle condizioni di vento e può essere corretta dal pilota, almeno fino ad un certo punto. Tre sono i
tipi diversi di rotazione che l’aeroplano può effettuare attorno ad un riferimento: rollio, beccheggio
e imbardata.
Fig. 3.4 – I tre angoli (rollio, beccheggio e imbardata) di un aereo che influenzano i dati acquisiti
Per misurare queste rotazioni è possibile installare sull’aereo un giroscopio (Inertial Measurement
Unit, IMU); successivamente le misure possono essere utilizzate per correggere i dati registrati.
I risultati dei rilevamenti (pellicole oppure dati) rimangono a bordo dell’aeromobile fino alla fine
della missione. Va detto che sia mantenere, sia far funzionare questo tipo di apparecchiature è molto
costoso; proprio per questo le flotte di aerei per telerilevamento sono costituite e mantenute
prevalentemente da organismi nazionali e da pochissime imprese private.
3.5.2 Le piattaforme spaziali
Sono veicoli spaziali caratterizzati da un moto di rivoluzione continuo intorno alla Terra, che
permette ai sensori di telerilevamento di bordo puntati verso la superficie terrestre di effettuare
osservazioni su vaste aree in tempi molto brevi. Possono essere utilizzati in modo episodico, come
lo Space Shuttle per le missioni Shuttle Imaging Radar, od orbitanti con continuità (i satelliti
eliosincroni e geostazionari quali, rispettivamente, LANDSAT e METEOSAT). L'altezza dell'orbita
varia da circa 200 km (Shuttle) a 36.000 km (satelliti geostazionari). I satelliti con orbite polari o
quasi-polari osservano la superficie terrestre da una quota intermedia di circa 1.000 km. Oggi i
satelliti artificiali (detti, per brevità, satelliti) forniscono gran parte dei dati telerilevati, e la
tendenza è verso la crescita, seppur lenta a causa dei costi elevati. Il telerilevamento satellitare
permette l’acquisizione di dati su vaste aree praticamente in contemporanea, e permette soprattutto
un’osservazione regolare nel tempo. Un’immagine satellitare costa meno di una intera campagna di
rilevazione aerea, e la sua acquisizione è ripetibile con facilità. Le capacità di monitoraggio di un
sensore sono determinate in larga parte dai parametri dell’orbita del satellite. Per orbita si intende il
percorso (generalmente ripetitivo) del satellite intorno alla Terra. L’orbita del satellite viene scelta
in funzione del dato che si vuole ottenere e delle caratteristiche del sensore montato sulla
piattaforma satellitare. Per realizzare un monitoraggio continuo (necessario nelle applicazioni
meteorologiche), un rilevamento globale (rilevamento di copertura del suolo) o la formazione di
immagini selettive (per aree urbane) sono necessari tipi di orbita diversi. Le leggi che governano il
moto del satellite sono quelle ben note della meccanica. La traiettoria del satellite è generalmente
ellittica e caratterizzata quindi dalla dimensione dei due semiassi (maggiore e minore) ovvero dal
semiasse maggiore e dalla ellitticità. Nelle considerazioni che faremo nel seguito ci riferiremo ad
un orbita circolare avente un certo raggio r ovvero una quota sopra la superficie della Terra H=r-R,
33
ove R e il raggio terrestre pari a circa 6378 km (si ricordi tuttavia come anche la Terra sia un
ellissoide e che il raggio equatoriale è circa 20 km maggiore di quello polare). L’angolo di
inclinazione è definito come l’angolo tra il vettore che individua il moto del satellite da Sud a Nord,
misurato all'equatore, e un vettore parallelo a quest'ultimo e diretto verso Est. Tale angolo viene
usato per definire la posizione del piano che contiene l'ellisse e che deve intersecare il centro della
Terra. La cinematica del moto del satellite su tale traiettoria è governata dalle leggi di Keplero. E'
utile ricordare come l'uguaglianza della forza di attrazione Terra-satellite (centripeta) alla forza
centrifuga impone una relazione tra periodo di rotazione del satellite T (tempo impiegato a
percorrere un orbita) e quota r che, per l’orbita circolare vale:
4π 2 r 3
T =
(3.1)
gR 2
ove g è l’accelerazione di gravità al livello del mare. Il raggio dell’orbita compare al numeratore
dell’espressione del periodo, pertanto i satelliti più alti sono anche i più lenti.
2
Le piattaforme spaziali sono costituite da un insieme di sottosistemi con diverse funzioni il cui
obiettivo è quello di mantenere in orbita in condizioni operative l'insieme dei sensori di
telerilevamento (che costituiscono pertanto il cosiddetto carico utile o "payload"). Tra i sottosistemi
di bordo ricordiamo:
- I sistemi che forniscono la potenza elettrica (batterie, e generatori solari per la loro ricarica).
Si osserva come nel corso della sua orbita intorno alla Terra il satellite può trovarsi in
eclisse, ovvero la Terra può interporsi tra Sole ed il satellite non permettendo la generazione
di energia da parte dei pannelli e la ricarica delle batterie. Alcune configurazioni orbitali
minimizzano o annullano le condizioni di eclisse ma non sono necessariamente compatibili
con altri requisiti di missione.
- I sistemi per la misura ed il controllo dell’orbita del satellite. Sono necessari per conoscere
il movimento del centro di massa del satellite (definito rispetto ad un sistema di riferimento
solidale con la Terra) e mantenerlo lungo l’orbita nominale richiesta dalla missione o per
modificarla se necessario. I sistemi utili alla definizione della esatta posizione del satellite
possono includere sistemi di ranging a radiofrequenza, sistemi passivi (retroriflettori) che
riflettono gli impulsi laser della rete di stazioni laser terrestri o ricevitori basati sulle
tecnologie Global Positioning System (GPS) o equivalenti. Per il controllo dell’orbita si
usano appositi razzi che utilizzano il propellente a bordo per correggere l’orbita quando i
diversi agenti esterni ne abbiano provocato una modifica (tipicamente accelerare il satellite
per riportarlo alla quota di volo nominale quando esso sia scaduto a causa dell’azione
frenante dell’atmosfera ).
- I sistemi per il controllo dell’assetto del satellite. L’assetto rappresenta la posizione della
piattaforma rispetto ad un sistema di riferimento solidale con la piattaforma stessa e puntato
con un asse verso la Terra e con un altro asse nella direzione del movimento del satellite. In
quel sistema l’assetto è definito da tre angoli la cui terminologia si richiama al linguaggio
che definisce l’assetto di una barca o di un aereo: imbardata (yaw), beccheggio (pitch) e
rollio (roll). L’esatto puntamento della piattaforma è un requisito a volte molto stringente
per assicurare il corretto funzionamento dei sensori. Basti pensare al caso di sensori che
devono osservare la superficie terrestre rigorosamente in direzione perpendicolare o a
sensori che riprendono immagini del territorio ad alta risoluzione. L’assetto della
piattaforma può essere misurato e controllato con diverse tecniche. In alcune piattaforme
con requisiti di controllo d’assetto meno stringenti si sfrutta l’effetto giroscopico
imprimendo una rotazione (spin) alla piattaforma stessa. Nei satelliti con requisiti d’assetto
più stringenti si usano piattaforme con controllo d’assetto a tre assi, dove opportuni sensori
34
misurano i tre angoli (ad esempio sensori che rivelano la posizione dell’orizzonte terrestre)
mentre una terna di masse ruotanti su tre assi tra loro ortogonali variando la loro velocità
determina una opportuna rotazione angolare del satellite (per il principio della
conservazione della quantità di moto).
- I sistemi di telecomunicazione tramite i quali il satellite scambia, con la terra o con altri
satelliti, informazioni e dati. Il flusso dati è ad una via o a senso unico (dal satellite alle
stazioni di ricezione) per quanto riguarda le misure effettuate dai sensori di telerilevamento.
I dati sono inviati direttamente alla stazione di ricezione a terra quando essa è in visibilità
della piattaforma, oppure in caso contrario possono essere inviati attraverso un Data Relay
Satellite (DRS), che riceve i dati e li ripete verso le stazioni di terra. I dati telerilevati dai
sensori possono spesso formare flussi dati molto intensi (centinaia di Megabit al secondo).
E’ necessario anche un collegamento a due vie o a doppio senso attraverso cui la
piattaforma invia a terra dati di controllo (dati di telemetria o di housekeeping) che portano
informazioni sul suo stato, mentre da terra vengono inviati i comandi per intervenire sulla
sequenza delle operazioni di bordo in accordo con la pianificazione della missione ed
eventualmente per intervenire a seguito di eventi contingenti.
- I sistemi di registrazione dei dati generati dai sensori di telerilevamento, mediante i quali è
possibile scaricare a terra in visibilità di una stazione dati acquisiti quando il satellite
sorvolava una regione in cui nessuna stazione era in visibilità. La registrazione dei dati a
bordo è una funzione di grande importanza per assicurare l’osservazione di aree remote
della superficie della Terra o comunque dove non siano state installate stazioni a terra.
Naturalmente l’utilizzo di satelliti DRS può costituire una soluzione alternativa,
compatibilmente con fattori economici e di capacità del canale. Le tecnologie di
registrazione allo stato solido, rispetto alle vecchie tecnologie basate sui nastri magnetici,
hanno aumentato negli ultimi anni le capacità di registrazione a bordo in maniera sensibile.
3.5.2.1 Le orbite
Le orbite più comuni per le missioni del telerilevamento sono l’orbita polare, la quasi-polare, la
geo-stazionaria e l’orbita eliosincrona. Queste sono orbite con un angolo di inclinazione tra gli 80°
e i 100° che permettono l’osservazione dell’intero globo. Il satellite normalmente è posizionato in
orbita a 600-800 km di altezza.
Per gli scopi del telerilevamento le caratteristiche rilevanti dell’orbita sono:
Altezza: distanza (misurata in km) tra il satellite e la superficie terrestre media; tipicamente i
satelliti per telerilevamento orbitano a 600-800 km (orbita polare) o a 36.000 km (orbita
geostazionaria) dalla Terra. Tale distanza determina la parte di area visibile e il dettaglio
con cui è visibile.
Angolo di inclinazione: è l’angolo tra l’equatore e il piano dell’orbita. L’angolo di
inclinazione dell’orbita determina, insieme al campo di vista del sensore, che latitudine può
essere osservata. Se l’inclinazione è 60° allora il satellite orbita sopra la Terra tra le
latitudini 60° Sud e 60° Nord; dunque non può osservare parti della Terra a latitudini
superiori ai 60°.
Periodo: è il tempo (misurato in minuti) necessario per completare un’orbita. Un satellite
polare orbita a 800 km di altezza e ha un periodo di 90 minuti. È direttamente legato alla
velocità, che è dell’ordine dei km al secondo (7-8 km/s).
Tempo di rivisita: è il tempo tra due successive orbite identiche. Dell’ordine dei giorni.
Orbita quasi-polare: Una caratteristica dell'orbita quasi polare è quella di permettere l'osservazione
della Terra nella sua globalità, attraverso l'effetto combinato del moto di rivoluzione del satellite
intorno alla Terra e di rotazione di quest'ultima intorno al proprio asse, "sotto" il percorso orbitale
35
del satellite stesso. Si può immaginare che, durante il moto orbitale del satellite, la proiezione di
quest'ultimo sulla superficie terrestre disegni, sulla superficie medesima, delle tracce a terra.
Fig. 3.5 – Configurazione di tracce a terra relative a 24 ore (porzione discendente); D indica la distanza delle tracce
all’equatore tra due orbite successive.
Durante un periodo di rivoluzione del satellite (pari a circa 100 minuti) la Terra effettua una
rotazione di circa 25 gradi di longitudine, corrispondente, all'equatore, a 2.800 km. Ciascuna traccia
a terra sarà dunque distanziata da quella successiva (circa 100 minuti dopo) di circa 25 gradi di
longitudine. Dopo che la Terra ha effettuato una rotazione completa su se stessa (24 ore dopo), la
traccia a terra del satellite non coinciderà in genere con quella percorsa 24 ore prima, bensì con una
compresa tra le tracce 1 e 2 (fig.3.5) (considerando queste ultime relative alla prima ed alla seconda
rivoluzione effettuate dal satellite); un tipo particolare di orbita quasi-polare è la
Orbita eliosincrona: è un’orbita scelta in modo che il satellite passi per lo stesso luogo sempre alla
stessa ora del giorno. Molte orbite eliosincrone attraversano l’equatore a metà mattina (intorno alle
10.30); in quel momento l’angolo del sole è basso e le ombre risultanti rivelano i rilievi del terreno.
Le orbite eliosincrone consentono al satellite di registrare immagini a due orari fissi durante un
periodo di 24 ore, una durante il giorno e l’altra durante la notte. I satelliti eliosincroni sono
caratterizzati da un'orbita quasi polare, in cui l'asse di rotazione terrestre interseca con un angolo
non nullo il piano orbitale. Il nome "eliosincrono" deriva dal fatto che in tale configurazione
orbitale l'angolo formato dalla congiungente Sole-centro della Terra con il piano orbitale è
mantenuto costante nel tempo. Poiché il valore di tale angolo controlla l'ora locale di passaggio del
satellite all'equatore (ovvero l'ora al nodo ascendente o discendente), l'orbita eliosincrona permette
di mantenere relativamente costanti nel tempo le condizioni di illuminazione della superficie
terrestre, minimizzando in tal modo le variazioni della radianza misurata al sensore dovute alle
variazioni delle condizioni di illuminazione. Esempi di satelliti con orbita quasi polare eliosincrona
sono i satelliti LandSat, SPOT e IRS.
36
Fig. 3.6 – Configurazione dell’orbita quasi polare
Orbita geo-stazionaria: La configurazione orbitale geostazionaria è caratterizzata da una velocità di
rivoluzione del satellite intorno alla Terra pari, per intensità e verso, alla velocità di rotazione della
Terra stessa intorno al proprio asse. Inoltre il piano orbitale è scelto coincidente con il piano
dell'equatore terrestre. Tutto ciò permette, ad un sensore orientato verso il Pianeta, di osservare
sempre la stessa porzione di superficie terrestre con possibilità di alta ripetitività temporale di
ripresa. L'altezza dell'orbita è di circa 36.000 km e può essere ricavata dalla equazione di pagina 25
imponendo, appunto, un periodo orbitale di 24 ore. Tali quote limitano ovviamente le caratteristiche
di risoluzione geometrica a terra dei sensori di bordo. In termini di copertura tale piattaforma, ferma
rispetto alla Terra, è in grado di osservare poco meno della metà del globo terrestre. Per assicurare
la copertura totale del pianeta è necessario porre in orbita diverse piattaforme distanziate in
longitudine (utilizzandone 5 si può ovviare anche alle notevoli distorsioni geometriche ai bordi di
una immagine che riprenda l'intero globo terrestre). Le orbite geostazionarie sono utilizzate per
satelliti meteorologici e per le telecomunicazioni. Oggigiorno i sistemi di satelliti meteorologici
utilizzano una combinazione di satelliti geostazionari e orbite polari. I satelliti geostazionari offrono
una vista continua, mentre le orbite polari offrono una risoluzione più elevata.
Orbita bassa: ha un’altezza di circa 400 km (inferiore quindi a quella delle orbite quasi-polari), ed è
impiegata quando occorrono dati ad alta risoluzione.
3.6 Conversione analogico-digitale
Per loro natura, tutti gli strumenti effettuano rilevazioni analogiche, mentre per la trasmissione e
l’elaborazione dei dati è fondamentale che questi siano espressi in forma numerica o digitale. Si
rende quindi necessaria un’operazione di conversione dalla forma analogica (generalmente corrente
o tensione all’uscita dello strumento) alla forma numerica.
La procedura segue i passi elencati:
− Viene effettuato un campionamento del segnale nel tempo (o nello spazio).
− I valori misurati ad intervalli regolari di tempo (ad esempio tensioni misurate da un
voltmetro) vengono convertiti in valori numerici.
37
Fig. 3.7 – Sequenza delle operazioni necessarie per effettuare il campionamento analogico-digitale
-
Il segnale analogico originario viene trasformato in n valori numerici (funzione della
frequenza di campionamento)
Il segnale passa da una descrizione continua nel tempo ad una discreta
Ad ogni riga di scansione viene a corrispondere una sequenza ordinata di numeri
(generalmente espressi in forma binaria)
Un’organizzazione matriciale di tali valori dà origine ad una immagine
Vantaggi
- Il segnale digitale è necessario per evitare le distorsioni intrinseche nel segnale analogico
(ad esempio comportamenti non lineari degli elementi di trasmissione del segnale)
- La codifica numerica (di solito binaria) permette un flusso veloce di informazioni
- La codifica numerica si presta a veloci procedure di calcolo dei dati stessi
3.6.1 Rappresentazione dei dati (imaging): RASTER e VETTORIALE
I dati telerilevati possono essere rappresentati sottoforma di immagini, il che solitamente rende la
loro interpretazione più agevole all’osservatore umano. Le tecniche fondamentali di
rappresentazione di mappe sono la tecnica vettoriale e la tecnica raster.
Formato raster
È tipico di immagini da scansione. Il pixel è l’elemento minimo dell’immagine e ad esso viene
assegnato un valore numerico (radianza, backscattering); il pixel al suolo ha dimensioni definite.
Nella traduzione della matrice in immagine, ogni pixel viene “colorato” con un tono di grigio tanto
più chiaro quanto più elevata è l’intensità associata al pixel stesso nella matrice di dati telerilevati.
Formato vettoriale
Viene usato per carte generali e tematiche con elementi lineari. Le linee sono definite da punti a
coordinate note, collegate da segmenti. In linea teorica i punti sono adimensionali.
Con la rappresentazione vettoriale, i confini o l’andamento delle caratteristiche è definito da una
serie di punti che, quando congiunti con linee diritte, formano la rappresentazione grafica di quella
caratteristica. I punti sono codificati con una coppia di numeri che danno le coordinate X e Y, in
sistemi come latitudine/longitudine o coordinate di Proiezione Traversa di Mercatore. Gli attributi
di caratteristiche sono immagazzinati poi con un programma di software di gestione di database
tradizionale (DBMS). Per esempio, una mappa di vettore di particelle di proprietà sarebbe allacciata
ad un database di attributo di informazioni che contengono l'indirizzo, il nome di proprietario,
valutazione di proprietà ed uso di terra. Il collegamento tra questi due file di dati può essere un
semplice numero di identificazione che è dato ad ogni caratteristica nella mappa
38
Raster contro vettore
I sistemi raster sono richiedono l’immagazzinamento di una mole notevole di dati (anche se
esistono buone tecniche di compressione degli stessi) in quanto devono registrare dati ad ogni
ubicazione di cella a prescindere dal fatto che quella cella contenga informazioni che sono o no di
interesse. Comunque, il vantaggio di questa tecnica è che lo spazio geografico è definito
uniformemente in maniera semplice e prevedibile. Di conseguenza, i sistemi raster hanno
sostanzialmente più potere analitico rispetto ai vettori nell'analisi dello spazio continuo e nello
studio di dati in continuo cambiamento come terreno, biomassa della vegetazione, pioggia. Il
secondo vantaggio dei raster è che la loro struttura è ben compatibile con l'architettura dei computer
digitali. Di conseguenza, i sistemi raster tendono ad essere molto rapidi nella valutazione di
problemi che comportano le varie combinazioni matematiche dei dati in strati multipli. Sono
eccellenti per valutare modelli ambientali come erosione del suolo e la gestione di foreste.
3.7 Sistema di Terra
L'insieme dei sistemi di terra (segmento terrestre o ground segment) di una missione di
telerilevamento spaziale è schematizzato in Fig. 3.8:
39
Fig. 3.8 – Componenti del segmento terreno
3.7.1 Centro di supporto
E’ il sistema (unico dal punto di vista funzionale e di solito anche fisico) che effettua il controllo
dello stato del satellite acquisendo ed analizzando i dati di telemetria; esso programma le operazioni
di bordo e invia al satellite i comandi operativi per attuare la pianificazione della missione o far
fronte a situazioni contingenti. In sostanza è il gestore diretto del satellite.
3.7.2 Sistema di Acquisizione ed Archiviazione
I dati rilevati dai sensori di telerilevamento nel caso di piattaforma spaziale vengono trasmessi a
terra dai sottosistemi di telecomunicazione generalmente con tecniche di tipo digitale ed acquisiti da
apposite stazioni riceventi dotate di una antenna e di apparati di ricezione per la demodulazione del
segnale e la sua registrazione. Questi sistemi non sono in genere unici ma ne esistono diversi in
diverse parti del globo, in grado di acquisire dati da un medesimo satellite. A causa dell’elevato
flusso dei dati acquisiti la registrazione avveniva fino a qualche tempo fa su supporti magnetici ad
alta densità (High Density Digital Tape: HDDT) che venivano successivamente riletti dal sistema di
elaborazione a velocità inferiore. In tempi più recenti sono stati realizzati sistemi in grado di
immagazzinare direttamente i dati su dischi magnetici. Si noti come, nel caso di piattaforme in cui
esiste una capacità di registrazione dei dati, la stazione possa ricevere anche dati acquisiti quando il
satellite non è in visibilità della sua antenna. Al contrario, quando non esiste una capacità di
registrazione a bordo, i dati dei sensori sono utilizzabili solo se esiste una antenna sulla superficie
terrestre in grado di riceverli. A meno che la piattaforma non risulti ferma rispetto alla Terra (caso
del satelliti con orbita geostazionaria) sarà perciò necessario predisporre un notevole numero di
stazioni terrestri, ognuna delle quali osserva il satellite solo per un certo tempo, ovvero riceve dati
solo da una certa regione terrestre intorno alla stazione stessa e che viene chiamata "area di
copertura" della stazione. Ad esempio, l'antenna della Stazione Pietro Fanti del Fucino può
osservare satelliti che sorvolano il Mediterraneo, più a Nord fino in Svezia, più a Sud sul
Nordafrica, alcune centinaia di chilometri ad Ovest di Gibilterra e sul Mar Nero; in presenza di un
40
sistema di registrazione a bordo di grande capacità potrebbe però ricevere dati registrati durante il
sorvolo di aree più lontane. Come detto esiste anche la possibilità di utilizzare i satelliti DRS in
grado di costituire un ponte tra il satellite orbitante e le stazioni di terra. I dati vengono conservati in
appositi archivi soggetti a continua manutenzione, in grado di assicurarne l'integrità per diversi
anni. A questo livello si parla di "dati grezzi" ovvero dati che non hanno subito nessun processo di
elaborazione, pure necessario a ricavare quei prodotti più sofisticati necessari per l'utilizzo per i fini
applicativi. Anche i successivi prodotti di elaborazione (si veda nel seguito) potranno essere a loro
volta archiviati. Eventualmente l'archiviazione dei dati viene accompagnata da verifiche sulla loro
qualità e dalla generazione di prodotti immagine molto semplici e di basso costo ("quick look"); lo
scopo è quello di fornire quelle indicazioni sulla qualità dei dati (ad esempio sulla presenza di
copertura nuvolosa) di supporto alla scelta dei prodotti finali da parte degli utenti. Le informazioni
sulla disponibilità dei dati grezzi e di eventuali prodotti elaborati, sulla loro localizzazione e qualità
dovranno essere gestite attraverso un catalogo centralizzato della missione, uno strumento
essenziale per la gestione delle operazioni nel sistema di terra e soprattutto per la gestione del
rapporto con l’utente finale.
3.7.3 Sistema di Elaborazione
Come detto, per ottenere informazioni utilizzabili nelle applicazioni, è necessario sottoporre i dati
ad una serie di processi di elaborazione, eventualmente utilizzanti anche informazioni aggiuntive
non provenienti dai sensori di telerilevamento. Questi processi hanno scopi diversi (correzioni
geometriche, correzioni radiometriche, estrazioni di parametri geofisici quantitativi, estrazioni di
informazioni tematiche, etc.) e sono ovviamente diversificati in funzione del tipo di sensore e della
applicazione. Si può genericamente dire che parte di questi processi sono responsabilità delle
Agenzie proprietarie del satellite e delle stazioni di terra (ad esempio l'Agenzia Spaziale Europea o
ESA, la NASA, etc.), altri invece sono realizzati dagli utenti finali (utenti scientifici, enti, industrie,
etc,) o dagli operatori di servizi per il controllo e lo studio dell'ambiente. Nel primo caso parliamo
di elaborazione di stazione in cui la filosofia di base è la generazione di prodotti a diversi livelli di
elaborazione, ove i livelli più alti tendono a svincolare i dati forniti dalla tecnologia usata (per
esempio fornendo immagini in cui siano state eliminate le distorsioni geometriche introdotte dal
sensore di bordo o fornendo valori di parametri radiativi calibrati). Nel secondo caso, quello delle
elaborazioni di utente, le operazioni fatte sono invece legate al problema applicativo (ad esempio
stima di parametri geofisici, elaborazioni d'immagine dedicate all'esaltazione di alcuni contenuti
informativi, integrazione con altre informazioni per ottenere mappe tematiche in senso lato, etc).
Ovviamente non può essere tracciato un confine netto tra i due tipi di elaborazione ed, in funzione
del tipo di sensore e della politica commerciale degli Enti preposti alla generazione e distribuzione
dei prodotti, alcuni passi di elaborazione possono essere demandati all'utente finale o effettuati
presso le stazioni di terra. Anche i sistemi di elaborazione non sono in genere unici per una
missione. La progettazione ed il dimensionamento del Sistema di Elaborazione (o dell’insieme dei
sistemi) sono legati ai requisiti di missione. In particolare la scelta degli algoritmi di elaborazione
dipende dai requisiti di accuratezza delle informazioni prodotte. Una attività di sviluppo, la taratura
e la validazione di tali algoritmi sono molto importanti. I requisiti di carattere operativo che
verranno descritti in seguito determinano invece la quantità dei dati che devono essere elaborati ed
il tempo di elaborazione ammesso e quindi la potenza di memorizzazione e di calcolo richiesta al
sistema. Una delle scelte da operare riguarda la possibilità di elaborazione sistematica
(elaborazione di tutti i dati acquisiti almeno fino ad un determinato livello di prodotto) e successiva
archiviazione, ovvero di elaborazione su richiesta solo dei prodotti per cui esiste la richiesta di un
utente (ed eventualmente la loro archiviazione per far fronte ad una eventuale ulteriore richiesta).
La scelta, oltre che basarsi sui requisiti della missione (ad esempio l’eventuale presenza di un utente
istituzionale che richieda tutti i dati acquisiti in una determinata zona), si baserà su considerazioni
economiche legate alla previsione di domanda e alla valutazione dei vari contributi ai costi
41
operativi, significativamente determinati dal costo del personale di stazione e da altri fattori (costi
dei materiali d’archivio, della manutenzione degli apparati, dei materiali di consumo, etc).
3.7.4 Sistema di Distribuzione
I prodotti generati presso le stazioni di elaborazione su base sistematica o su specifica richiesta da
parte di un utente acquirente dovranno essere trasmessi all'utente. Tale funzione di distribuzione
può utilizzare mezzi convenzionali quali trasmissione a mezzo postale di immagini su supporto
cartaceo o di nastri magnetici di diverso tipo (storicamente si sono avvicendati i Computer
Compatible Tape - CCT, i nastri Exabyte 8 mm o i nastri DAT da 4 mm). Attualmente sono ormai
universalmente preferiti i Compact Disk (CD) e stanno prendendo piede i più moderni DVD. La
distribuzione dei prodotti può anche avvalersi di mezzi telematici avanzati come ad esempio
trasmissione di dati su rete geografica terrestre oppure rilancio di dati via satellite. L’avvento della
rete delle reti (Internet) ha rivoluzionato anche questo aspetto del telerilevamento. L’accesso al
catalogo dei prodotti, comprese quindi anche le informazioni sui risultati del controllo di qualità (ad
esempio copertura nuvolosa nelle immagini ottiche) è in molti casi possibile attraverso
un’interfaccia web. L’utente in genere indica la zona geografica di interesse, il periodo di tempo, il
livello di prodotto desiderato ed il sistema risponde con i metadati delle disponibilità. La
consultazione dei provini o quicklook (un tempo vere e proprie piccole immagini fotografiche, ora
file immagine nei formati più in voga ma a risoluzione degradata rispetto ai dati originali) è spesso
possibile attraverso il web a seguito delle richieste dell’utente. In taluni casi (prodotti di piccole
dimensioni e/o dati di scarso valore commerciale) anche il prodotto finale è disponibile via Internet
(mediante accesso ftp). Nel caso di missioni aventi valore commerciale, la vendita dei prodotti
avviene attraverso una vera e propria rete di commercializzazione le cui forme si sono andate
evolvendo nel tempo. Attualmente l’utente comune si deve rivolgere ad una delle società che
fungono da distributori del prodotto (e che a volte mediano anche l’accesso al catalogo o le
richieste di specifiche acquisizioni del satellite verso il Centro Utenti) mentre il proprietario del
satellite (Agenzia pubblica o impresa privata) conserva il rapporto diretto con utenti particolari (ad
esempio Enti di ricerca o di pubblica utilità). Oltre alle funzioni di acquisizione, archiviazione,
elaborazione e distribuzione dei dati, il segmento terrestre di una missione spaziale deve anche
realizzare altri compiti importanti, particolarmente nelle missioni più moderne caratterizzate da
grande flessibilità operativa (sensori diversi e con modalità differenti di acquisizione dei dati). Una
delle funzioni più importanti è quella svolta dal Centro di Supporto Utenti.
3.7.5 Centro di Supporto Utenti
E’ il sistema che promuove e gestisce a livello centralizzato il rapporto con l’utente finale,
eventualmente per il tramite della rete di commercializzazione (distributori). Esso gestisce la
richiesta dei prodotti da parte degli utenti interagendo con la stazione di Acquisizione ed
Elaborazione (interrogazione del catalogo, gestione della programmazione delle acquisizioni e della
generazione dei prodotti) e con il Centro di Supporto (pianificazione delle operazione della
piattaforma per l'acquisizione dei dati in funzione delle richieste degli utenti). Fa capo inoltre al
Centro di Supporto Utenti il catalogo dei dati e dei prodotti disponibili consultabile nel momento
della richiesta da parte dei distributori ed eventualmente direttamente dall’utente finale. Ad esempio
la missione ERS dell'ESA, avviata nel 1991, utilizza la stazione di Kiruna (Svezia) come stazione di
controllo del satellite gestita dal centro ESA-ESTEC di Noordwijk (Olanda) e come stazione
primaria di acquisizione ed elaborazione dei dati. Esiste comunque una rete di stazioni di
acquisizione europee ed extra-europee e di centri di elaborazione di precisione dei dati (in Francia,
Germania, Inghilterra, Italia). Il Centro di Supporto Utenti è invece ubicato presso l'ESA-ESRIN di
Frascati (Italia).
42
3.8 Requisiti di un sistema di EO: campionamento spettro-spazio-temporale
3.8.1 Lo stato del bersaglio
Il bersaglio riflette od emette radiazione elettromagnetica verso il sensore con modalità diverse a
seconda del suo "stato", ovvero delle "condizioni" (ad esempio umidità del suolo, della vegetazione,
percentuale di suolo nudo o vegetato, stato fenologico della vegetazione, energia emessa o
assorbita, ecc.) in cui si trova. Le variazioni dello stato del bersaglio si traducono in variazioni
dell'intensità, dello stato di polarizzazione e della fase della radiazione emessa o diffusa dal
bersaglio stesso. Tali variazioni possono essere di tipo spettrale, spaziale o temporale. Con
variazione spettrale si intende la variazione assoluta e relativa dell'intensità della radiazione in
funzione della lunghezza d'onda e della direzione di polarizzazione; con variazione spaziale, la
variazione dell'intensità della radiazione lungo le tre dimensioni spaziali dell'oggetto e lungo la
direzione di propagazione; con variazione temporale, il cambiamento nel tempo dell'intensità della
radiazione dell'oggetto osservato.
3.8.2 Il campionamento spettro-spazio-temporale
I requisiti di osservazione del sistema di telerilevamento vengono espressi in termine di intervallo di
valori coperto dalle misure di una determinata grandezza radiativa e dalla densità di misure in tale
intervallo. Con riferimento alla variabilità radiometrica, spaziale, temporale e spettrale vengono
definite pertanto le seguenti quantità:
Variabilità radiometrica
-
-
Dinamica radiativa: rappresenta l'intervallo del parametro radiativo entro cui il sistema
fornisce misure accurate. Ad esempio, esprime l'intervallo di temperatura (in gradi Kelvin)
nella misura della temperatura di brillanza di un radiometro, oppure il minimo e massimo
valore del coefficiente di retrodiffusione a microonde misurato da un sistema radar.
Risoluzione radiometrica: è la sensibilità della misura ovvero la variazione minima nella
radiazione che il sistema riesce a rilevare. E' limitata dalle fluttuazioni intrinseche del
segnale e dalla presenza di rumore additivo; tali cause di fluttuazioni mascherano
evidentemente piccole variazioni dello stato dell'oggetto osservato. Per misure di
temperatura di brillanza è espressa come Noise Equivalent Temperature Difference (NEDT)
in °K, mentre, per misure di radianza, come Noise Equivalent Reflectance Difference
(NEDR) valutata in percentuale. Nelle misure radar è generalmente espressa in decibel. Nel
caso di dati digitali (quelli trasmessi a terra dai satelliti) il segnale viene quantizzato secondo
un certo numero di livelli; ad esempio un dato binario a 8 bit corrisponde a 256=28 livelli di
quantizzazione. L'intervallo di quantizzazione introduce un ulteriore limite alla risoluzione
radiometrica non permettendo di rilevare fluttuazioni più piccole di esso stesso (si definisce
rumore di quantizzazione la differenza tra il valore vero del segnale ed il valore attribuitogli
dopo la quantizzazione). È evidentemente opportuno cercare di limitare il numero di livelli
di quantizzazione per limitare il numero di bit da trasmettere a terra, mantenendo però al
contempo una capacità di discriminazione compatibile con la risoluzione radiometrica
propria del sistema. Tipicamente si fissa un errore di quantizzazione comparabile con la
risoluzione radiometrica e solo per questa ragione ha senso caratterizzare la risoluzione
radiometrica indicando semplicemente il numero di bit (o il numero dei livelli di
quantizzazione).
Variabilità spaziale
-
Copertura: rappresenta l'estensione spaziale dell'area geografica oggetto del rilevamento,
ovvero la percentuale coperta della superficie di interesse. Nei sistemi aerei o spaziali che
generano immagini del territorio è legata alle dimensioni al suolo della striscia ripresa ed
alla possibilità di effettuare riprese successive di aree adiacenti. La larghezza al suolo
dell'immagine nella direzione trasversale alla linea di volo si chiama strisciata o swath
43
-
oppure, quando espressa in dimensioni angolari, campo di vista (Field of View: F.O.V.) del
sistema di ripresa (ad esempio una strisciata di 100 km corrisponde ad un FOV di circa 5,7
gradi di una macchina fotografica posta a 1000 km di quota).
Risoluzione geometrica: rappresenta la capacità di rivelare i dettagli e può essere definita
come distanza minima a cui due sorgenti puntiformi sono ancora distinguibili. Il sistema di
misura infatti fornisce una informazione (ad esempio un valore di radianza) relativa ad una
porzione minima di superficie chiamata Instantaneous Field of View (I.F.O.V.) misurato in
dimensioni spaziali o angolari; due oggetti all'interno di tale porzione non risulterebbero
evidentemente distinguibili. Nel caso di immagini digitali le misure vengono campionate ad
intervalli regolari nello spazio; tale intervallo, che rappresenta la dimensione del pixel
(picture element), verrà scelto più piccolo della risoluzione del sistema di ripresa (l'IFOV) al
fine di non distruggere il dettaglio informativo che questo è in grado di fornire. Si tenga
conto di come, viceversa, una diminuzione di tale intervallo (ottenibile con tecniche di
ricampionamento) non può generalmente incrementare la risoluzione (piccoli miglioramenti
possono essere ottenuti solo con sofisticate tecniche di elaborazione d'immagine).
Variabilità spettrale
-
Numero di canali: numero (e collocazione) delle bande spettrali.
Risoluzione spettrale: intervallo di frequenza (o di lunghezza d'onda) relativo a ciascun
canale ovvero larghezza in frequenza (o nella lunghezza d'onda) della banda passante nella
risposta spettrale di ciascun canale. Ovviamente diversi canali possono avere diverse bande
passanti, ma i sistemi multispettrali tendono ad avere, in termini di lunghezza d’onda, la
stessa larghezza di banda passante su tutti i canali.
Variabilità temporale
-
Risoluzione temporale: intervallo di tempo intercorrente tra due osservazioni della stessa
area. Ha ovviamente senso definirla solo quando l’acquisizione è ripetitiva.
3.9 I requisiti d’osservazione
Dalla misura dell'entità delle variazioni spettrali, spaziali e temporali, sarebbe possibile, in linea di
principio, valutare le variazioni dello stato del bersaglio. Una volta determinate, infatti,
sperimentalmente o da modelli di simulazione, le relazioni intercorrenti tra le variazioni dello stato
del bersaglio e le variazioni dell'intensità della radiazione riflessa od emessa, è pensabile che da una
misura di queste ultime si possa risalire allo stato del primo. Per alcune applicazioni, quale ad
esempio l'individuazione di classi di copertura del suolo, poiché le variazioni dell'intensità della
radiazione sono dovute anche a fattori "esterni" ovvero non legati allo stato del bersaglio (quali
condizioni d'illuminazione, concentrazione degli assorbitori atmosferici, ecc.), ai fini della
caratterizzazione dello stato del bersaglio stesso, anziché misure dell'intensità di radiazione, si
preferiscono utilizzare quantità normalizzate ricavate da tali misure, quali la riflettività superficiale
e le sue variazioni, che sono una caratteristica dell'oggetto da osservare e non vengono influenzate
da tali fattori esterni. La normalizzazione della radiazione misurata al sensore si ottiene
generalmente correggendo quest'ultima (mediante elaborazioni più o meno complesse), di quantità
(fattori di normalizzazione) legati alla geometria di ripresa ed allo stato dell'atmosfera, in modo tale
che la quantità risultante (normalizzata) sia quanto più possibile una grandezza caratteristica del
bersaglio (riflettanza spettrale, albedo, indici di verde, ecc.) e che vari esclusivamente con il variare
dello stato di quest'ultimo. La valutazione dei fattori di normalizzazione non è sempre agevole. I
fattori che limitano l'intervallo spettrale, di angolo di vista, spaziale e temporale di misura possono
essere di tipo ambientale (legati al livello di conoscenza dei fattori di normalizzazione) e tecnologici
(sensori e configurazione orbitale). Dal livello di compromesso raggiungibile tra i requisiti
d'osservazione e le capacità osservative dei sensori è possibile individuare le applicazioni per le
quali si possono usare con profitto i dati di telerilevamento.
44
I requisiti spettrali di osservazione sono funzione delle caratteristiche spettrali di riflettività del
bersaglio stesso, delle variazioni di quest'ultima in funzione delle caratteristiche fisico-chimiche
degli elementi componenti il bersaglio, in relazione al tipo di osservazione. È ben noto ad esempio
che, nel caso sia necessario distinguere terreno nudo da terreno vegetato, è necessario misurare la
radiazione nel visibile e nel vicino infrarosso, in intervalli di frequenza cioè, in cui la differenza di
riflettività tra terreno nudo e vegetazione è massima. Nell'ipotesi di misure tendenti alla
individuazione dello stato fenologico di culture è opportuno raccogliere dati in intervalli dello
spettro elettromagnetico in cui la variazione della riflettività con lo stato fenologico è alta.
Per quanto riguarda il campionamento spazio-temporale i requisiti imposti dall'applicazione sono
determinati dalla variabilità temporale dello stato del bersaglio e dalla sua scala spaziale. Ad
esempio, se consideriamo applicazioni di carattere meteorologico, esse richiedono l'osservazione di
strutture di grandi dimensioni (ad esempio corpi nuvolosi, fronti) caratterizzate da una evoluzione
temporale estremamente veloce. Pertanto saranno stringenti i requisiti di campionamento temporale
e molto meno quelli di risoluzione geometrica.
All'opposto possono trovarsi le osservazioni geologiche interessate a variazioni generalmente lente
nel tempo, ma a dettagli spaziali fini (per rilevare strutture geologiche, variazioni nel tipo di suolo,
etc.).
3.10 I vincoli tecnologici
3.10.1 Tecnologie di bordo e sensori
Le risoluzioni radiometrica, spaziale e spettrale sono tra loro strettamente legate. In particolare
l'osservazione dell'oggetto per tempi più lunghi permette di migliorare la risoluzione radiometrica
attraverso operazioni di media del segnale; in tal modo però, per effetto del movimento di scansione
dell'immagine, l'area minima osservata associata a tale tempo di integrazione aumenta, ovvero
peggiora la risoluzione geometrica. Inoltre un aumento della larghezza di banda di un canale
migliora la risoluzione radiometrica; infatti l'osservazione durante il tempo di integrazione di un
segnale su una banda di frequenza più ampia corrisponde ad un numero più grande di campioni del
segnale che possono essere mediati riducendo pertanto le fluttuazioni intrinseche nel segnale stesso.
Si può dimostrare che la risoluzione radiometrica è legata alla radice quadrata del prodotto della
banda B per il tempo di integrazione τ. Anche IFOV e FOV sono correlate tra loro e alla quota di
ripresa; la risoluzione al suolo è pari, per osservazioni verticali (escludendo particolari sensori quali
il radar a vista laterale), al prodotto dell'IFOV angolare per la quota H; a quote più basse pertanto
migliora generalmente la risoluzione geometrica ma allo stesso tempo si ha una diminuzione della
strisciata. La possibilità, infine, di calibrare in modo continuo, durante la missione, le tensioni
elettriche in uscita dai sensori in modo tale da ottenere curve di taratura continuamente aggiornate,
che possano essere utilizzate per ottenere dati quantitativi di radianza, è di fondamentale importanza
per molte applicazioni. Le curve di taratura (relazione tra i segnali elettrici in uscita dai sensori con i
valori di intensità di radiazione) ottenute dalle calibrazioni effettuate a terra non possono essere
generalmente applicate ai dati raccolti durante il volo principalmente a causa della "deriva" dei
sensori durante la missione. Per ovviare a ciò, alcuni sistemi di telerilevamento spaziale
comprendono "corpi di calibrazione" capaci di emettere, ad intervalli regolari, livelli noti di
intensità di radiazione sui quali confrontare le tensioni elettriche in uscita dai sensori, da cui
ottenere curve di taratura continuamente aggiornate.
Dal punto di vista radiometrico l'accuratezza della misura è legata alla presenza di sistemi di
calibrazione dei dati. Generalmente ciò è ottenuto confrontando l'uscita del sensore con le misure da
esso effettuate su bersagli dalle proprietà di emissione o di riflessione conosciute. Si distinguono i
metodi di calibrazione interna, in cui le sorgenti di riferimento sono all'interno del sensore, e
metodi di calibrazione esterna in cui esse sono esterne e costituiscono un particolare bersaglio. La
calibrazione esterna permette di correggere fattori di errore non legati necessariamente allo
strumento (ad esempio dovuti alla piattaforma o all'atmosfera). Solitamente i dati di calibrazione
45
interna vengono raccolti con continuità e continuamente elaborati nella fase di generazione dei
prodotti per gli utenti. La calibrazione esterna viene invece effettuata saltuariamente durante
campagne specifiche.
Dal punto di vista geometrico ci riferiamo all'accuratezza di localizzazione geografica della misura.
Nel caso di sensori per immagini può interessare, al posto dell'accuratezza di localizzazione
assoluta, il livello di distorsioni interne dell'immagine, riferite genericamente ad un sistema di
coordinate geografiche.
Dal punto di vista delle tecnologie della piattaforma si deve tener presente come la posizione della
stessa, se pure determinata con sistemi di controllo di orbita e di assetto, non coincide mai
perfettamente con i valori nominali. In particolare gli errori sulla posizione e sull'assetto hanno un
effetto sulla fedeltà geometrica delle immagini ed in genere sulla localizzazione geografica del dato
rilevato. Ne consegue una limitazione sulle stesse caratteristiche di risoluzione geometrica nel caso
in cui si abbiano perturbazioni dell'assetto significative.
I limiti di capacità di trasmissione a terra dei dati dal satellite influenzano poi la risoluzione spaziale
(numero di pixel dell'immagine), le caratteristiche spettrali (numero di canali) e la risoluzione
radiometrica (livelli di quantizzazione), tutte grandezze che determinano il volume di dati (misurato
in bit) da inviare nell'unità di tempo (bit rate).
3.10.2 I fattori ambientali
Il principale fattore ambientale che limita il soddisfacimento dei requisiti spettrali di osservazione è
l'atmosfera terrestre, eccetto naturalmente nel caso in cui l'osservazione non sia diretta agli strati
superiori dell'atmosfera. Quest'ultima è capace di attenuare e ridistribuire in varie direzioni la
radiazione proveniente dal bersaglio, in modo variabile a seconda della concentrazione di alcuni
suoi componenti gassosi e particellari (aerosol) e della lunghezza d'onda. La limitazione al
soddisfacimento dei requisiti spettrali di osservazione è causata da tre modalità di azione
dell'atmosfera sulla radiazione: la prima consiste nell'assorbimento quasi-totale in particolari zone
dello spettro elettromagnetico, di fatto quindi proibite per il telerilevamento aerospaziale; la
seconda consiste nell'introdurre, attraverso i fenomeni dell'assorbimento, dell'emissione e della
diffusione, nel campo di radiazione proveniente dal bersaglio, modificazioni altamente variabili
nello spazio e nel tempo a seconda della concentrazione di alcuni suoi componenti gassosi e
particellari (aerosol, pioggia) e della lunghezza d'onda. La limitazione al soddisfacimento dei
requisiti dipende dalla concentrazione dei componenti atmosferici, la cui entità non è sempre nota
con sufficiente accuratezza. Tali fenomeni di assorbimento e diffusione sono particolarmente
accentuati in presenza di formazioni nuvolose, le quali possono intercettare totalmente la radiazione
proveniente dalla superficie terrestre nel campo delle frequenze ottiche. Le nubi invece non
costituiscono un ostacolo significativo nel campo delle microonde utilizzato per osservazioni radar.
3.11 Alcune ulteriori definizioni
-
-
Nadir: è il punto che si trova esattamente sotto il satellite, vale a dire il punto di intersezione
tra la superficie terrestre e la linea che congiunge il centro della Terra con il centro del
satellite; con lo stesso nome si indica anche la direzione dal satellite verso il punto di nadir.
Per i satelliti in orbita bassa, la velocità del punto nadir è dell’ordine dei km/s.
Strisciata: si dice strisciata (swath) sia la striscia di superficie terrestre osservata dal satellite
in un passaggio, sia spesso la larghezza della striscia stessa.
Periodo: il periodo di un satellite è il tempo che intercorre tra due passaggi sullo stesso nadir
ed è determinato dalle caratteristiche orbitali del satellite e dalla posizione del punto
considerato.
46
-
Periodo di rivisita: è il tempo che trascorre tra due passaggi nei quali è possibile osservare
lo stesso punto, ed è determinato anche dalle caratteristiche del sensore.
Trasmissione a Terra: dato che il satellite non rientra a terra durante tutta la sua vita utile,
occorre che i dati acquisiti siano spediti a terra via radio. La trasmissione può avvenire
direttamente dal satellite verso le stazioni riceventi a terra o, quando questo non sia
possibile, tramite ritrasmissione da parte di altri satelliti (DRS).
3.12 Caratteristiche delle immagini
Le immagini che contengono i dati telerilevati sono ben più di comuni fotografie; esse sono infatti
insiemi di misurazioni quantitative di energia EM. I dati sotto forma di immagine sono memorizzati
in un formato regolare a griglia (righe e colonne). I singoli elementi di questa griglia sono detti
pixel, che è un’abbreviazione di “picture element”. Per ogni pixel, le misure sono immagazzinate
come Numeri Digitali (Digital Number, DN).
Ogni pixel risulta così caratterizzato da una terna di valori (M,N,I), dove M e N sono numero di riga
e numero di colonna che individuano la sua posizione all’interno dell’immagine digitale, e I è un
numero indice correlato alla grandezza rilevata (spesso si tratta della intensità della radianza al
suolo). Questi valori interi positivi sono i DN assegnati ai pixel dell’immagine e rappresentano, in
realtà, la grandezza misurata nella porzione di superficie terrestre coperta dal pixel considerato
(generalmente la radianza spettrale, espressa in mW m-1 sr-1 µm-1).
Le immagini da satellite in commercio riportano, all’interno di file ausiliari, i dati per convertire il
valore digitale del pixel dell’immagine in valori di radianza. La formula per tale conversione è la
seguente:
L∗n = a 0 + a1 ⋅ PV
(3.2)
dove
Ln* = la radianza apparente
a0 = polarizzazione od offset
a1 = guadagno o gain
PV = valore numerico del pixel
La dimensione dei pixel influisce sulla riproduzione dei dettagli della scena ed è determinata
dall’altezza del sistema di ripresa e dalle sue caratteristiche di funzionamento, in particolare dal
campo di vista istantaneo (IFOV = Instantaneus Field Of View).
Altro elemento importante è il numero di valori discreti utilizzati per rappresentare la misura
dell’intensità della radianza della scena, che è invece una grandezza di tipo continuo; per esempio
se per misurare questa informazione si usasse un solo bit, si potrebbero rappresentare solo due
livelli di radianza, 0 e 1, mentre con 8 bit si possono rappresentare 256 differenti livelli di intensità,
da 0 a 255.
Tipicamente, per ogni intervallo di lunghezze d’onda rilevato, viene immagazzinato uno strato
separato, che prende il nome di banda.
47
Fig. 3. 9 – Sistema di coordinate dell’immagine definite da righe e colonne
In questo caso ad ogni pixel è associato non un solo valore, ma un vettore di valori, uno per ognuna
delle bande considerate.
La qualità delle immagini telerilevate è determinata soprattutto dalle caratteristiche del sistema
costituito dal sensore e dalla piattaforma. Tra tali caratteristiche ricordiamo la risoluzione spettrale,
la risoluzione radiometrica e quella geometrica, e la risoluzione temporale, le cui definizioni sono
state date nel § 3.8.2.
Le caratteristiche delle immagini telerilevate sono:
- dimensione dell’immagine: il numero di righe e colonne in una scena
- numero di bande: il numero di lunghezze d’onda immagazzinate. Per esempio, 1 nel caso di
fotografie in bianco e nero, 4 nel caso di immagini SPOT multispettrali, 256 nel caso di dati
di spettroscopia.
- quantizzazione: il formato usato per immagazzinare le misure di energia. Tipicamente, per
ogni misura si utilizza un byte (8 bit), che rappresenta i valori discreti compresi tra 0 e 255.
Questi valori sono noti come Digital Numbers (DN). Usando dei parametri di calibrazione
specifici per il sensore utilizzato, è possibile convertire i valori dei DN nella potenza
incidente misurata.
- dimensione del pixel a terra: la copertura dell’area corrispondente ad un pixel sul terreno.
La dimensione di un pixel a terra è legata alla risoluzione spaziale, ma non è esattamente la
stessa cosa.
La dimensione dell’immagine, il numero di bande e la quantizzazione sono le informazioni
necessarie per calcolare lo spazio su disco occupato da un dato telerilevato: nel caso di
un’immagine SPOT multispettrale essa richiede: 3000 (colonne) × 3000 (righe) × 4 (bande) × 1
(byte) = 36 Mbyte di memoria.
3.12.1 Relazioni tra risoluzioni
Uno dei principali fattori limitanti nell’acquisizione dei dati telerilevati è il così detto RAPPORTO
SEGNALE/RUMORE, o rapporto tra la potenza del segnale informativo e la potenza del rumore (o
segnale indesiderato), indicato con la sigla SNR. L’estrazione dei dati telerilevati risulta tanto più
agevole quanto più è alto il SNR; al di sotto di un certo livello di SNR non è più possibile recuperare
l’informazione contenuta nei dati. A parità di altri fattori, si può dire che al miglioramento di una
delle risoluzioni si accompagna una riduzione del rapporto segnale/rumore.
3.12.2 Agire sulle risoluzioni
-
la risoluzione geometrica può essere variata cambiando l’altezza del sensore, ma abbassare
il sensore significa restringere il campo visivo;
48
-
la risoluzione spettrale di solito è determinata dal numero degli elementi sensibili diversi che
compongono il sensore; si riferisce alla capacità di discriminare le diverse lunghezze d’onda
delle onde elettromagnetiche ricevute. In base al numero di bande che il sensore può
acquisire, si distinguono sistemi:
MONOSPETTRALI o pancromatici;
MULTISPETTRALI (da 2 a poche decine di bande);
IPERSPETTRALI (molte decine di bande fino a migliaia di bande).
− la risoluzione radiometrica dipende dalla sensibilità dei sensori stessi;
− la risoluzione temporale è determinata dal periodo di rivisita e dalle capacità di puntamento
del sensore; anche qui però ci sono dei vincoli dovuti alle caratteristiche orbitali ed a quelle
di angolo di vista e capacità di puntamento del sensore.
49
CAPITOLO 4
IL TELERILEVAMENTO OTTICO: LA FOTOGRAFIA AEREA
4.1 Introduzione
Elemento fondamentale dei sistemi operanti nel visibile e nell'infrarosso è il sistema ottico
(telescopio). Esso è costituito da un sistema di lenti, da un diaframma (che determina l'apertura
dell'obiettivo), e da un otturatore (che determina il tempo di esposizione).
Fig. 4.1 – Schema base di un sistema ottico
Per ricavare alcune relazioni fondamentali (ed estremamente approssimate) che definiscono le
caratteristiche di questi sistemi si fa riferimento ad uno schema molto semplice (Fig. 4.1). Un
sistema ottico (una lente) ha la proprietà di far convergere raggi ottici paralleli (provenienti da un
oggetto situato a distanza infinita) in un punto posto ad una distanza dalla lente stessa che viene
detta lunghezza focale. Quando l'oggetto si trova ad una distanza finita la radiazione generata da
ogni suo punto converge ad una distanza inferiore (che continueremo tuttavia a confondere con la
lunghezza focale) generando una immagine virtuale dell'oggetto che risulta ribaltata. Ponendo un
elemento sensibile sul piano in cui si genera l'immagine virtuale essa viene registrata. L'elemento
sensibile può essere una pellicola fotografica (sistemi fotografici) oppure una serie di rivelatori
fotosensibili che generano un segnale elettrico proporzionale all'energia che li investe (sistemi
elettro-ottici). I primi presentano diversi vantaggi per quanto riguarda la risoluzione geometrica, la
semplicità di realizzazione e l'affidabilità, l'efficienza di memorizzazione dei dati; tuttavia essi
richiedono il recupero della pellicola ed il suo trattamento fotografico per cui trovano applicazioni
nei sistemi aerotrasportati o nelle missioni spaziali con presenza dell'uomo (ad esempio Space
Shuttle). I sistemi elettro-ottici si prestano invece alla trasmissione dei segnali elettrici prodotti e
sono una soluzione quasi obbligata per le missioni spaziali con piattaforme non presidiate dall'uomo
e non recuperabili; essi inoltre offrono il vantaggio della sensibilità fino all'infrarosso termico (le
pellicole all'infrarosso in realtà sono sensibili solo all'infrarosso vicino) e della disponibilità di una
uscita numerica che, attraverso opportuni sistemi di calibrazione, può condurre a valutazioni
quantitative di parametri radiativi.
50
Fig. 4.2 – Il principio della macchina fotografica e il campo di vista (FOV)
In base alla geometria semplificata riportata in Fig. 4.1 la dimensione della pellicola (o della
superficie coperta dai rivelatori) definisce la porzione di immagine registrata. Il campo di vista
(FOV) angolare del sistema è il rapporto tra tale dimensione e la lunghezza focale (F). La scala
dell'immagine fotografica registrata è il rapporto tra la lunghezza focale e la quota di ripresa (H).
La risoluzione spaziale di un sistema fotografico è legata alle caratteristiche del sistema ottico ed al
potere risolvente della pellicola. Nel caso di sistemi elettro-ottici ogni elemento rivelatore di
dimensione lineare D fornisce un segnale mediato su un areola della superficie terrestre (IFOV
lineare) ovvero proveniente da un angolo (IFOV angolare) che possono essere determinati dal
semplice schema in Fig. 4.2:
 D 
(4.1)
IFOVangolare = 2 tan − 1 

 2F 
Per angoli piccoli, ossia minori di 20° (che è generalmente sempre vero per l’IFOV), la tangente
inversa può essere approssimata in maniera accurata tenendo conto del fatto che:
tan −1 ( x) ≈ x se x << 1
(4.2)
 D 
IFOVangolare = 2 ⋅ 

 2F 
(4.3)
per cui
e quindi:
IFOVangolare = D
IFOVlineare = DH
F
(4.4)
(4.5)
F
In realtà tale valutazione della risoluzione è ottimistica e sussistono molte cause di degradazione del
potere risolvente del sistema. In particolare citiamo le caratteristiche dell'ottica, gli effetti delle
51
vibrazioni meccaniche del sistema e la necessità di integrare temporalmente il segnale elettrico
proveniente da un elemento dell'immagine in concomitanza con il moto della piattaforma o della
scansione (come si vedrà successivamente). Pertanto l'effettiva risoluzione viene rappresentata da
una quantità detta E.I.F.O.V. (Effective Instantaneous Field Of View) che risulta sempre maggiore
dell'IFOV.
Fig. 4.3 – Campo di vista istantaneo (IFOV e EIOFV)
4.2 La fotografia aerea
La fotografia aerea viene usata sin dall’inizio del ventesimo secolo per ottenere dati spaziali per
molteplici applicazioni e rappresenta dunque la più vecchia e comune tecnica di telerilevamento. La
fotogrammetria è la tecnica e la scienza di ottenere misurazioni e informazioni spaziali da foto o
dati contenuti in immagini. A tutt’oggi, la maggior parte delle mappe topografiche viene realizzata
attraverso l’uso di foto aeree. Per l’acquisizione di queste foto, vengono usati dei sensori detti
fotocamere, composti fondamentalmente da un sistema di lenti (detto anche OTTICA) che focalizza
un’immagine della zona osservata sulla pellicola sensibile. Le caratteristiche dell’immagine
acquisita dipendono dalla geometria del sistema e dalle caratteristiche della pellicola, che è
generalmente sensibile ad una gamma di lunghezze d’onda comprese tra 300 e 900 nm, con una
preferenza (maggiore sensibilità) per le lunghezze d’onda maggiori di 500 nm a causa della loro
maggiore robustezza alla diffusione atmosferica.
Si possono distinguere due tipi di fotografia aerea; quella verticale (a) e quella obliqua (b).
52
Fig. 4.4 - Fotografia verticale (a) e obliqua (b)
La fotografia verticale, che è quella più utilizzata, viene realizzata montando una fotocamera sul
pavimento di un aereo. In pratica questo tipo di acquisizione viene realizzato con l’asse focale
diretto verso il basso. L’immagine risultante è abbastanza simile ad una mappa e ha una scala che è
approssimativamente costante lungo tutta l’immagine stessa. In genere, la fotografia aerea verticale
è realizzata in modalità stereo, che consiste nell’acquisire foto successive con un grado di
sovrapposizione per pemettere l’interpretazione e le misurazioni sui dati stessi. Le foto verticali
sono utilizzate quando l’informazione spaziale conta di più di quella spettrale; infatti, in generale,
questi dati hanno risoluzione spettrale scarsa o sono addirittura pancromatiche.
La fotografia obliqua può essere realizzata usando una fotocamera tenuta in mano e puntando fuori
dal finestrino dell’aereo (aperto, ovviamente). La scala di una foto obliqua varia dal primo piano
allo sfondo. Tale variazione di scala complica le misure delle posizioni degli oggetti nell’immagine,
per cui la fotografia aerea obliqua non è utilizzata, se non raramente, per scopi relativi alla stesura
di mappe. Ciò nonostante, va detto che le immagini oblique possono essere utili qualora si vogliano
osservare, ad esempio, i lati degli edifici, o si voglia coprire una vasta area ed evidenziarne il
rilievo.
Fig. 4.5 - Foto verticale (a) e obliqua (b) degli edifici ITC
53
4.3 Struttura di una fotocamera
Quello riportato in Fig. 4.6 è lo schema di una fotocamera aerea. Le grosse dimensioni della
fotocamera stessa sono dovute alla necessità, da parte di quest’ultima, di acquisire immagini di aree
vaste con un’alta risoluzione spaziale.
Fig. 4.6 – Componenti principali di una macchina fotografica aerea
Le moderne fotocamere per rilevamento producono un negativo delle dimensioni di 23 cm × 23 cm;
su una singola pellicola possono essere registrate fino a 600 fotografie.
4.3.1 Lente conica
La lente conica è probabilmente l’oggetto più importante e più costoso della fotocamera. Tale lente
è intercambiabile, per cui i produttori realizzano un certo numero di tipi di lenti, ognuna delle quali
ha una lunghezza focale diversa. La lunghezza focale determina l’angolo di vista della fotocamera.
Più lunga è la focale, più stretto è l’angolo di vista. Le lenti sono solitamente disponibili nelle
seguenti lunghezze focali standard: 610 mm (angolo stretto), 305 mm (angolo normale), 210 mm e
152 mm (grandangolo), e 88 mm (supergrandangolo). La lente più usata è quella con lunghezza
focale di 152 mm.
Fig. 4.7 – La lente conica comprende un sistema di lenti, una struttura piana focale, un otturatore, un diaframma, e dei
filtri colorati
La lente è la parte della fotocamera che si occupa di “proiettare” l’immagine ottica sulla pellicola.
Di conseguenza, l’accuratezza con cui viene effettuata la proiezione dipende dalla qualità della
lente. Va detto però che, anche quando vengono usate lenti di ottima qualità, possono verificarsi
54
delle distorsioni, che benchè impercettibili all’occhio umano, inficiano la bontà delle operazioni
fotogrammetriche nel caso in cui siano richieste elevate precisioni (al µm).
4.3.2 Contenitore della pellicola e dati ausiliari
La fotocamera è munita di un sistema in grado di registrare varie informazioni sul lato del negativo,
come per esempio l’identificatore della missione, la data e l’ora, l’altezza di volo e il numero della
sequenza.
Fig. 4.8 – L’annotazione di dati ausiliari su una fotografia aerea
Viene utilizzato un piano con una serie di fori collegati ad un condotto a vuoto pneumatico per
appiattire la pellicola nell’istante dell’esposizione; in tutti gli angoli della pellicola vengono
registrati i cosi detti punti fiduciali o fiducial marks, necessari per determinare il centro ottico delle
foto, senza il quale non è possibile allineare le foto per la stereovisione. I punti fiduciali sono
necessari inoltre per registrare la posizione precisa della pellicola in relazione al sistema ottico, ciò
che è richiesto nei processi di fotogrammetria.
4.4 Caratteristiche spettrali e radiometriche
La registrazione fotografica è un processo che comprende molti passi intermedi tra i quali
l’esposizione della pellicola e un processo chimico che è lo sviluppo.
Fig. 4.9 – Sezione di una pellicola fotografica che mostra lo strato di emulsione con i cristalli ologenuri di argento
Gli strati della pellicola sono (procedendo dall’alto verso il basso): il rivestimento superiore,
l’emulsione con grani fotosensibili, lo strato di separazione, lo strato di base e lo strato antialone.
Il tipo di emulsione utilizzata determina le caratteristiche spettrali e radiometriche della fotografia.
Si definiscono:
− Sensibilità spettrale: la gamma di lunghezze d’onda alle quali la pellicola è sensibile;
55
− Sensibilità radiometrica: quanta energia serve per indurre un determinato cambiamento
nell’emulsione.
4.5 Fotografia monocromatica
La fotografia è un processo multi-passo che comprende l’esposizione, alcuni processi chimici e
infine la stampa. Durante l’esposizione nella fotocamera un’immagine ottica della scena originale
viene proiettata dalla lente sulla pellicola. Questa immagine non è altro che un campione
bidimensionale di luce di intensità variabile. L’illuminazione della pellicola fa sì che i cristalli
presenti nell’emulsione assorbano i fotoni. L’assorbimento dell’energia causa la formazione di un
certo numero di ioni d’argento vicino alla superficie del cristallo che devono essere convertiti in
atomi di argento. Più grande è il numero di fotoni assorbiti, più grande è il numero di atomi
d’argento che viene formato. Comunque, nel breve periodo dell’esposizione viene creato un numero
di atomi di argento insufficiente per causare un cambiamento visibile nell’aspetto dei cristalli.
Questo processo è noto come “formazione dell’immagine latente”. Quando la pellicola viene
sviluppata, nei cristalli che contengono l’immagine latente si forma una quantità più grande di
atomi di argento, grazie al processo di sviluppo. Di conseguenza, queste aree della pellicola
appaiono più nere di quelle in cui non è stata ricevuta alcuna esposizione. L’argento non sviluppato
viene successivamente rimosso attraverso l’uso di una soluzione fissante e quindi lavato via dallo
strato di emulsione.
L’immagine fotografica risultante è chiamata negativo perché in essa le aree luminose appaiono
nere e viceversa.
Fig.4.10 – Pellicola in negativo e stampa in positivo; le zone luminose (bianche) sul negativo risultano nere (verde) sul
positivo
Per ottenere l’immagine positiva il negativo deve essere stampato fotograficamente. Questa
operazione può essere fatta in due modi, o con un processo di contatto o con un ingrandimento
ottico. Il materiale usato nelle stampe fotografiche ha uno strato di emulsione simile a quello della
pellicola, ma di solito si trova su una base di carta. Nel processo di stampa, il negativo è illuminato
da una sorgente di luce, e in base alla quantità di argento presente in ogni area, più o meno luce
riesce a passare attraverso lo strato di metallo.
4.6 La fotografia a colori veri e quella a infrarosso o falsi colori
La pellicoli a colori veri è resa sensibile ai colori primari stendendo tre strati, ognuno sensibile ad
un colore primario diverso, su una base comune. Ogni strato dunque registra solo uno dei colori
56
primari; come si vede dalla Fig. 4.11, lo strato superiore è sensibile alla luce blu; uno strato di filtro
giallo assorbe qualsiasi rimanenza di luce blu impedendo che essa arrivi agli strati inferiori. Lo
strato medio è sensibile alla luce verde mentre l’ultimo è sensibile al rosso.
Fig. 4.11 – Gli strati di emulsione di una pellicola a colori veri
Nel processo di sviluppo l’agente di sviluppo riduce l’argento esposto a metallo e vengono prodotte
le tonalità di colore. Durante lo sviluppo in ognuno dei tre strati vengono prodotte delle tonalità
sottrattive. Questi strati producono una quantità di tonalità di colori complementari che è
proporzionale alla luminosità del colore primario originale.
Fig. 4.12 – Il mondo reale; negativo a colori e corrispondente immagine positiva a colori
La pellicola a falsi colori del tipo infrarosso colore comprende tre strati: uno strato sensibile al
verde, uno sensibile al rosso e uno sensibile all’infrarosso vicino. La pellicola a falsi colori è
sensibile alle lunghezze d’onda dell’infrarosso vicino ed è particolarmente utile per registrare
informazioni relative alla vegetazione, mentre la pellicola a colori veri è più utile per le mappature
topografiche e relative all’urbano.
Le foto a colori (veri o IR) rappresentano un caso di rilevazione multibanda, che tuttavia è limitato a
tre bande. Separando le diverse lunghezze d’onda tramite un sistema di lenti, prismi e filtri, è
possibile fotografare più di tre bande contemporaneamente, utilizzando più pellicole. Va ricordato
però come non sia affatto agevole effettuare un’interpretazione manuale di dati rilevati su più di tre
bande.
57
4.6.1 Confronto
Fig. 4.12 – Confronto tra una foto pancromatica (in alto a sinistra), una in bianco e nero nell’infrarosso (in basso a
sinistra), una in colori veri (in alto a destra) e una in falsi colori nell’infrarosso (in basso a destra); le foto sono relative
alla stessa area
4.7 Le caratteristiche spaziali
Le proprietà più importanti nella fotografia aerea sono due, cioè la scala e la risoluzione spaziale;
tali proprietà sono determinate dalle caratteristiche del sensore (soprattutto della lente e della
pellicola) e della piattaforma (l’altezza di volo).
4.7.1 La scala
Si dice “scala” il rapporto tra una lunghezza sulla carta e la lunghezza corrispondente nella realtà.
Indicata con s, è definita come il rapporto tra l’altezza di volo H e la lunghezza della focale della
lente f:
H
s=
(4.6)
f
Come si può ben vedere, la stessa scala si può ottenere combinando opportunamente diverse altezze
di volo e lunghezze della focale. Se la lunghezza focale della lente diminuisce mentre l’altezza di
volo rimane costante, allora:
- Il fattore di scala s dell’immagine aumenta e la dimensione dei dettagli individuali
nell’immagine diventa più piccola.
- La copertura del suolo aumenta.
- Il campo di vista angolare aumenta e la prospettiva dell’immagine cambia.
58
La scala si indica con il simbolo 1: x, dove x rappresenta la lunghezza corrispondente alla lunghezza
1 sulla carta (con unità di misura omogenee). Lo stesso oggetto reale appare tanto più piccolo sulla
carta quanto più grande è il numero x. Si usa dire che per numeri piccoli si ha una “grande scala”
mentre per numeri numeri grandi si una “piccola scala”, anche se il passaggio tra i due non è netto.
4.7.2 La risoluzione spaziale
Con questo termine si intende la capacità di distinguere piccoli oggetti adiacenti. Per le pellicole
monocromatiche varia da 40 a 800 linee/mm, ma la risoluzione effettiva del sistema dipende anche
da altri diversi fattori:
− Il fattore di scala s;
− Qualità dell’ottica;
− Struttura dei grani dell’emulsione;
− Contrasto intrinseco dell’oggetto osservato;
− Diffusione atmosferica;
− Moto dell’apparecchiatura.
4.8 Le missioni di fotografia aerea
4.8.1 La pianificazione della missione
Quando un progetto di mappatura richiede delle fotografie aeree, una delle prime cose da fare è
selezionare il fattore di scala richiesto per le foto, il tipo di lente da usare, il tipo di pellicola da
usare e la percentuale di sovrapposizione richiesta. Normalmente, la sovrapposizione in avanti
richiesta è intorno al 60%, mentre quella laterale è del 20%. La Fig. 4.13 mostra un’area di indagine
coperta da un certo numero di linee di volo. La data e l’ora di acquisizione andrebbero considerate
in riferimento alla stagione di coltivazione, alle condizioni di luce e agli effetti d’ombra.
Fig. 4.13 – Esempio di area di rilevamento per fotografia aerea; si noti che le fotografie si sovrappongono in avanti e
nella direzione di volo
Una volta stabilito il fattore di scala s si possono calcolare i seguenti parametri:
− La quota del volo;
− La copertura del terreno per la singola foto;
− Il numero delle linee di volo;
− Il numero di foto richieste lungo una singola linea di volo.
4.8.2 L’esecuzione della missione
Durante l’esecuzione della missione, il navigatore osserva alternativamente il terreno e una mappa
di volo; li confronta e suggerisce al pilota le eventuali correzioni; le principali sono:
59
− La correzione contro l’effetto del vento (occorre anche riorientare la fotocamera; in
situazione di equilibrio l’orientamento potrebbe non essere più quello corretto);
− La regolazione della velocità dell’aeromobile o dell’intervallo tra due esposizioni successive
per mantenere il grado di sovrapposizione desiderato tra riprese adiacenti.
4.8.3 Le tecnologie di supporto
Nel corso della missione, per semplificare il lavoro degli operatori e per migliorare i risultati,
possono essere impiegati diversi dispositivi tecnologici:
− GPS e programmi per la pianificazione della missione;
− Supporto della fotocamera stabilizzato tramite giroscopio;
− Compensazione del moto di avanzamento: durante lo scatto, si fa muovere meccanicamente
la pellicola seguendo il movimento apparente dell’immagine dovuto al moto della
piattaforma; così facendo si migliora il contrasto evitando che le foto escano “mosse”.
Va detto inoltre che stanno cominciando a diffondersi fotocamere per riprese aeree non basate su
pellicola sensibile, ma su CCD.
60
CAPITOLO 5
GLI SCANSORI MULTISPETTRALI
Gli scansori multispettrali misurano l’energia elettromagnetica riflessa esplorando la superficie
della Terra. Come suggerito dal nome “multispettrale”, queste misure vengono effettuate per diversi
intervalli dello spettro elettromagnetico. Gli scansori multispettrali vengono usati nel
telerilevamento sin dal 1972, anno in cui fu messo in orbita il primo satellite della famiglia
LandSat; le applicazioni principali di tali scansori sono la mappatura della copertura del suolo e
della vegetazione, la mineralogia delle superfici e lo studio delle superfici idriche.
5.1 La scansione
In alternativa all’acquisizione contemporanea di una intera scena (come viene fatto nella fotografia
aerea), si può acquisire un pixel o un gruppo di pixel per volta e comporre la scena ripetendo
l’acquisizione. L’acquisizione di un pixel o di una striscia di pixel per volta è realizzata per via
elettronica (non si usa, cioè, la pellicola fotografica).
5.1.1 Scansione trasversale
Comporta l’acquisizione di uno o più pixel per volta formando altrettante linee in direzione
trasversale rispetto alla linea di volo, grazie alla rotazione di uno specchio; la strisciata è formata
accostando linee (o gruppi di linee) successive, seguendo il movimento della piattaforma.
Fig. 5.1 – Esempio di funzionamento di uno scansore trasversale
Gli scansori trasversali usano rivelatori allo stato solido per misurare l’energia elettromagnetica
incidente. L’ottica può essere composta da lenti o da griglie selettive che mandano ogni frequenza
verso il relativo rivelatore. La gamma di radianze che il sensore può gestire si chiama dinamica;
l’uscita quantizzata del sensore prende il nome di Digital Number (DN). La minima differenza di
ingresso che può essere discriminata prende il nome di risoluzione radiometrica; di solito si
suddivide la dinamica in 28, 210 o 216 livelli discretizzati.
Vantaggi:
− Serve un numero inferiore di sensori; questo comporta una migliore omogeneità
delle misure e minori problemi di calibrazione.
Svantaggi:
− Occorre un meccanismo aggiuntivo in movimento, che peggiora l’affidabilità e può
introdurre vibrazioni;
61
− Si ha poco tempo a disposizione per registrare il singolo pixel; questo significa che è
difficile ottenere alta potenza di segnale, e quindi ottenere alti livelli di SNR.
5.1.1.1 La geometria
Detto IFOV il campo di vista istantaneo (Instantaneous Field of View) e FOV (Field of View) il
campo di vista, sia D il diametro della zona istantaneamente osservata (misurato in metri), β
l’apertura dello strumento (misurata in radianti) e H l’altezza dello strumento (misurata in metri); si
ha allora:
D = β ×H
(5.1)
5.1.2 Scansione longitudinale o “pushbroom”
Questo tipo di scansione comporta l’acquisizione di una riga di pixel per volta, disposta in direzione
trasversale rispetto al moto del sensore. Lo spostamento da una linea alla successiva è dovuto al
moto della piattaforma; non servono infatti altre parti in movimento. Un esempio di questo tipo di
scansione è il sensore HRV dello SPOT.
Fig. 5.2 – Esempio di funzionamento di uno scansore longitudinale
Vantaggi:
− Ogni sensore ha più tempo a disposizione per registrare un pixel, il che migliora la
risoluzione radiometrica e/o geometrica, nonchè il SNR;
− Non ha parti in movimento, per cui è più affidabile e crea meno disturbi.
Svantaggi:
− È laborioso calibrare tutti i sensori, per cui si possono avere delle disomogeneità
nelle misure.
− Le schiere di rivelatori usati non operano nel campo dell’infrarosso termico.
− I limiti tecnologici sulla lunghezza degli array non permettono di ottenere FOV (e
quindi strisciate) grandi.
62
Fig 5.3 - Metodi di acquisizione dei sensori a scansione. L’ultimo caso a destra si riferisce alla acquisizione
contemporanea su tutta la scena, che non si realizza con gli scansori.
5.2 Le tecniche multispettrali
Per quanto riguarda la realizzazione di immagini in più bande (immagini multispettrali) vengono
utilizzate tecniche in grado di separare le diverse componenti spettrali della radiazione incidente.
Un esempio è costituito dai prismi dispersivi come illustrato in Fig. 5.4. Sono anche utilizzati
specchi dicroici trasparenti solo a certe bande di frequenza o filtri.
Fig. 5.4 – Tecniche di acquisizione di dati multispettrali
Nel seguito è descritto il modo di funzionamento di un tipico scanner multispettrale.
Uno specchio primario è montato su di un asse parallelo alla direzione di avanzamento del velivolo
ed è inclinato rispetto all'asse stesso. Il motore elettrico, facendo ruotare lo specchio, assicura la
scansione del terreno in direzione ortogonale alla direzione di moto del velivolo; l'energia
elettromagnetica proveniente dal terreno (riflessa ed emessa) viene acquisita dal telescopio, inviata
allo specchio primario e rinviata dallo specchio secondario ad un filtro dicroico; qui l'energia
63
elettromagnetica è separata tra energia emessa e riflessa in funzione del contenuto spettrale ed è
inviata ai rilevatori fotosensibili, che convertono il segnale luminoso in segnale elettrico.
Tale segnale, dopo essere stato convertito in digitale, può essere registrato su nastro magnetico a
bordo oppure inviato a terra (nel caso di sistemi su satellite).
Gli scanner multispettrali utilizzati sugli aerei dispongono solitamente di un sistema di restituzione
dell'immagine su carta termica a bordo del velivolo stesso e di un sistema di registrazione dei dati
digitali su nastri magnetici del tipo ad alta densità (HHDT: High Density Digital Tape).
5.3 Fotografia e rilevazione elettronica
Tutti i sistemi a scansione o comunque a rilevazione elettronica hanno diversi vantaggi rispetto alla
rilevazione fotografica:
− Minori problemi di coregistrazione tra le bande;
− Gamma di lunghezze d’onda acquisibili più larga;
− È più facile misurare precisamente la quantità di energia ricevuta;
− Non necessitano di processi di sviluppo, né del trasporto materiale della pellicola
(utile per i sistemi satellitari).
La fotografia viene utilizzata in quelle situazioni in cui l’informazione spaziale è più importante di
quella spettrale, e comunque mai su piattaforme satellitari.
5.4 Termografia
I sensori multispettrali in grado di rilevare l’IR nella gamma termica, misurando di fatto la
temperatura della superficie degli oggetti osservati vengono chiamati TERMOGRAFI; essi sono
generalmente a scansione trasversale, ed utilizzano sorgenti interne di riferimento per calibrare le
proprie misurazioni. Gli elementi sensibili sono raffreddati. Le immagini prodotte dai termografi
sono dette TERMOGRAMMI; in tali immagini della zona osservata vengono rappresentate con toni
di grigio più chiari le zone più calde. La risoluzione raggiungibile è intorno a 0,1° C.
Fig. 5.5 – Esempio di termogramma - relativo ad una miniera di carbone - acquisito durante la notte; le parti scure
rappresentano zone relativamente fredde, mentre le parti chiare rappresentano le zone più calde. La maggior parte delle
zone chiare sono dovute alla combustione sotterranea in giacimenti di carbone, a parte la macchia chiara più grande, che
è un lago ancora caldo dopo il tramonto del sole che ha causato invece il raffreddamento rapido del terreno circostante.
5.4.1 Bande termiche
− Le immagini generate evidenziano correttamente le differenze di temperatura, mentre i
valori assoluti richiedono una calibrazione molto più precisa e complessa.
− L’IR termico è emesso, quindi la sua rilevazione non dipende da sorgenti esterne.
64
− Non vi è diffusione apprezzabile, ma l’assorbimento da parte dell’atmosfera limita la
gamma di lunghezze d’onda utilizzabili agli intervalli 3-5µm e 8-14µm.
5.4.2 Immagini termiche
− La scarsa energia dei fotoni IR costringe ad allargare il campo visivo istantaneo (IFOV),
peggiorando la risoluzione; quindi le immagini termiche sono generalmente a risoluzione
più bassa delle ottiche riflesse.
− Gli impieghi principali, oltre a quelli militari, sono nello studio delle dispersioni di calore
dagli edifici e nella rilevazione ed osservazione di incendi boschivi.
5.5 Alcuni scansori multispettrali
5.5.1 Meteosat-5
Meteosat è un satellite geostazionario usato nel programma meteorologico mondiale (World
Climate Programme, WCP). Il programma comprende 7 satelliti in totale, dei quali il primo è stato
mandato in orbita nel 1977. I satelliti Meteosat sono di proprietà dell’organizzazione europea
Eumetsat, avente sede a Darmstadt, vicino a Francoforte sul Meno, in Germania.
Attualmente sono in funzione Meteosat-8, con Meteosat-7 che funge da scorta, Meteosat-5 che è
stato spostato sull’Oceano Indiano a 63° Est e Meteosat-6 che viene mantenuto in funzione di
riserva a circa 10° Est. Il 21 dicembre 2005 è stato lanciato in orbita dalla base europea di Kourou il
satellite Meteosat-9. Il satellite Meteosat funziona anche da ripetitore delle immagini trasmesse da
altri satelliti geostazionari (GMS, GOMS, GOES) ed in tal modo è possibile disporre delle
immagini di qualsiasi zona della terra.
Sistema
Orbita
Sensore
Ampiezza Swath
Tempo di rivisita
Dimensione del pixel al suolo
Meteosat-5
Geostazionaria, longitudine 0°
VISSR (Visibile and Infrared Spin Scan Radiometer)
Full Earth Disc (FOV = 18°)
30 minuti
2,5 km (VIS e WV), 5 km (TIR)
Tabella 5.1 – Caratteristiche di Meteosat-5, appartenente alla prima generazione
Lanciato nel 29 Agosto del 2002 dal cosmodromo europeo della Guiana Francese mediante il
vettore Ariane5, MSG (Meteosat Second Generation) 1 è il primo satellite geostazionario europeo
per le risorse metereologiche di seconda generazione. Costruito per conto di EUMETSAT, il
satellite è stato infatti ribattezzato Meteosat 8 e dal novembre 2002 ha iniziato ad inviare immagini
verso terra coadiuvando l'attività del già longevo Meteosat 7.
Meteosat 8 pesa circa 2000 kg rispetto ai 720 kg del precedente e i sistemi di potenza erogano ben
600 Watts contro i 200 Watts del vecchio Meteosat 7. Tuttavia le novità più importanti riguardano il
sensore multispettrale il quale garantisce l'osservazione perpetua in 12 bande differenti compresa
una ad alta risoluzione. Il nuovo sistema inoltre permette di inviare immagini ogni 15 minuti invece
che ogni 30 migliorando la prontezza di previsione per i centri metereologici.
65
Fig. 5.6 – Un satellite Meteosat di seconda generazione (fonte: ESA) (a sinistra) e un’immagine acquisita dal satellite
Meteosat che copre l’Europa Occidentale e l’Africa settentrionale (a destra).
I dodici canali di ripresa sono cosi suddivisi:
Banda 1,2
Banda 3
Banda 4
Banda 5
Banda 6
Banda 7
Banda 8
Banda 9
Banda 10
Banda 11
Banda 12
Larghezza della Banda
0,6 – 0,8 µm (visibile)
1,6 µm (infrarosso)
3,9 µm (infrarosso)
6,2 µm (spettro del vapore acqueo)
7,3 µm (spettro del vapore acqueo)
8,7 µm (infrarosso)
9,7 µm (infrarosso)
10,8 µm (infrarosso)
12,0 µm (infrarosso)
13,4 µm (infrarosso)
Nel visibile ad alta risoluzione (HVR)
Applicazioni
Rilevazione delle nuvole
Differenziazione di nuvole,ghiaccio,neve,acqua
Per distinguere le nuvole basse dalla nebbia
Per evidenziare vari eventi atmosferici
Per evidenziare vari eventi atmosferici
Per informazioni sulle nuvole
Per rilevare l’ozono nella bassa atmosfera
Rilevazione della temperatura della sup. terrestre
Rilevazione della temperatura della sup. terrestre
Rilevazione di anidride carbonica
Tabella 5.2 – I dodici canali di Meteosat-8
Il Meteosat 9 è il secondo dei quattro Meteosat di nuova generazione previsti dal programma meteo
dell’ESA: il primo, il Meteosat 8, è stato lanciato nell’agosto 2002 ed è oggi pienamente operativo.
I Meteosat di nuova generazione hanno una forma cilindrica, piuttosto interessante anche dal punto
di vista estetico, con un diametro di 3,2 metri e un altezza di 2,4. La massa al lancio supera di poco
le 2 tonnellate, per questo è stato sufficiente un Ariane 5 in configurazione standard, che può
mettere in orbita geostazionaria un carico che arriva fino a 6 tonnellate.
La gestione scientifica e commerciale spetta a Eumetsat, mentre responsabile industriale del
satellite è Alcatel Alenia Spazio.
In totale sono coinvolte nel progetto oltre 50 industrie europee, fra le quali le italiane Officine
Galileo e la Space Engineering S.p.A. Lo sviluppo e la costruzione sono costati circa 475 milioni di
euro, finanziati per 2/3 dall’ESA e per il rimanente da Eumetsat.
Che cosa cambia nelle previsioni del tempo con il lancio di Meteosat-9?
Ogni satellite ha caratteristiche che permettono di migliorare notevolmente le previsioni del tempo
rispetto alla generazione satellitare precedente.
Per esempio lo strumento principale il SEVIRI (Spinning Enhanced Visible and Infra-red Imager)
compie osservazioni in dodici bande spettrali diverse e non più tre, come in passato.
E acquisisce nuove immagini ogni 15 minuti, contro il 30 dei vecchi Meteosat. Anche la risoluzione
spaziale è migliorata: nel canale spettrale della luce visibile, per esempio, dai 2,5 km dei vecchi
Meteosat si è passati a 1 km dei nuovi satelliti.
66
Questo significa che siamo ora in grado di osservare coperture nuvolose di estensione minore. Ma
anche la trasmissione dati è migliorata: utilizzando trasmissione in digitale possiamo otteniamo un
trasferimento dati fino a 3,2 milioni di bits al secondo (3,2 Mbps), 20 volte più veloce di quella dei
Meteosat di prima generazione: un valore prossimo a quello delle offerte commerciali della banda
larga terrestre.
I satelliti si trovano in orbita geostazionaria e ruotano sul proprio asse a 100 giri al minuto (100
rpm) per migliorare la stabilità: per i prossimi anni il Meteosat 8 continuerà a essere il satellite
principale, mentre il Meteosat 9 si preparerà a sostituirlo.
5.5.2 NOAA-15
NOAA sta per National Oceanic and Atmospheric Administration, che è un organo governativo
statunitense. Il sensore a bordo delle missioni NOAA rilevante per l’osservazione della Terra è
l’Advanced Very High Resolution Radiometer (AVHRR); attualmente sono tre i satelliti NOAA
operativi, precisamente il 16, il 17 e il 18 con il 15 che funziona essenzialmente da riserva.
Fig. 5.7 – AVHRR - NOAA
Sistema
NOAA-15
Orbita
850 km, 98.8°, eliosincrona
Sensore
AVHRR-3
Ampiezza della strisciata
2800 km (FOV = 110°)
Tempo di rivisita
2 – 14 volte al giorno, in base alla latitudine
Risoluzione spaziale
1 km (al nadir), 6 km (at limb), IFOV = 1,4 millirad
Tabella 5.3 – Caratteristiche di NOAA
Fig. 5.8 – Un’immagine acquisita dal sensore AVHRR sull’Alaska (fonte: NOAA)
67
I due satelliti in orbita polare primari, ossia NOAA-16 e NOAA-17 forniscono un passaggio di
acquisizione quattro volte al giorno su una certa zona in 6 canali spettrali (in effetti supportano 5
canali spettrali alla volta, ed effettuano uno switch di canale per supportare il sesto canale spettrale
di NOAA-17). NOAA-16 e NOAA-17 hanno le stesse capacità dei precedenti satelliti NOAA, fatta
eccezione per l’aggiunta in essi di una nuova unità, il cosiddetto AMSU, ossia Advanced
Microwave Sounder Unit.
Attualmente NOAA-15 è usato come un satellite di backup. Anche se questo satellite continua a
fornire immagini e prodotti in maniera continuativa, il suo utilizzo è diventato secondario con
l’avvento dei più recenti satelliti NOAA-16 e NOAA-17. tuttavia, alcuni utenti continuano ad aver
bisogno dei prodotti di NOAA-15, ad esempio per stabilire i tassi di pioggia e la quantità
complessiva di acqua caduta durante una precipitazione.
NOAA-16 è stato lanciato il 21 Settembre 2000, mentre NOAA-17 è stato lanciato il 24 Giugno
2002; entrambi sono attualmente in pieno funzionamento con le stesse caratteristiche del NOAA15, fatta eccezione per l’unità aggiuntiva di cui si è detto sopra. NOAA-18 nvece è stato lanciato il
24 Febbraio 2005 ed è attivo con le stesse caratteristiche del NOAA-17.
NOAA-17, come anche NOAA-15 e NOAA-16, imbarca i seguenti strumenti:
- AVHRR/3 (Advanced VHRR): radiometro per immagini VIS/IR a 6 canali in cui però il
canale a 1,61 µm e quello a 3,74 µm sono trasmessi in alternativa (1,61 µm di giorno, 3,74
µm di notte);
- HIRS/3 (High-resolution Infra Red Sounde –3): radiometro in 20 canali per il sondaggio in
IR di temperatura ed umidità;
- AMSU-A (Microwave Sounding Unit–A): radiometro in 15 canali per il sondaggio della
temperatura in MW;
- AMSU-B (Microwave Sounding Unit–B): radiometro in 5 canali per il sondaggio
dell’umidità in MW;
- SBUV/2 (Solar Backscatter Ultraviolet-2): spettro-radiometro a 12 canali da 252 a 340 nm
per il profilo dell’ozono, visione solo nadir, risoluzione orizzontale 170 Km, verticale 7 km;
- DCS/2 (Data Collection System-2), anche denominato ARGOS, sistema di raccolta dati da
stazioni automatiche (trasmittenti a 401,65 MHz) con localizzazione della piattaforma;
- SARSAT (Search and Rescue Satellite Aided System), sistema di localizzazione di chiamate
di emergenza provenienti da trasmettitori a 121.5, 243 e 406 MHz.
Il sensore AVHRR è usato soprattutto nelle previsioni giornaliere dove dà delle informazioni più
precise rispetto a quelle fornite da Meteosat. Inoltre, viene utilizzato per numerose applicazioni
relative alle acque e al terreno. I dati provenienti dal sensore AVHRR sono utilizzati per generare le
mappe di temperatura della superficie marina (Sea Surface Temperature maps, le cosiddette SST
maps), che possono essere usate nel monitoraggio del clima, nello studio di El Niño, nella
individuazione dei vortici per poter guidare le navi in zone ricche di pesce, eccetera. Le mappe di
copertura delle nuvole basate su dati AVHRR possono essere inserite in modelli di crescita delle
coltivazioni. Un altro prodotto derivato dai dati AVHRR sono le mappe dell’Indice di Vegetazione
Normalizzato (Normalized Difference Vegetation Index maps, NDVI; v §9.12.2); queste mappe
danno un’indicazione relativa alla quantità di biomassa. I dati di NDVI vengono inseriti in modelli
relativi alla crescita della vegetazione e in modelli che analizzano i cambiamenti climatici.
Le applicazioni principali dell'AVHRR riguardano:
-
Meteorologia e climatologia
Oceanografia fisica
Fisica dell'atmosfera
Controllo delle attività vulcaniche
Controllo di incendi di vaste dimensioni
Temperatura superficiale del mare
Temperatura superficiale della Terra
68
5.5.3 LandSat-7
Il programma LandSat è il più vecchio programma di Osservazione della Terra; è iniziato nel 1972
con il satellite LandSat-1 che portava a bordo il sensore multispettrale MSS (Multi-Spectral Scanner
System). Nel 1982 tale sensore è stato sostituito con il Thematic Mapper (TM). Nel 1999 è stato
lanciato in orbita LandSat-7, che ha a bordo un sensore ETM plus. Attualmente, solo i satelliti
LandSat-5 e LandSat-7 sono attivi.
Fig. 5.9 – Il satellite Landsat (fonte: NPA Group).
5.5.3.1 Le bande del LandSat
Lo strumento TM di Landsat-5 e lo strumento ETM+ di Landsat-7 osservano la Terra con sette filtri
diversi o “bande”. Le bande 1, 2, 3, 4, 5 e 7 su entrambi gli strumenti sono sensibili all’energia della
luce proveniente dal sole riflessa dalla superficie della Terra. Ogni banda è sensibile ad una parte
diversa dell’energia solare riflessa. La banda 6 è diversa da tutte le altre in quanto essa non registra
l’energia della luce riflessa ma piuttosto la temperatura della superficie della Terra. Oltre a queste
bande, lo strumento ETM+ ha un’ottava banda, detta banda pancromatica, sensibile all’energia
della luce riflessa in un vasto intervallo di lunghezze d’onda che comprende il blu, il verde, il rosso
e l’infrarosso vicino.
- Banda 1 (Blu, 0,45 – 0,52 µm); è utilizzata soprattutto nello studio di aree costiere e delle
correnti marine perché è caratterizzata da alta penetrazione in acqua; fortemente influenzata
dalla diffusione atmosferica.
- Banda 2 (Verde, 0,52 - 0,60 µm); utilizzata soprattutto nella stima dello stato di salute della
vegetazione, è anche applicata, assieme ed in rapporto con la banda 1, nello studio di
materiali in sospensione in corpi idrici. Nell’ambito di ricerche geologico-strutturali
consente verifiche indirette sulla presenza di un dato lineamento; spesso, infatti, zone
intensamente fratturate sono sede di una più intensa circolazione idrica sotterranea che
induce la crescita di maggiore e talvolta diversificata vegetazione. Consente di distinguere i
boschi di conifere da quelli costituiti da piante a foglia caduca.
- Banda 3 (Rosso, 0,63 - 0,69 µm); è la banda più indicata per la diversificazione di varie
classi di vegetazione per effetto del diverso valore di assorbimento della clorofilla tra le
diverse specie; da anche utili indicazioni sui confini tra suolo, vegetazione e roccia. È
l’unica tra le bande del visibile a risentire in maniera trascurabile della diffusione
atmosferica.
69
-
-
-
Banda 4 (Infrarosso vicino, 0,76 - 0,90 µm); essendo presente anche in questa regione dello
spettro un picco di riflettività per la vegetazione, tale banda è indicata per lo studio della
biomassa. Di notevole importanza è la discriminazione tra aree interessate da concentrazione
d’acqua e zone più aride; ciò è dovuto al forte assorbimento di queste lunghezze d’onda da
parte dei corpi idrici. Tale banda rappresenta, assieme alla 7, una tra le più indicate per
individuare i lineamenti, che sono degli elementi lineari riconoscibili su un’immagine a cui
si può attribuire un significato geologico o geomorfologico (monoclinale, allineamento
morenico, asse di piega, spill – away glaciale, imbuto di erosione, orlo di terrazzo, antica
linea di costa, faglia, ecc). Inoltre questa banda concentra in sé i vantaggi sia della più facile
individuazione di aree più umide o a maggiore circolazione idrica, sia della capacità di
riconoscere le zone con vegetazione più o meno rigogliosa. Consente inoltre di distinguere i
boschi di conifere rispetto a quelli cedui.
Banda 5 (SWIR, 1,55 - 1,75 µm); banda sensibile alla quantità d’acqua nelle piante e come
tale utilizzata per il rilevamento dell’umidità della vegetazione. Potere di penetrazione
attraverso nubi stratiformi. Utile per la differenziazione tra nuvole, neve e ghiaccio.
Banda 6 (Infrarosso termico, 10,4-12,5 µm); è utilizzata per studi sull’attività geotermica e
sull’inerzia termica.
Banda 7 (SWIR, 2,08-2,35µm); utile per la differenziazione dei diversi litotipi (in particolare
coincide con la banda di assorbimento di materiali idrati). Utile per determinare il contenuto
di umidità del suolo, questa banda è la più indicata per studi geologici in genere.
Fig. 5.10 – Un’immagine Landsat di Santorini. L’isola più grande è Thera, mentre quella più piccola in alto a sinistra è
Therasia.
5.5.3.2 Le applicazioni del LandSat
Le principali applicazioni dei dati LandSat provenienti dal sensore TM sono la mappatura della
copertura del suolo, la mappatura del suolo, quella geologica, quella della temperatura della
superficie marina, eccetera. In sostanza, i campi applicativi per i quali l’utilizzo dei dati acquisiti dai
satelliti LandSat ha dimostrato una notevole efficacia sono i seguenti:
- Cartografia tematica a media scala(1:200.000-1:100.000);
- Uso dei suoli;
- Agricoltura e foreste;
- Vegetazione;
70
- Geologia, Geomorfologia e Geobotanica;
- Cartografia a media scala;
- Idrogeologia;
- Oceanografia;
- Inquinamento delle acque (interne ed in zone costiere).
Per gli studi sulla copertura del terreno e sull’uso del terreno, vengono preferiti i dati provenienti
dal sensore TM del LandSat a quelli provenienti dal satellite SPOT per la presenza, nei primi, della
banda dell’infrarosso medio. Il sensore TM del LandSat è infatti l’unico satellite non meteorologico
che ha una banda nell’infrarosso termico. I dati termici sono necessari quando si vogliono studiare i
processi energetici della superficie terrestre, oppure la variabilità della temperatura delle
coltivazioni all’interno di aree irrigate.
La tabella 5.4 mostra un elenco delle bande del LandSat con le relative applicazioni.
Banda 1
Banda 2
Banda 3
Banda 4
Banda 5
Banda 6
Banda 7
Banda 8
Larghezza della Banda
Risoluzione Spaziale
30 m
0,45 – 0,52 µm (blu)
30
m
0,52 – 0,60 µm (verde)
30 m
0,63 – 0,69 µm (rosso)
30 m
0,79 – 0,90 µm (vicino infrarosso)
30 m
1,55 1,75 µm (infrarosso)
60 m
10,4 – 12,50 µm (infrarosso termico)
30
m
2,08 – 2,35 µm (vicino infrarosso)
15 m
0,52 – 0,90 µm (verde – vicino infrarosso)
Tabella 5.4 – Elenco delle bande del sensore Landsat e loro applicazioni
5.5.4 SPOT
SPOT sta per Systéme Probatoire l’Observation de la Terre ed è di proprietà di un consorzio
formato dai governi di Francia, Svezia e Belgio. SPOT-1 è stato lanciato nel 1986 dal CNES
(Centre Nationale d'Etudes Spatiales), mentre nel 1998 è stato lanciato SPOT-4, che è stato
significativamente migliorato rispetto al precedente. Il sensore HRVIR (High Resolution Visible
and Infrared) ha 4 bande invece di 3 e gli è stato aggiunto lo strumento VEGETATION, progettato
per monitoraggi frequenti (al limite anche giornalieri) ed accurati di vaste aeree del globo.
Attualmente sono tre i satelliti della famiglia SPOT in orbita, precisamente SPOT-2, SPOT-4 e
SPOT-5, che è l’ultimo della serie ed è stato lanciato nel Maggio del 2002.
Fig. 5.11 – Il satellite SPOT 5 (fonte: CNES/ Ill. D. Ducros).
71
Lo SPOT-4 acquisisce immagini multispettrali secondo due modalità operative: modo multispettrale
e modo pancromatico. Per quanto concerne il modo multispettrale, le immagini sono acquisite su
quattro bande spettrali con una risoluzione geometrica di 20 m. I canali spettrali di SPOT-4 e
SPOT-5 nel modo multispettrale sono i seguenti:
-
Pancromatico (wide band): 0,49 – 0,69 µm
Banda 0 nel visibile: 0,43 – 0,47 µm (solo sullo strumento VEGETATION);
Banda 1 nel visibile: 0,50 – 0,59 µm;
Banda 2 nel visibile: 0,61 – 0,68 µm;
Banda 3 nel visibile: 0,78 – 0,89 µm;
Infrarosso onda corta (SWIR): 1,58 – 1,75 µm
Fig. 5.12 – Due esempi di immagini SPOT: a sinistra un’immagine di Napoli acquisita con risoluzione 10 m,
mentre a destra un’immagine di Stoccolma con risoluzione 5 m; (fonte: Spatial Mapping LTD)
Il satellite SPOT-5 possiede uno strumento HRS (High Resolution Stereoscopic), capace di
acquisire immagini in stereoscopia per poter ottenere DSM aventi precisione secondo l’asse z di 10
metri. SPOT-5 possiede la capacità di acquisire immagini con risoluzione di 2,5 m nella banda
pancromatica grazie ad una procedura di campionamento detta Supermode. Questo metodo processa
due immagini pancromatiche a 5 m di risoluzione acquisite simultaneamente per generare una
immagine singola a risoluzione di 2,5 m.
Sistema
Orbita
Sensore
Ampiezza della strisciata
Tempo di rivisita
Risoluzione spaziale
SPOT-5
835 km, 98.7°, eliosincrona, passaggio a 10:30 AM, ciclo di ripetizione 26 giorni
Due sensori HRVIR (High Resolution Visibile and Infrared)
60 km (vettore CCD di 3000 pixel)
4 – 6 giorni (in base alla latitudine)
10 m (PAN), 20 m (bande 1 -4)
Tabella 5.5 – Caratteristiche di SPOT
Nel modo di funzionamento pancromatico le immagini sono acquiste in un unico canale spettrale
con una risoluzione geometrica di 10 m (che può arrivare fino a 2,5 m nel caso di SPOT-5).
I principali campi applicativi dei dati SPOT sono i seguenti:
- Uso dei suoli
- Agricoltura e foreste
- Vegetazione
- Cartografia a grande scala (1:25.000-1:50.000)
- Oceanografia costiera
72
-
Modelli digitali di elevazione del terreno.
5.5.5 IKONOS
IKONOS è stato il primo satellite commerciale ad alta risoluzione posto in orbita nello spazio. È di
proprietà di SpaceImaging, una compagnia americana che si occupa di Osservazione delle Terra.
Esso fornisce la più alta risoluzione spaziale finora raggiunta da un satellite civile. Si prevedono
molte applicazioni per i dati IKONOS; ci si aspetta che, nel lungo periodo, il 50% della fotografia
aera sarà rimpiazzata da immagini ad alta risoluzione provenienti dallo spazio. Il primo obiettivo di
IKONOS è quello di acquisire dati delle maggiori città americane.
Finora, la mappatura e il monitoraggio dallo spazio delle aree urbane (non solo in America) è stato
possibile solo fino ad un certo punto. I dati IKONOS possono essere usati per mappe topografiche
da piccola a media scala, non solo per produrre nuove mappe, ma anche per aggiornare quelle
esistenti.
Sistema
Orbita
IKONOS
680 km, 98.2°, eliosincrona, attraversamento 10:30
AM, ciclo di ripetizione 14 giorni
Sensore
Optical Sensor Assembly (OSA)
Ampiezza della strisciata 11 km (12 µm elementi CCD )
Tempo di rivisita
1 – 3 giorni
Risoluzione spaziale
1 m (PAN), 4 m (bande 1 -4)
Tabella 5.6 – Caratteristiche di IKONOS
Fig. 5.13 – Il satellite Ikonos (a sinistra) e un’immagine da esso acquisita sulla città di Londra
5.5.6 QuickBird
Lanciato il 18 ottobre 2001; è attualmente il satellite commerciale che possiede la più elevata
risoluzione spaziale disponibile. Permette di ottenere immagini aventi una larghezza di circa 16,5
Km, ed il sensore acquisisce immagini pancromatiche a 61cm di risoluzione ed a 2,44m in modo
multispettrale. E’ evidente che a queste risoluzioni tutte le infrastrutture di una città sono visibili.
73
Larghezza della Banda
Risoluzione Spaziale
0,6 – 0,72 m
Pancromatico
2,44
– 2,88 m
Banda 1
0,45 – 0,52 µm (blu)
2,44 – 2,88 m
Banda 2
0,52 – 0,60 µm (verde)
2,44 – 2,88 m
Banda 3
0,63 – 0,69 µm (rosso)
2,44 – 2,88 m
Banda 4
0,76 - 0,90 µm (vicino infrarosso)
Tabella 5.7 – Caratteristiche delle bande di Quickbird
Fig. 5.14 – Il satellite Quickbird (a sinistra) e un’immagine a colori reali ad alta risoluzione (60 cm) della città di
Teheran, in Iran, acquisita l’11 agosto 2003(fonte: DigitalGlobe).
5.5.7 TERRA – ASTER
Advanced Spaceborne Thermal Emission and Reflection Radiometer (ASTER), lanciato nel
dicembre del 1999, possiede un sensore capace di ottenere immagini ad alta risoluzione (da 15 a
90m) su 14 differenti canali, sensibili allo spettro luminoso tra il visibile e l’infrarosso termico.
Banda 1
Banda 2
Banda 3
Banda 4
Banda 5
Banda 6
Banda 7
Banda 8
Banda 9
Banda 10
Banda 11
Banda 12
Banda 13
Banda 14
Larghezza della Banda
0,52 – 0,60 µm (verde)
0,63 – 0,69 µm (rosso)
0,76 – 0,86 µm (vicino infrarosso)
1,60 – 1,70 µm (SWIR)
2,145 – 2,185 µm (SWIR)
2,185 – 2,225 µm (SWIR)
2,235 – 2,285 µm (SWIR)
2,295 – 2,365 µm (SWIR)
2,36 – 2,43 µm (SWIR)
8,125 – 8,475 µm (infrarosso termico)
8,475 – 8,825 µm (infrarosso termico)
8,925 – 9,275 µm (infrarosso termico)
10,25 – 10,95 µm (infrarosso termico)
10,95 – 11,65 µm (infrarosso termico)
Risoluzione Spaziale
15 m
15 m
15 m
30 m
30 m
30 m
30 m
30 m
30 m
90 m
90 m
90 m
90 m
90 m
Tabella 5.8 – Caratteristiche delle bande del sensore ASTER di TERRA
La dimensione delle immagini copre una superficie di 60Km × 60Km ed il satellite trova
interessante impiego nell’interpretazione geologica, ambientale e nella produzione di DSM.
74
Fig. 5.15 – Il satellite TERRA (fonte: NASA) (a sinistra) e un’immagine acquisita dal satellite TERRA sulla città di
New York (a destra).
5.5.8 Il sensore MERIS di Envisat-1
Il sensore MERIS (Medium Resolution Imaging Spectrometer) è uno spettrometro ad immagine a
media risoluzione, legato essenzialmente allo studio degli oceani.
Fig. 5.16 – Il sensore MERIS
Si è stimato che circa la metà del calore che l’Equatore trasferisce ai Poli sia trasportato
dall’oceano, e dato che è questo flusso di calore a rendere abitabili le regioni di media latitudine, si
comprende facilmente come diventi necessario poter acquisire informazioni accurate sulla
circolazione oceanica. MERIS è il primo sensore europeo nello spazio per l’osservazione della
biologia oceanica e la qualità dell’acqua marina attraverso l’osservazione del colore del mare. La
sua missione primaria è volta ad offrire un contributo ai progetti scientifici che hanno come
obiettivo lo studio del ruolo degli oceani e della produttività oceanica nel sistema climatico. Gli
obiettivi secondari della missione MERIS includono osservazioni dei parametri atmosferici
associati alle nuvole, vapore acqueo e particelle gassose, oltre a parametri di superficie terrestre,
come quelli legati ai processi di sviluppo della vegetazione.
75
Gli obiettivi di MERIS sono molteplici, per cui si suddivide la missione di questo sensore in tre
parti principali:
- la missione oceano: MERIS permette lo studio degli strati superiori dell’oceano attraverso la
misura del potenziale fotosintetico grazie alla rilevazione del fitoplancton; inoltre permette la
rivelazione di sostanza gialla (materiale organico dissolto) e la rilevazione di materiale
sospeso (sedimenti trasportati dai fiumi). In aggiunta, grazie ad esso, sono possibili indagini
sulla qualità dell’acqua, riprese video di estese aree inquinate e osservazioni topografiche.
- la missione atmosferica: l’equilibrio della radiazione del sistema Terra/atmosfera dipende dal
vapore acqueo, dall’anidride carbonica e dalle nuvole, nonché dalle particelle gassose. Prima
di MERIS il controllo delle proprietà delle nuvole e dei loro processi non era sufficientemente
accurato; MERIS è stato concepito, di conseguenza, per fornire dati sull’altezza massima delle
nuvole, sul loro spessore e sul contenuto di vapore acqueo.
- la missione terrestre: il ruolo che la superficie terrestre ricopre nella dinamica climatica e dei
cicli biochimici non è affatto trascurabile; di conseguenza diventano necessarie delle
misurazioni fisiche accurate per poter quantificare i processi di superficie e migliorare la
comprensione della dinamica della vegetazione stagionale e delle risposte allo stress
ambientale.
5.5.8.1 I requisiti della missione
I requisiti della missione possono essere suddivisi in:
- Requisiti geometrici: siccome i dati MERIS sono utilizzati sia in studi globali che regionali,
sono stati previsti due modi di funzionamento. Il Full Resolution mode (FR) acquisisce i dati a
300 m e viene richiesto soprattutto in zone costiere e su terra, mentre il Reduction Resolution
mode (RR) si procura i dati a 1200 m ed è utilizzato in studi ad ampia scala. Il largo campo di
visuale di percorso trasversale è di 68,5 gradi e quando è unito alle caratteristiche dell’orbita
di ENVISAT-1 produce una fascia di circa 1150 km. In questo modo viene soddisfatta la
necessità di avere una copertura globale nel giro di tre giorni, come richiedono le indagini
oceanografiche ed atmosferiche.
- Requisiti spettrali: MERIS è uno spettrometro di riflessione a bande programmabili che ha in
sé la possibilità di cambiare la posizione e la larghezza di banda durante il suo funzionamento.
Tenuto conto degli scopi della missione e delle priorità dello strumento, si sono scelte 15
bande per applicazioni oceanografiche e interdisciplinari. Tali bande sono elencate nel
dettaglio in Tabella 5.6. La gamma spettrale di MERIS è ristretto alla parte visibile e
infrarossa dello spettro, tra 390 nm e 1040 nm. La larghezza di banda spettrale varia tra 1,25 e
30 nm in relazione alla larghezza della caratteristica spettrale da osservare ed in relazione alla
quantità di energia necessaria in una banda per eseguire una osservazione adeguata.
- Requisiti radiometrici: i segnali che provengono dall’oceano sono piuttosto deboli, di
conseguenza diventa difficile individuarli e quantificarli. Per questo motivo l’accuratezza
radiometrica diventa un requisito essenziale dello strumento. Inoltre l’accuratezza
radiometrica è necessaria per la correzione atmosferica, che è di importanza critica, dal
momento che circa il 90% del segnale che raggiunge il sensore viene originato dall’atmosfera.
In aggiunta MERIS è stato progettato per avere una bassa sensibilità alla polarizzazione della
luce sparsa che arriva dall’atmosfera grazie all’uso dell’ottica depolarizzata.
76
No.
Centro
Banda
(nm)
Band
width
(nm)
Potenziali applicazioni
1
412,5
10
Sostanza gialla, torbidezza
2
442,5
10
Massimo assorbimento di clorofilla
3
490
10
Clorofilla e altri pigmenti
4
510
10
Torbidezza, sedimenti sospesi, flussi rossi
5
560
10
Riferimento di clorofilla, sedimenti sospesi
6
620
10
Sedimenti sospesi
7
665
10
Assorbimento di clorofilla
8
681,25
7,5
Fluorescenza della clorofilla
9
708,75
10
Correzione atmosferica
10
753,75
7,5
Riferimentodi assorbimento di ossigeno
11
760,625
3,75
Assorbimento di ossigeno
12
778,75
15
Vegetazione, particelle gassose
13
865
20
Correzione aerosols sopra gli oceani
14
885
10
Riferimento di assorbimento del vapore acqueo
15
900
10
Vegetazione, assorbimento di vapore acqueo
Tabella 5.9 - Elenco delle bande di MERIS
Il sensore MERIS può essere separato in tre sottosistemi principali:
- l’ottica dello strumento;
- il piano focale di rilevazione;
- la catena di elaborazione.
Lo strumento ha un campo di visuale di 68,5 gradi diviso tra cinque camere identiche, ciascuna
delle quali ha un campo di visuale di circa 14 gradi. Le camere sono state disposte in una
configurazione a ventaglio che fa sì che i campi di visione si sovrappongano leggermente uno
all’altro; l’uscita di ogni camera è elaborata separatamente.
77
Fig. 5.17 – L’ottica della strumento
L’ottica di MERIS è composta da una finestra esterna, uno specchio pieghevole, un ground imager
e uno spettrometro. La finestra disturba la luce polarizzata che giunge dalla Terra rendendo lo
strumento meno sensibile ai cambiamenti in polarizzazione; la finestra serve anche a proteggere il
resto degli elementi ottici.
I rilevatori ottici della camera sono schiere di CCD (Charge Coupled Device) sviluppati apposta per
MERIS. Il CCD copre la gamma spettrale con un campione di intervallo spettrale di 1,25 nm. I
CCD operano in modalità di trasferimento di quadro ed il periodo di quadro è di 44 ms. Dopo
l’integrazione, le immagini sono rapidamente trasferite dalla zona di rilevazione a quella di
memoria; la trasmissione di un quadro è seguita da un nuovo periodo di integrazione nella zona di
rilevazione, mentre viene letta la zona di memoria.
Ogni camera ha una catena di elaborazione specializzata. Un’elaborazione analogica è intrapresa
dall’unità elettronica video, le cui funzioni sono:
- estrarre il segnale utile in 15 bande selezionate;
- compensare la variazione di offset usando il pixel di riferimento;
- amplificare il segnale;
- digitalizzare il segnale video a 12 bit.
5.5.8.2 Le prestazioni dello strumento
Il campo di visuale di MERIS consente una copertura globale in due o tre giorni, che è il lasso di
tempo richiesto dalle investigazioni oceanografiche, terrestri ed atmosferiche.
Poiché MERIS opera nel visibile e nell’infrarosso vicino, la qualità radiometrica dei dati acquisita
dipende dall’illuminazione della terra. L’angolo solare dello zenith varia con il giorno dell’anno,
con la posizione angolare nel campo di visuale dello strumento e con il tempo di attraversamento
nodale dell’orbita ENVISAT-1. Per il recupero dei dati geofisici di MERIS è necessario un angolo
zenith solare minore di 80 gradi.
78
Fig. 5.18 – Copertura della terra da parte di MERIS
Fig. 5.19 – Immagine acquisita dal sensore MERIS il 24 Marzo 2002 sul Mar dei Carabi. L’isola maggiore è Cuba;
a sud di Cuba è visibile la Giamaica (fonte: ESA).
5.5.8.3 I dati MERIS
MERIS opera sia a piena risoluzione (FR con 300 m di risoluzione) che a risoluzione ridotta (RR
con 1200 m di risoluzione) e questi due flussi di dati sono disponibili in parallelo a bordo di
ENVISAT-1.
I dati MERIS RR vengono registrati ed elaborati a bordo per il tratto di superficie illuminata dal
sole, mentre i dati FR vengono acquisiti solo quando richiesti per soddisfare sia altri programmi
della missione che le richieste degli utenti.
In particolare per il recupero di questo tipo di dati si applica la seguente strategia:
- i dati sull’Europa vengono recuperati direttamente attraverso dei collegamenti in banda X
(zona di ricezione Kiruna e Fucino);
- i dati fuori dall’Europa vengono recuperati quando possibile attraverso il satellite di
comunicazione ARTEMIS;
79
-
i dati esterni alla zona di ricezione delle stazioni in banda X dell’ESA e di ARTEMIS
vengono registrati a bordo e scaricati in differita da una delle stazioni dell’ESA attraverso
collegamenti in banda X o in banda Ka;
- i dati richiesti dall’operatore di stazione o dai distributori nell’interesse di un operatore di
stazione vengono trasmessi in banda X.
I dati MERIS vengono sistematicamente elaborati in tempo reale per generare vari livelli di
fornitura di dati definiti dall’ESA:
- dato di Livello 0: è il dato in uscita dallo strumento; in pratica è il dato nel suo formato più
grezzo, che generalmente non è reso disponibile per gli utenti;
- dato di Livello 1b: è il dato annotato, calibrato radiometricamente e geolocato. Per MERIS
questa è la radianza calibrata “Top of the atmosphere”(TOA);
- dato di Livello 2: questo tipo di dato contiene sia parametri geofisici geolocati sia parametri di
radianza/riflettanza che dipendono dal tipo di superficie;
- il prodotto Browse: viene elaborato sistematicamente ad una risoluzione di 4 km per l’intero
segmento orbitale. Consiste di tre radianze compresse TOA, selezionate dalle 15 bande
MERIS per migliorare la rappresentazione visuale della terra, del mare e delle caratteristiche
delle nuvole.
Fig. 5.20 – I prodotti di MERIS
5.6 Le distorsioni nel telerilevamento ottico
5.6.1 Origine
Le distorsioni geometriche dell’immagine telerilevata si verificano in tutte le acquisizioni di dati;
esse rappresentano un problema intrinseco del telerilevamento, che -va detto- cerca di rappresentare
su un piano la superficie terrestre che piana non è. Il modo di manifestarsi della distorsione non è
unico, ma dipende dalle modalità di acquisizione.
5.6.2 Cause specifiche
Le cause che possono determinare una distorsione sono molteplici, come ad esempio:
− La prospettiva dell’ottica del sensore: gli errori di prospettiva sono presenti soprattutto nelle
foto aeree, ma anche (in forme diverse) nei rilevamenti a scansione. Le differenze del
terreno causano una distorsione nella relazione geometrica tra i dati contenuti nell’immagine
e il terreno.
80
Fig. 5.21 – Effetti della topografia terrestre sulla relazione tra A-B (sul terreno) e a-b (sulla fotografia); differenza
tra terreno piatto (a) e con un’altezza significativa (b)
Con riferimento all’immagine di Fig. 5.21, vediamo a sinistra la rappresentazione di una
situazione in cui viene acquisita una fotografia aerea veramente verticale su un terreno
piatto. Le distanze (A-B) e (a-b) sono proporzionali alla larghezza totale della scena
osservata e alla sua immagine sul negativo, rispettivamente. In questa situazione possiamo
quindi calcolare (A-B) da una misura di (a-b) sul negativo. Nella situazione di destra invece,
c’è una significativa differenza nel rilievo del terreno. Come si può osservare, la distanza tra
i punti a e b nel negativo è diventata più grande, benchè quando misurata nel sistema del
terreno è ancora la stessa vista nella situazione di sinistra. Questo fenomeno non si presenta
nel centro della foto ma diventa via via predominante muovendosi verso i margini della foto.
Questo effetto è noto come spostamento del terreno: i punti sul terreno la cui altezza è sopra
o sotto un’altezza scelta come riferimento vengono spostati rispettivamente lontano dal
punto di nadir o verso di esso. L’ampiezza dello spostamento apparente dovuto alla
prospettiva indicato con δ r (misurato in mm), è dato da:
r×h
δr =
(5.2)
H
dove r è la distanza radiale dal nadir (misurata in mm), h è l’altezza del terreno sul piano di
riferimento e H (misurata in m) è l’altezza di volo sul piano di riferimento (dove il nadir
interseca il terreno). Questa equazione mostra che la quantità di spostamento del terreno è
nulla al nadir (r = 0), più grande ai bordi della foto ed in ogni caso inversamente
proporzionale all’altezza di volo. Oltre a questo tipo di spostamento, si può facilmente
immaginare come anche edifici e altri oggetti alti possano causare spostamento (in questo
caso detto spostamento di altezza); questo effetto si incontra soprattutto quando si ha a che
fare con foto su larga scala di aree urbane o foreste.
− Il movimento del sistema di scansione: la scansione trasversale soffre della distorsione
prospettica, ma solo in direzione trasversale. Tuttavia, alla distorsione prospettica, si
aggiungono le eventuali instabilità della piattaforma e la cosi detta “distorsione tangenziale
di scala”, ovvero l’allargamento in direzione trasversale alla linea di volo della proiezione a
terra della zona sensibile dello strumento quando la direzione di osservazione si allontana
dal nadir. . La scansione longitudinale invece, evita i problemi legati alla rotazione dello
81
specchio (principalmente la distorsione di scala tangenziale) ed è meno sensibile alle
instabilità della piattaforma.
− Il moto, voluto o indesiderato, della piattaforma.
− L’orografia del terreno.
− La curvatura e la rotazione della Terra.
82
CAPITOLO 6
I RADAR
6.1 Introduzione
Il telerilevamento a microonde usa le onde elettromagnetiche con lunghezza d’onda tra 1 mm e 1 m;
tali λ relativamente lunghe hanno il vantaggio notevole di poter penetrare le nuvole e di essere
praticamente insensibili alle condizioni atmosferiche, come la presenza di nebbia.
Anche nel telerilevamento a microonde ci sono sensori attivi e passivi. I sensori passivi operano in
modo simile ai sensori termici rilevando l’energia a microonde emessa naturalmente. Tali sensori
sono usati in meteorologia, idrologia e oceonagrafia. Nei sistemi attivi l’antenna trasmette segnali a
microonde verso la superficie della Terra dove questi vengono retrodiffusi. La parte dell’energia
elettromagnetica che ritorna nella direzione dell’antenna viene rilevata dal sensore, come si può
vedere in Fig. 6.1.
Fig. 6.1 – Principio di funzionamento del telerilevamento attivo a microonde
Vi sono numerosi vantaggi che derivano dall’utilizzo dei sensori attivi, che hanno una sorgente di
energia propria; tra questi ricordiamo:
− La possibilità di acquisire dati in qualsiasi momento del giorno, incluse le ore notturne
(come avviene nel telerilevamento termico);
− Il pieno controllo delle caratteristiche del segnale (come la lunghezza d’onda, la
polarizzazione, l’angolo di incidenza, la fase, eccetera), dato che le onde sono create in
maniera attiva.
I sensori attivi si dividono, come già ricordato, in sensori d’immagine e sensori non d’immagine; i
sensori RADAR appartengono alla classe più comunemente usata dei sensori di immagine attivi a
microonde. Il termine RADAR è un acronimo e sta per RAdio Detection And Ranging, ovverosia
Rilevazione e valutazione della distanza tramite onde radio. Infatti range è un altro termine usato
per indicare la distanza. I sensori Radar, inizialmente nati per applicazioni militari, trovano
attualmente larga applicazione anche nel settore civile, come ad esempio il monitoraggio
ambientale. Al gruppo degli strumenti a microonde non di immagine appartengono gli altimetri, che
raccolgono informazioni riguardanti le superfici (ad esempio l’altezza della superficie del mare), e i
diffusimetri (o scatterometers), che acquisiscono dati sulla diffusione delle microonde e possono
derivare informazioni circa le proprietà degli oggetti (come la velocità del vento). Le risoluzioni
ottenibili coi sistemi radar vanno da decine di metri a meno di un metro; al variare della risoluzione
variano ovviamente i costi delle immagini, che vanno da pochi € a decine di € al Kmq; le immagini
radar trovano le principali applicazioni nel monitoraggio ambientale e nella rilevazione dei disastri.
La Fig. 6.2 mostra delle zone allagate nelle vicinanze del fiume Po.
83
Fig. 6.2 - Esempio di immagine radar in cui sono visibili gli effetti di un’esondazione del fiume Po; le zone alluvionate,
come quella indicata dalla freccia, appaiono particolarmente scure. Si noti la traccia brillante creata dalla retrodiffusione
delle onde sul ponte della Becca, costituito in gran parte di metallo, alla confluenza di Ticino e Po.
6.2 Principi di acquisizione di immagini radar
I sistemi radar di acquisizione di immagini comprendono numerosi componenti: un trasmettitore, un
ricevitore, un’antenna e un registratore. Il trasmettitore viene usato per generare i segnali a
microonde e trasmettere l’energia all’antenna da dove essa viene emessa verso la superficie della
Terra. Il ricevitore accetta il segnale retrodiffuso come ricevuto dall’antenna, lo filtra e lo amplifica
nella maniera necessaria perché esso sia registrabile. A questo punto il registratore serve per
immagazzinare il segnale ricevuto. I radar d’immagine acquisiscono un’immagine in cui ogni pixel
contiene un numero digitale in accordo con l’intensità dell’energia retrodiffusa ricevuta dal terreno.
La capacità che ha un radar di rilevare un bersaglio è espressa attraverso una relazione nota come
equazione radar, la cui dimostrazione offre fondamentali informazioni sul funzionamento dello
strumento ed è perciò utile ricavarla da considerazioni generali. Un costituente essenziale del radar
è certamente l’antenna, un dispositivo volto ad irradiare o ricevere energia elettromagnetica. Le sue
funzioni principali sono quelle di focalizzare la potenza in una data direzione in modo da aumentare
la sensibilità, garantire il controllo del fascio esploratore in modo da perlustrare una certa area di
copertura e infine permettere la misurazione di informazioni angolari in modo da determinare la
direzione di un bersaglio.
Un parametro fondamentale che racchiude in sé le caratteristiche fondamentali dell’antenna è il
guadagno di potenza G(θ,φ) o semplicemente guadagno G, che esprime la capacità dell’antenna di
concentrare la potenza irradiata in una determinata direzione. Tale parametro comprende il concetto
di perdite che si verificano attraverso il riscaldamento dell’antenna stessa, attraverso il terreno,
assorbimenti vari, perdite delle guide d’onda e di polarizzazione, attraverso qualsiasi accoppiamento
con l’antenna oltre che attraverso la potenza irradiata nei lobi laterali.
In generale un’antenna in cui G è costante, e che quindi ha la caratteristica di irradiare la potenza in
modo uniforme in tutte le direzioni e cioè sull’intero angolo solido (4π steradianti), viene definita
omnidirezionale o radiatore isotropo. Si può ora definire il guadagno di potenza come il rapporto fra
l’intensità di radiazione nel lobo principale dell’antenna e l’intensità di radiazione di un’antenna
isotropa con un’efficienza del 100% avente lo stesso assorbimento di potenza:
G (θ , ϕ ) =
84
4π
∆θ ⋅ ∆ϕ
(6.1)
dove ∆θ e ∆ϕ sono rispettivamente l’ampiezza del fascio in direzione azimutale e in direzione
ascensionale, tutto misurato in radianti. L’angolo azimutale θ fornisce le informazioni direzionali o
di posizione e, come in una bussola magnetica, viene misurato in senso orario partendo dal nord.
L’altezza φ, invece, viene misurata partendo dall’orizzonte verso l’alto. In alternativa il guadagno
stesso può essere definito come:
4π ⋅ Aeff
G =
(6.2)
2
λ
dove Aeff è l’area efficace dell’antenna che solitamente è inferiore all’area reale.
Fig. 6.3 – Azimut, elevazione ed ampiezza di fascio
I diagrammi dell’antenna sono direzionali in tre dimensioni, produrne uno è un po’ come
schiacciare un pallone sferico per ottenere una sporgenza. Se si vuole G > 1 in qualche direzione
particolare si deve schiacciare il resto ed ammettere G < 1 da qualche altra parte. Il punto
importante è che il guadagno integrato su tutte le direzioni attorno ad un’antenna ammonta al valore
unitario.
La potenza irradiata da un’antenna isotropa PT si distribuisce in modo uniforme su di una sfera in
modo tale che il flusso di potenza Φ T ad una distanza RT dall’antenna è dato da:
PT
(6.3)
4πRT2
Tuttavia le antenne reali non sono omnidirezionali ma concentrano la propria potenza in una data
direzione. Per questo è opportuno modificare la precedente equazione tenendo conto della direzione
tramite il guadagno d’antenna in modo da ottenere la seguente relazione per il flusso di potenza:
Φ T ( RT ) =
Φ T ( RT , θ , ϕ ) =
PT GT (θ , ϕ )
4πRT2
(6.4)
Tale flusso di potenza investe un bersaglio che espone ad esso una superficie nota come sezione
d’urto radar σ (RCS, radar cross section), dipendente dalla forma dell’oggetto colpito, dal materiale
che lo costituisce, dalla lunghezza d’onda incidente, etc., per cui il bersaglio reirradierà
isotropicamente una potenza data dal prodotto tra il flusso di potenza incidente e la sezione d’urto
radar:
85
Preirradiata = Φ T σ =
PT GT σ
4πRT2
(6.5)
Ad essa è associato un flusso che si ottiene considerando che tale potenza si distribuisce, nel suo
tragitto verso il ricevitore, su una sfera di raggio R R pari alla distanza tra il bersaglio e il ricevitore
stesso:
ΦR =
PT GT σ
(4πRT2 )(4πRR2 )
(6.6)
Del flusso inviato al ricevitore solo una parte sarà intercettata dall’antenna, che è in grado di
raccogliere una potenza proporzionale alla sua area efficace Aeff , cosicché la potenza al ricevitore
PR risulta essere pari a:
PR =
PT GT σAeff
(4πRT2 )(4πRR2 )
(6.7)
Utilizzando la relazione 6.2 per l’area efficace si ottiene la fondamentale equazione radar generale,
riferibile immediatamente al caso forward-scatter:
PR =
PT GT G Rσλ2
(4π ) 3 RT2 RR2
(6.8)
L’equazione radar nel caso back-scatter si può ottenere direttamente dalla precedente tenendo conto
che Rt = Rr = R
PR =
PT GT G Rσλ2
(4π ) 3 R 4
(6.9)
6.3 Le bande comunemente usate
Similmente a quanto visto nel telerilavemento ottico, i sensori radar operano su diverse bande. Per
una migliore identificazione, è stato definito uno standard che definisca degli intervalli di lunghezze
d’onda usando delle lettere, per distinguere tra varie bande. La missione europea ERS e quella
canadese Radarsat usano la banda C. Proprio come le bande multispettrali, le varie bande radar
forniscono informazioni riguardo alle caratteristiche di differenti oggetti.
Fig. 6.4 – Lo spettro delle microonde e l’identificazione delle bande attraverso le lettere
La frequenza radar può inoltre essere scelta in modo che il suo assorbimento da parte delle molecole
atmosferiche (ossigeno e vapore acqueo) sia basso. La figura 6.5 mostra le bande di assorbimento in
termini di trasmissione atmosferica percentuale in funzione della frequenza (lunghezza d’onda).
86
Possiamo notare che nella regione 1-10 Ghz (3-30 cm) la trasmissività è prossima al 100%. Di
conseguenza, essendo praticamente indipendente dalla copertura nuvolosa o dalle precipitazioni,
che costituiscono un fattore fortemente limitante nel telerilevamento ottico, un SAR operante in
questo intervallo di frequenze è sempre in grado di acquisire immagini relative alla superficie
terrestre. L’utilizzo di sensori SAR è dunque di enorme importanza in quelle zone regolarmente
coperte da foschia o nuvole, come ad esempio le foreste tropicali, dove la topografia e la mappatura
tematica erano praticamente impossibili prima dell’avvento dei radar di immagine. L’indipendenza
dalle condizioni meteorologiche combinata con la capacità di operare sia di giorno che di notte
hanno fatto del SAR un dispositivo di monitoraggio per l’intera superficie terrestre, obiettivo,
questo, non raggiungibile con i sensori ottici. All’aumentare della frequenza nella zona delle
microonde, l’attenuazione di trasmissione aumenta. A 22 GHz c’è una banda di assorbimento di
vapore acqueo che riduce la trasmissione a circa l’85% mentre vicino ai 60 GHz la banda di
assorbimento dell’ossigeno impedisce praticamente a qualsiasi segnale di raggiungere la superficie
terrestre.
Intorno a queste bande di assorbimento vi sono numerose finestre in cui è possibile acquisire
immagini della superficie terrestre a microonde in alta frequenza. Tali finestre sono utili per sistemi
radar ad apertura reale come altimetri e radiometri a microonde. Inoltre, per un sistema SAR
interferometrico, l’accuratezza di mappatura dell’altezza topografica aumenta con la separazione
della baseline dell’antenna, o equivalentemente al decrescere della lunghezza d’onda. Per questa
applicazione, la finestra intorno ai 35 GHz è particolarmente adatta dal punto di vista delle
possibilità operative.
Fig. 6.5 – Trasmissione percentuale attraverso l’atmosfera terrestre per la porzione dello spettro elettromagnetico
relativa alle microonde.
Le immagini radar contengono informazioni abbastanza diverse rispetto a quelle ottenute con
sensori che lavorano nell’ottico o nell’infrarosso. Mentre nell’intervallo ottico la responsabilità
delle caratteristiche di riflettività dell’oggetto è principalmente delle risonanze molecolari, nella
regione delle microonde le proprietà geometriche e dielettriche diventano rilevanti per la
retrodiffusione. Le immagini radar inoltre enfatizzano il rilievo e la struttura morfologica del
terreno osservato cosi come i cambiamenti nella conduttività del suolo, per esempio causati da
87
differenze nell’umidità del suolo. A causa della sensibilità alle proprietà dielettriche le immagini
SAR in teoria possono anche fornire informazioni relative alla condizione della vegetazione, il che
è di grande importanza per applicazioni in materia di agricoltura e foreste.
La lunghezza d’onda del sistema radar influenza in qualche misura la profondità a cui le onde
penetrano nella superficie degli oggetti. In più, essa determina la dimensione degli oggetti con cui le
onde possono interagire. Grazie alla loro grandi lunghezze d’onda le microonde sono in grado di
penetrare la vegetazione e anche il suolo, almeno fino ad una certa profondità. Le capacità di
penetrazione dipendono dalla lunghezza d’onda così come dalle costanti dielettriche complesse,
dalle conduttività e dalle densità dei bersagli osservati.. Per esempio, una microonda corta, in banda
X (= circa 3 cm) potrà penetrare solo le foglie sulla cima di un albero, mentre nel caso di banda L
(23 cm) la radiazione penetra nel tetto di foglie. Infatti, lunghezze d’onda più corte - come quelle in
banda X - mostrano tipicamente un’attenuazione alta e vengono retrodiffuse principalmente sulla
superficie o sulla parte superiore della vegetazione; di conseguenza a queste lunghezze d’onda si
ottengono principalmente informazioni relative a questo strato. Lunghezze d’onda maggiori, come
quelle in banda L o banda P di solito penetrano in profondità nella vegetazione e spesso anche nel
terreno. La retrodiffusione quindi contiene contributi provenienti dall’intero oggetto.
Di conseguenza la polarizzazione delle microonde gioca un ruolo importante nell’interpretazione
della forma e dell’orientazione di piccoli elementi diffondenti che formano la superficie
dell’oggetto. Quindi, l’uso delle microonde con diverse polarizzazioni porta ad avere immagini
diverse che potrebbero aiutare nell’identificazione degli oggetti.
6.4 Le polarizzazioni delle microonde
Come visto nel § 2.2.2, la polarizzazione di un’onda elettromagnetica è una caratteristica importante
nel campo del telerilevamento radar. Infatti, a seconda della direzione e dell’orientazione dell’onda
radar trasmessa e ricevuta, la polarizzazione darà luogo a immagini diverse.
È possibile lavorare con onde radio polarizzate orizzontalmente, verticalmente e miste. Usando
polarizzazioni diverse e diverse bande radar, è possibile ottenere informazioni utili per particolari
applicazioni, come ad esempio, la classificazione dei campi agricoli. Nelle descrizioni dei sistemi
radar si possono incontrare solitamente queste abbreviazioni:
− HH: trasmissione orizzontale e ricezione orizzontale;
− VV: trasmissione verticale e ricezione verticale;
− HV: trasmissione orizzontale e ricezione verticale;
− VH: trasmissione verticale e ricezione orizzontale.
In particolare, le polarizzazioni HH e VV, quelle cioè che si ottengono quando le polarizzazioni in
trasmissione e in ricezione sono uguali, sono dette co-polarizzazioni, mentre le polarizzazioni HV e
VH, ossia quelle in cui le polarizzazioni in trasmissione e in ricezione sono ortogonali l’una
all’altra, sono dette polarizzazioni incrociate. Queste ultime hanno ragione di esistere dal momento
che esistono sia bersagli con intensità della risposta diversa a seconda della polarizzazione
incidente, sia bersagli in grado di modificare lo stato di polarizzazione dell’onda incidente.
I più semplici sistemi SAR spesso operano con una sola polarizzazione a causa dei costi elevati di
implementazione. I sistemi SAR utilizzati per scopi di ricerca invece tendono ad avere
polarizzazioni multiple, e in alcuni casi dispongono di tutte le polarizzazioni possibili (nel qual caso
sono detti “quad-pol”). Le polarizzazioni multiple aiutano a distinguere la struttura fisica delle
superfici illuminate:
- allineamento rispetto al radar (HH contro VV);
- la casualità della diffusione (esempio: vegetazione – HV);
- le strutture ad angolo (esempio: fase tra HH e VV);
- diffusione di Bragg (esempio: oceani – VV).
88
6.5 Proprietà geometriche del radar
La piattaforma su cui il sensore è montato si muove lungo l’orbita. Il fascio di microonde illumina
un’area sulla superficie terrestre, detta strisciata o swath con una certa obliquità rispettoal nadir. La
direzione lungo la traccia è chiamata azimut, la direzione perpendicolare è detta distanza o range.
Fig. 6.6 – Geometria del telerilevamento radar
6.5.1 Geometria del radar
Per interpretare correttamente i dati radar è necessario tenere conto della geometria di acquisizione.
I radar usati per il telerilevamento del terreno sono quasi sempre sistemi di tipo side-looking, ossia
ad osservazione laterale della scena, mentre molti strumenti ottici sono di tipo nadir-looking, ossia
con osservazione nadirale. Qiesta differenza esiste perché gli strumenti ottici sono in grado di
distinguere tra bersagli sulla base della loro distanza angolare dal nadir del sensore. Invece un radar
può distinguere i ritorni provenienti da vari bersagli generalmente solo sulla base del tempo di
arrivo dei segnali ricevuti. Un radar ad acquisizione nadirale non sarebbe in grado di distinguere tra
due bersagli a e b (Fig. 6.7) che sono ugualmente distanti dal sensore in quanto un singolo fronte
d’onda incidente illumina entrambi i punti nello stesso istante, e di conseguenza i ritorni retrodiffusi
da entrambi i punti arrivano all’antenna ricevente simultaneamente. Questo causa un’ambiguità
destra/sinistra per tutti i punti simmetrici rispetto al nadir. Se invece l’illuminazione del radar viene
limitata ad un lato della piattaforma, il fronte d’onda illumina gli stess due punti ad istanti diversi;
di conseguenza i loro ritorni retrodiffusi arrivano al sensore in istanti di tempo differenti e sono
quindi distinguibili l’uno dall’altro.
Fig. 6.7 – Acquisizione di tipo nadir-looking (a) e side-looking (b)
La porzione dell’immagine più vicina alla traccia del nadir del satellite che porta il sensore radar è
chiamata distanza corta o near range. La parte dell’immagine che risulta essere la più lontana dal
nadir è chiamata distanza lunga o far range. L’angolo di incidenza del sistema è definito come
l’angolo tra la direzione di propagazione dell’onda incidente e la verticale. Andando dal near range
89
verso il far range tale angolo aumenta. È importante distinguere tra l’angolo di incidenza del
sensore e l’angolo di incidenza locale, che cambia a seconda dell’inclinazione del terreno. Questo
ultimo angolo è definito come l’angolo tra il fascio del radar e la normale locale alla superficie. Il
sensore radar misura la distanza tra l’antenna e l’oggetto; questa distanza è detta distanza in portata
o slant range. La vera distanza orizzontale lungo il terreno corrispondente ad ogni punto di misura è
detta distanza a terra o ground range.
Fig. 6.8 – Angolo di incidenza e angolo di incidenza locale nel radar
6.6 Risoluzione spaziale
Nel telerilevamento radar, le immagini sono create a partire dai segnali trasmessi e retrodiffusi. Se
ogni impulso singolo trasmesso forma un elemento nell’immagine il sistema è detto Radar ad
Apertura Reale. Le risoluzioni spaziali in direzione slant range e in azimut sono definite attraverso
la lunghezza dell’impulso e la larghezza del fascio dell’antenna, rispettivamente. Dato che i
parametri che determinano le due risoluzioni sono diversi, è ovvio che la risoluzione spaziale nelle
due direzioni è diversa. Per il trattamento e l’interpretazione delle immagini radar è utile
ricampionare le immagini che contengono i dati con una spaziatura regolare in entrambe le
direzioni, che nel caso del SAR di ERS-1 è 30 m × 30 m.
Fig. 6.9 – Rappresentazione delle direzioni slant range e ground range
90
6.6.1 Risoluzione in slant range
La risoluzione in slant range è pari a :
ρ sr =
τ ⋅c
2
Per una spiegazione più approfondita di tale formula si rimanda al § 6.8.
(6.10)
6.6.2 Risoluzione in ground range (o distanza al suolo)
In ground range la risoluzione spaziale è definita come la distanza che due oggetti sul suolo devono
avere tra di loro per dare due echi differenti nel segnale di ritorno. In altre parole, due oggetti
saranno distinti nella direzione di distanza se sono separati da almeno metà della lunghezza
dell’impulso. La risoluzione in distanza è indipendente dalla distanza stessa. Comunque, nella
geometria del ground range, la risoluzione dipende dall’angolo di incidenza.
La risoluzione in ground range è legata a quella in slant range attraverso il seno dell’angolo di vista:
ρ gr =
τ ⋅c
2 sin ϑ
(6.11)
6.6.3 Risoluzione in azimut
La risoluzione lungo l’azimut corrisponde alla minima distanza a cui deve trovarsi (nella direzione
di volo della piattaforma, ossia lungo l’azimut) un punto P’ dal punto P affinché essi appaiano
separati. Essa dipende dall’ampiezza β del fascio lungo l’azimut, ossia:
ρ az = r ⋅ β =
h⋅β
cos ϑ
(6.12)
dove r è lo slant range, ossia la distanza tra il radar e il punto P. Ricordando che l’ampiezza di
fascio a -3 dB per un’antenna ad apertura la cui lunghezza nella direzione di volo della piattaforma
sia L è esprimibile come:
h⋅λ
ρ az =
(6.13)
L ⋅ cos ϑ
direttamente proporzionale alla quota e inversamente proporzionale alla lunghezza dell’antenna.
Di conseguenza, più lunga è l’antenna, più stretto è il fascio e più alta è la risoluzione spaziale in
azimut.
I radar di immagine la cui risoluzione in azimut è legata all’ampiezza del fascio azimutale
dell’antenna sono detti Radar ad Apertura Reale (RAR, Real Aperture Radar).
Consideriamo, ad esempio, un RAR posto su piattaforma aerea ed avente le seguenti caratteristiche:
- λ = 3,1 cm (Banda X);
- L = 10 metri;
- h = 7 Km;
- ϑ = 29°.
In tal caso la risoluzione lungo l’azimut sarà pari a circa 24 metri. Lo stesso radar a bordo di un
satellite, ad un’altezza di 700 km avrebbe una risoluzione lungo la direzione del moto 100 volte
peggiore, ossia di circa 3 km.
È questa la ragione principale per la quale un RAR su piattaforma satellitare è improponibile.
Una tecnica che permette di ottenere immagini radar con risoluzione azimutale buona e, soprattutto,
indipendente dalla quota della piattaforma (come la risoluzione in range) è la tecnica del Radar ad
Apertura Sintetica (SAR).
6.7 Radar ad Apertura Sintetica (Synthetic Aperture Radar, SAR)
Ovviamente ci sono dei limiti fisici alla lunghezza dell’antenna impiegabile in un radar; primo tra
tutti, la massima lunghezza della struttura che può essere montata a bordo di un aereo o di un
91
satellite. D’altra parte, accorciare le lunghezze d’onda porta ad avere una limitata capacità di
penetrazione delle nuvole e, soprattutto, delle idrometeore.
Per uscire da questo dilemma è stato sviluppato un approccio in cui la lunghezza dell’antenna viene
aumentata in maniera virtuale, sintetizzando così un’antenna più grande del reale. I sistemi che
usano tale approccio sono detti Radar ad Apertura Sintetica o SAR (Synthetic Aperture Radar). Lo
sviluppo del radar ad apertura sintetica ha avuto inizio nel 1951 con Carl Wiley, che pensò di usare
l’informazione Doppler per migliorare la risoluzione in azimut del convenzionale radar ad apertura
reale ad osservazione laterale (SLAR). Sulla base di quest’idea e dei successivi sviluppi, la prima
immagine SAR fu prodotta dai ricercatori dell’Università del Michigan nel 1958.
Oltre alle tradizionali applicazioni (geografia, topografia e creazione di mappe tematiche), oggi i
sensori SAR vengono utilizzati in settori come l’oceanografia, lo studio delle foreste, l’agricoltura,
la pianificazione urbana, le scienze ambientali nonché la previsione e la quantificazione di disastri
naturali.
I sensori SAR operano nella regione delle microonde dello spettro elettromagnetico con lunghezze
d’onda tipiche tra 1 cm e alcuni metri, e hanno caratteristiche fisiche del tutto simili a quelle dei
radar ad apertura reale presentate all’inizio del capitolo. Benché la presenza del sole non sia
rilevante nel processo di acquisizione delle immagini, essa può tuttavia condizionare le
caratteristiche di diffusione del bersaglio.
La sintetizzazione della lunghezza dell’antenna viene ottenuta avvantaggiandosi del moto di
avanzamento della piattaforma e usando per uno stesso bersaglio un numero considerevole di
segnali retrodiffusi per simulare un’antenna molto lunga. Il funzionamento del SAR è basato sul
fatto che l'antenna radar, montata su satellite o su aereo, si muove con una certa velocità. Ogni volta
che essa emette l'impulso RF (solitamente un chirp) e ne riceve l'eco, essa si trova in una posizione
diversa in virtù del moto della piattaforma. Se si raccolgono e si memorizzano tutti questi echi
relativi a diversi istanti si può pensare che essi derivino da porzioni diverse di una medesima
antenna (o meglio di una schiera) di dimensioni globali di gran lunga superiori a quelle dell'antenna
reale. Elaborando opportunamente tali echi è possibile ricostruire quello che sarebbe stato il segnale
di ritorno dell’antenna lunga. Da ciò si comprende la denominazione di radar ad apertura sintetica.
La risoluzione che si riesce ad ottenere a terra è quindi legata alla lunghezza dell'antenna sintetica
piuttosto che a quella dell'antenna reale. Infatti, come verrà descritto più nel dettaglio in seguito, più
corta è l’antenna reale, più ampio è il fascio, quindi lo stesso bersaglio viene osservato per un tempo
maggiore, e di conseguenza viene raccolta maggiore informazione riguardo ad esso. È possibile
dimostrare che la risoluzione teorica nella direzione di azimut è pari alla metà della lunghezza
dell'antenna reale e non dipende dalla quota di volo e dalla frequenza. Utilizzando antenne più
piccole è infatti teoricamente possibile "allungare" l'antenna sintetica e quindi aumentare la
risoluzione a scapito di una maggiore complessità nel sistema di elaborazione. (In realtà, altri
fattori, tra cui l'atmosfera, contribuiscono a determinare un limite alla risoluzione raggiungibile).
Antenne più piccole, infatti, generano fasci più larghi e quindi sono in grado di illuminare lo stesso
oggetto da terra da un numero maggiore di posizioni lungo la linea di volo.
92
Fig. 6.10 – Principio di funzionamento del SAR; realizzazione dell’antenna sintetica nella direzione di azimuth
Ponendoci da un'altro punto di vista nello spiegare il principio di funzionamento di questo tipo di
radar, è anche possibile affermare che il radar ad apertura sintetica discrimina zone della superficie
che si trovano all'interno del lobo d'antenna (reale) in virtù del fatto che il loro ritorno radar presenta
uno spostamento doppler diverso a seconda della posizione lungo una linea di azimuth. I punti che
non presentano spostamento doppler sono, per inciso, quelli posti lungo la normale alla direzione di
volo (trascurando la rotazione terrestre).
Uno dei principali problemi nell’analisi dei dati SAR è collocare esattamente i diversi contributi di
retrodiffusione in modo da permetterne la corretta sovrapposizione. L’informazione desiderata è
contenuta nel dato ma non è accessibile in quanto può essere misurata solo la retrodiffusione totale
nella quale confluiscono in ogni istante i contributi di diversi diffusori (ricordiamo che il fascio
reale ha un’apertura piuttosto larga). La relazione tra i dati misurati ed i parametri di interesse è
spesso ambigua e non può essere risolta senza dell’informazione a priori. Un altro problema è che
l’esatta origine della retrodiffusione è in principio sconosciuta dato che la geometria SAR ha una
simmetria cilindrica o, se si preferisce, circolare su ogni sezione perpendicolare alla direzione di
moto della piattaforma. Di conseguenza l’angolo di elevazione da cui è visto l’oggetto
retrodiffondente e quindi la sua altezza topografica restano sconosciuti. Per risolvere queste
ambiguità si fa spesso ricorso all’interferometria.
Fig. 6.11 – Dipendenza dalla lunghezza d’onda delle capacità di penetrazione delle microonde nella vegetazione e nel
suolo.
93
L’Interferometria SAR (INSAR) è una tecnica che analizza la differenza di fase tra due immagini
SAR acquisite da posizioni leggermente differenti. Questa differenza di fase è legata alla topografia
del terreno della scena e può essere usata per generare modelli di elevazione del terreno digitali ad
alta risoluzione (DEMs). Oltre alla mappatura topografica, per ottenere una mappatura precisa dei
cambiamenti nell’elevazione è possibile utilizzare una versione estesa dell’interferometria SAR,
detta interferometria differenziale. Tale tecnica permette l’individuazione delle deformazioni della
superficie su una scala più piccola della lunghezza d’onda del radar, solitamente nella gamma dei
millimetri. I dati SAR interferometrici hanno un contenuto di natura diversa rispetto ai semplici dati
SAR. La correlazione o la coerenza tra due immagini SAR è molto sensibile ai cambiamenti delle
impostazioni dei diffusori all’interno delle celle di risoluzione. In particolare, la coerenza di dati
multitemporali, multifrequenza o multipolarizzazione può essere usata per analizzare e
caratterizzare dei processi mutanti, come ad esempio quelli che avvengono negli strati vegetativi o
sulle superfici naturali.
La Polarimetria SAR (POLSAR) è un’altra delle principali estensioni della formazione di immagini
SAR a singolo canale. Come tutte le onde elettromagnetiche anche le microonde hanno una natura
vettoriale, e una completa descrizione del problema di retrodiffusione nella scienza radar richiede
una formulazione vettoriale matriciale. Questo è uno degli obiettivi della polarimetria radar, una
tecnica che ebbe inizio a partire dall’introduzione del concetto di matrice di diffusione da parte di
G. W. Sinclair nel 1948. Dato che la polarimetria radar richiede l’impiego di dispositivi elettronici
hardware avanzati, che non erano disponibili alla fine degli anni ’40 e negli anni ’50, la polarimetria
radar rimase solo un concetto teorico e non vide riconosciuto il suo utilizzo pratico per applicazioni
civili. La situazione cambiò nei primi anni ’80 grazie alla messa a disposizione di dati SAR
polarimetrici da parte del sistema aviotrasportato AIRSAR di proprietà della NASA/JPL. A partire
da allora la polarimetria SAR è diventata progressivamente una tecnica consolidata del
telerilevamento. Essa è supportata dal crescente numero di sensori polarimetrici aviotrasportati
quali il sistema E-SAR del DLR o il sistema AIRSAR della NASA/JPL, che forniscono dati
polarimetrici ad alta risoluzione in numerose bande di frequenza. Inoltre, nel 1994 ebbero luogo due
missioni degli shuttle SIR-C e X-SAR, che acquisirono per la prima volta dallo spazio dei dati
pienamente polarimetrici in banda C ed L.
Una caratteristica speciale della polarimetria SAR è che essa permette la discriminazione dei diversi
tipi dei meccanismi di retrodiffusione. Questo diventa possibile in quanto le firme polarimetriche
osservate dipendono fortemente dal processo di retrodiffusione in atto. Rispetto ai convenzionali
SAR a singolo canale, l’inclusione della polarimetria SAR può portare ad un miglioramento
significativo della qualità dei risultati di classificazione e di segmentazione. Alcuni modelli di
retrodiffusione polarimetrica forniscono anche un’interpretazione fisica diretta del processo di
retrodiffusione, rendendo dunque possibile una stima dei parametri fisici del suolo come umidità e
rugosità del terreno, così come metodi di classificazione non supervisionata con identificazione
automatica delle caratteristiche di diffusori diversi e di diversi tipi di bersaglio.
La polarimetria SAR offre delle limitate capacità di separazione dei meccanismi di diffusione
multipla che avvengono all’interno della stessa cella di risoluzione; questo può essere considerato il
primo passo nella risoluzione del problema dell’ambiguità di collocazione del diffusore nel SAR.
Con le tecniche di decomposizione polarimetrica un segnale ricevuto può essere diviso in una
somma di tre contributi di diffusione con firme polarimetriche ortogonali (intrinsecamente quattro
nel caso del SAR, ma ipotizzando una retrodiffusione simmetrica reciproca le due componenti di
cross-polarizzazione sono uguali). Ciò può essere usato per estrarre i tipi di bersagli corrispondenti
nell’immagine, anche nel caso in cui essi avvengano sovrapposti. Inoltre, se il segnale è disturbato
da contributi ortogonali indesiderati, in questo modo si possono estrarre le componenti rilevanti,
migliorando i risultati per diverse applicazioni.
Inoltre, l’interferometria SAR polarimetrica (POLINSAR) combina le capacità dell’interferometria
per estrarre l’informazione di altezza con tecniche di decomposizione polarimetrica. Con la
POLINSAR si può ottenere un’immagine di volume (anche se con certe restrizioni), permettendo
94
per esempio una stima delle altezze degli alberi o della topografia del suolo. In tempi recenti si è
cominciato a prestare sempre maggiore attenzione alla stima dei parametri sulla base di dati
polarimetrici interferometrici. Questa tecnica cerca di invertire modelli di diffusione per
determinare i parametri fisici di interesse dai segnali misurati.
I concetti della polarimetria SAR oggigiorno vengono applicati in molti settori scientifici, come
l’agricoltura e lo studio delle foreste per il monitoraggio delle colture, per l’identificazione delle
specie e la stima della biomassa. Anche in geologia e in idrologia la possibilità di caratterizzare la
rugosità del terreno così come l’umidità del suolo e della neve fanno della polarimetria SAR un
argomento di grande interesse. In ultimo, essa è usata in oceanografia per monitorare i sistemi di
onde e per stimare l’età dei ghiacci e lo spessore delle regioni polari.
6.8 Principi di acquisizione radar
L’obiettivo del radar di immagine è di generare una mappa di riflettività bidimensionale di una
scena osservata nella regione delle microonde dello spettro elettromagnetico. Abbiamo già visto
come si determina l’intensità del ritorno (vedi § 6.2.), ora ci occupiamo dell’aspetto della
collocazione dei ritorni in una mappa radar. Un sistema di radar di immagine normale monostatico è
costiuito da un trasmettitore e da un ricevitore a microonde, che operano su una piattaforma in
movimento come un aereo o un satellite. Nel caso più semplice l’antenna è orientata parallelamente
alla direzione di volo, cioè guarda di lato rispetto al suolo. La direzione di osservazione
dell’antenna è detta normalmente “range” o “slant-range”. Il trasmettitore emette consecutivamente
brevi e veloci impulsi radar al suolo. Questi impulsi vengono riflessi da un diffusore presente al
suolo e dopo un certo ritardo di tempo ∆t essi raggiungono nuovamente il ricevitore. Questo ritardo
di tempo è una funzione della distanza r tra il sensore e il diffusore:
2r
∆t =
(6.14)
c
dove c indica la velocità della luce. È possibile risolvere (=distinguere) diffusori differenti finché i
loro echi non si sovrappongono neanche parzialmente, finché cioè rimane possibile percepire la fine
del primo ritorno (dal diffusore più vicino) e successivamente l’inizio del secondo ritorno (dal
diffusore un po’ più lontano). Di conseguenza, la risoluzione raggiungibile in slant-range δ sr è
dipendente dalla lunghezza dell’impulso trasmesso τ :
cτ
δ sr =
(6.15)
2
La risoluzione in portata è invece indipendente dalla distanza tra il diffusore e il sensore, perché le
considerazioni sopra scritte non cambiano con la distanza.
Per ottenere una risoluzione fine in portata, sono necessarie durate di impulso molto brevi, ma se si
vuole mantenere l’energia costante per non peggiorare il rapporto segnale/rumore occorre
aumentare l’ampiezza per compensare la minore durata, e le potenze risultanti possono porre
problemi. Invece nei radar moderni di solito è possibile raggiungere una risoluzione fine senza
concentrare troppo l’energia, trasmettendo un impulso più lungo con una modulazione lineare di
frequenza (chirp). L’energia di questo impulso viene distribuita su una durata più lunga, ma può
essere di nuovo compressa dopo la ricezione con un’operazione di filtraggio adattato.
In questo caso la risoluzione in slant range in funzione della larghezza di banda W dell’impulso è :
c
δ sr =
(6.16)
2W
Per esempio, una larghezza di banda di 100 MHz corrisponde ad una risoluzione di 1,5 m.
Nella direzione lungo la traccia o azimut la risoluzione di un semplice radar a scansione laterale
corrisponde alla dimensione dell’impronta a terra del fascio. La risoluzione angolare α ra di
95
un’antenna di lunghezza L nella direzione di azimut è limitata a causa degli effetti di diffrazione
sulla sua apertura. Per una lunghezza d’onda di λ essa è data da:
α ra =
λ
L
La risoluzione spaziale in azimut ad una data portata r0 risulta data da:
δ az = α ra r0 =
(6.17)
λr0
(6.18)
L
Evidentemente, la risoluzione in azimut peggiora all’aumentare delle altezze di volo e delle
corrispondenti distanze dall’oggetto.
Fig. 6.12 – Sinistra: geometria di acquisizione SLAR/SAR in modalità strip mode; destra: rappresentazione geometrica
della larghezza massima possibile dell’apertura sintetica Lsa.
6.8.1 Risoluzione di un radar ad apertura sintetica
Un radar ad apertura sintetica (SAR) supera tutti i problemi citati ed è progettato per raggiungere
alte risoluzioni con piccole antenne su lunghe distanze. Un sistema SAR trae vantaggio dal fatto che
la risposta di un diffusore al suolo è potenzialmente contenuta in più di un singolo ritorno radar, e
mostra una storia della fase tipica sul tempo durante il quale il bersaglio rimane illuminato. Una
combinazione coerente appropriata di numerosi impulsi porta alla formazione delle antenne
allargate sinteticamente – la cosiddetta “apertura sintetica”. Gestire questa struttura è molto simile a
gestire una schiera di antenne, con la differenza che in questo caso fisicamente viene utilizzata una
sola antenna e i diversi elementi della schiera sintetica sono generati sequenzialmente nel tempo
attraverso il movimento della piattaforma.
La risoluzione angolare di un’apertura sintetica di lunghezza Lsa è nuovamente data dal limite di
diffrazione, ed è due volte più alta di quella di un’apertura reale della stessa lunghezza:
α sa =
λ
(6.19)
2 Lsa
Il fattore 2 è il risultato della formazione dell’apertura sintetica: le differenze di fase tra elementi
nell’antenna sintetica risultano dalla differenza di un cammino andata e ritorno e sono di
conseguenza due volte più grandi che nel caso di un’antenna reale.
La lunghezza massima dell’apertura sintetica è la lunghezza della linea di volo da cui un diffusore
viene illuminato. Questa è uguale alla dimensione dell’impronta a terra dell’antenna alla distanza
r0 , dove il diffusore è situato a:
Lsa = α ra r0 =
λr0
(6.20)
L
Se si sfrutta tutta l’apertura sintetica, la risoluzione spaziale azimutale alla distanza r0 risulta essere:
L
δ az = α sa r0 =
(6.21)
2
96
È interessante notare che la risoluzione ottenuta è ora totalmente indipendente dalla distanza in
portata ed è determinata solo dalla dimensione dell’antenna reale. Questo è il risultato della
lunghezza dell’apertura sintetica, crescente con la distanza del bersaglio. In contrasto rispetto a
quanto avviene nei sistemi SLAR (ad apertura reale), un’antenna più corta produce risoluzioni più
alte. Comunque, altri fattori intervengono a limitare la risoluzione raggiungibile; ad esempio la
maggiore distanza rende più debole il ritorno, quindi per poter raggiungere gli stessi rapporti
segnale/rumore serve un’antenna reale più grande, che significa un peggioramento della risoluzione.
A causa di queste e numerose altre limitazioni tecniche (potenza disponibile, velocità di
trasmissione), un SAR montato su satellite ha tipicamente una risoluzione più bassa
(approssimativamente 5 m) di un SAR montato su aereo (fino a 30 cm). Comunque, con i sistemi
SAR diventa possibile acquisire immagini radar ad alta risoluzione anche in caso di distanze molto
lunghe in portata.
6.8.2 Storia della fase di un bersaglio puntiforme
Fig. 6.13 – Geometria di acquisizione di un sistema SAR.
La Fig. 6.13 mostra l’illuminazione di un bersaglio puntiforme da parte di un sensore SAR durante
l’acquisizione dei dati. Il sensore viene mosso lungo l’asse x (azimut) ed emette gli impulsi radar al
suolo perpendicolarmente alla direzione di volo. La distanza tra il sensore alla posizione x e il
bersaglio può essere espressa tramite il teorema di Pitagora come:
r =
x 2 + r02
(6.22)
dove r0 indica la minima distanza tra i due a x = 0 , ossia la distanza perpendicolare bersaglio –
linea di volo. Dato che il bersaglio solitamente rimane visibile per un tratto che è una piccola
frazione della distanza dal sensore, si può procedere all’approssimazione seguente:
r02
x2
x2
x2
r = r0 2 + 2 = r0 1 + 2 ≈ r0 +
x << r0
(6.23)
2r0
r0
r0
r0
Dove l’uguaglianza approssimata corrisponde allo sviluppo in serie di potenze dell’espressione
arrestata al termine di secondo grado. La fase degli echi ricevuti sarà dunque:
2π 
x 2  4πr0 2πx 2
=
ϕ ( x) = 2  r0 +
+
= k1 + k 2 ⋅ x 2
(6.24)
2r0  {
λ 
λ
λr0
cos tan te
Se si assume una velocità del sensore costante pari a ν e si trascura il termine costante che non è di
interesse per le fasi, utilizzando l’abbreviazione k = 2πν 2 λr0 , si ottiene un comportamento della
fase quadratico col tempo:
97
ϕ (t ) =
k1
{
+ k 2 x 2 = k 2 (ν t ) 2 = k 22ν 2 t 2 = kt 2
{
trascurato
(6.25)
cos tan te
Il comportamento quadratico della fase corrisponde ad un cambiamento lineare nella frequenza
ricevuta, che viene detto effetto Doppler.
1 ∂ϕ (t )
k
f (t ) =
(6.26)
= t
2π ∂t
π
L’approssimazione lineare alla base di tale effetto Doppler è accurata solo finché x è molto piccolo
rispetto a r0 . In caso contrario bisogna ricostruire esattamente la storia iperbolica delle fasi. Questo
succede solitamente per i radar SAR con un’apertura sintetica molto lunga (x diventa grande) e per i
radar con osservazione obliqua in azimut (squinted).
Il massimo tempo di illuminazione di un bersaglio puntiforme è definito dall’estensione in azimut
del fascio dell’antenna (pari a sua volta all’apertura sintetica). Tale lunghezza, uguale alla
lunghezza dell’apertura sintetica, è data da:
θ r
I
t max = sa = ra 0
(6.27)
υ
υ
La banda del segnale in azimut Ba è quindi pari a:
Ba = f (t max 2) − f (− t max 2)
(6.28)
Sapendo che
f (t ) =
k
π
e
k = k 2ν 2 = 2
(6.29)
t
π 2
ν
λr0
(6.30)
sostituendo f (t ) nell’espressione si ottiene:
k θ ra r0
k θ ra r0
k θ ra r0
Ba = −
−
=−
π 2ν
π 2ν
π ν
Sostituendo poi k si ottiene:
2θ raν
k θ ra r0
2πν 2 1 θ ra r0
Ba =
=
⋅ ⋅
=
π ν
λr0 π
ν
λ
123
(6.31)
(6.32)
k
L’espressione della banda Doppler:
Ba =
2θ raν
(6.33)
λ
rappresenta anche la larghezza di banda della storia di fase del bersaglio.
Il SAR funziona ad impulsi, quindi la storia di fase è costituita da campioni: uno per ogni impulso
SAR. Perché la storia di fase conservi tutta l’informazione è necessario che sia soddisfatto il
teorema di Nyquist.
La larghezza di banda della deriva Doppler impone quindi, attraverso il teorema di Shannon, un
limite inferiore alla frequenza di ripetizione degli impulsi (PRF):
PRFmin = f Nyquist = 2 Ba = 2 ⋅
2θ arν
λ
=
4θ arν
λ
(6.34)
6.8.3 Elaborazione in azimut
L’eco di un singolo bersaglio puntiforme è contenuta nei ritorni di più impulsi, quindi
l’informazione è distribuita e sovrapposta a quella di altri bersagli; si dice che il segnale SAR non è
focalizzato. Lo scopo dell’elaborazione del dato SAR, anche detta focalizzazione, è di concentrare
tutta l’energia del segnale di ritorno da un singolo bersaglio, in un unico punto, a t = 0 . Per
98
raggiungere questo scopo viene utilizzata la storia della fase tipica che proviene dal processo di
acquisizione dei dati. Assumendo che la retrodiffusione di un bersaglio puntiforme sia indipendente
dal tempo e dall’angolo, e anche dominante rispetto ad altri segnali come rumore e riflessione da
bersagli secondari, il segnale ricevuto in direzione di azimut può essere scritto come:
S a (t ) = A0 exp(iϕ (t )) = A0 exp(ikt 2 )
(6.35)
in cui A0 denota la massima ampiezza del segnale ricevuto (valore complesso). L’idea della
compressione in azimut è dunque di rendere tutti questi valori della fase pari ad uno stesso valore,
sommandoli poi in maniera coerente. A questo scopo viene effettuata la correlazione di S a (t ) con
− ikt 2
una funzione di riferimento R(t ) = e
. Questa funzione di riferimento viene costruita in modo
che essa abbia in ogni punto esattamente la fase opposta della risposta all’impulso ideale visto
nell’equazione 6.22.
Dato che la lunghezza dell’apertura sintetica è limitata, e con essa anche la lunghezza del segnale,
ha senso limitare anche la lunghezza della funzione di riferimento con una funzione di peso
rettangolare:
1 per − tmax 2 < t < + tmax 2
W (t ) = 
(6.36)
altrimenti
0
R(t ) = W (t ) exp(−ikt 2 )
(6.37)
Il risultato della correlazione è allora
V (t ) =
=
∞
∫S
a
−∞
∞
∫A
0
(ξ ) R (t + ξ )dξ
(6.38)
exp(ikξ 2 ) exp(−ik (t + ξ ) 2 )W (t + ξ )dξ
(6.39)
−∞
∞
= A0 exp(−ikt ) ∫ W (t + ξ ) exp(−2ikξt )dξ
2
(6.40)
−∞
Sapendo che solo i valori piccoli di t sono importanti, si può adottare l’approssimazione
W (t + ξ ) ≈ W (ξ ) . Nel prosieguo, indicheremo con FT[…..] la trasformata di Fourier. Il risultato
della correlazione può essere scritto come:
V (t ) = A0 exp(−ikt 2 ) 2π ⋅ FT2 kt [W (ξ )]
(6.41)
FT2 kt [W (ξ )] =
t max 2
∫ exp(− 2ikξt )dξ
(6.42)
− t max 2
=
exp(−ikt max t ) − exp(ikt max t )
− 2ikt
=
 sin( kt max t ) 
− 2i sin(kt max t )
= t max 

− 2ikt
 kt max t 
(6.43)
(6.44)
 sin(kt max t ) 
V (t ) = A0 t max 2π exp(−ikt 2 ) 
(6.45)

 kt max t 
Il risultato dell’operazione di correlazione è l’immagine. La forma principale della risposta
impulsiva risultante corrisponde alla trasformata di Fourier della funzione di peso. Se la funzione di
⇒
99
peso è di tipo gradino, come visto sopra, la risposta impulsiva è una funzione sinusoidale (sinc o
sin( x) x ). In Fig. 6.15 viene illustrato questo processo. Il segnale ricevuto, chiamato anche “chirp”,
ha ampiezza costante e un andamento di fase parabolico (viene mostrata solo la parte reale del
segnale complesso). La funzione di riferimento ha un’ampiezza pari a 1 e come fase esattamente la
fase opposta a quella del segnale stesso. Dopo la correlazione con R (t ) il segnale appare ben
centrato a t = 0. La sua ampiezza massima aumenta da A0 a 2π t max A0 e il picco della fase è
zero. In realtà, qui appaiono anche sia il termine trascurato, proporzionale al doppio della distanza
tra l’oggetto e il sensore così come la fase dell’oggetto.
Fig. 6.14 – Compressione del segnale. Parte reale del segnale complesso di risposta proveniente da un obiettivo
puntiforme ideale (sinistra) e ampiezza del segnale compresso (destra).
Si può osservare che più diventa grande t max , cioè più diventa lunga l’apertura sintetica, più V (t )
appare simile ad una funzione delta di Dirac. Definendo la risoluzione come la metà della distanza
tra il primo minimo del picco principale a t = ± π kt max , l’apertura sintetica ha di conseguenza una
risoluzione in azimut pari a:
l
πυ
υ
δ sa =
=
= ra
(6.46)
kt max
Ba
2
Se si usa la definizione più corretta della risoluzione come metà della larghezza a metà del
massimo, si ottiene un valore del 14% più grande. I primi lobi laterali sono solo 13dB più bassi del
picco principale. Ciò può causare dei problemi, soprattutto se un bersaglio forte è vicino a dei
bersagli più deboli. Di conseguenza, invece di usare una funzione di peso a gradino, spesso vengono
impiegate altre forme, le cui trasformate di Fourier mostrano un miglior rapporto Picco/Lobi
Laterali (PSLR). Una funzione molto comune per questi usi è la cosiddetta funzione di peso di
Hamming:

 2πt 

α + (1 − α ) cos
per − t max 2 < t < + t max 2
(6.47)
W (t ) = 
t
max


 0
altrimenti

Fig. 6.15 – Compressione del segnale ottenuta utilizzando una funzione di peso di Hamming.
100
Scegliendo α = 0,54 i primi lobi laterali della trasformata di Fourier vengono soppressi
completamente. Il PSLR è dunque ora molto migliore ed ha un valore di -43 dB.
Il processo di focalizzazione in azimut è molto impegnativo dal punto di vista computazionale, in
quanto bisogna calcolare una correlazione per ogni singolo pixel, dando luogo quindi ad un gran
numero di addizioni e moltiplicazioni. Tale processo può essere significativamente accelerato
utilizzando il teorema di convoluzione:
∫ f (ξ ) g (t − ξ )dξ
= f (t ) ⊗ g (t ) = FT −1 ( FT ( f (ω )) FT ( g (ω )))
(6.48)
Grazie a questo teorema, la convoluzione di due funzioni è uguale alla moltiplicazione delle loro
trasformate di Fourier nel dominio spettrale. La correlazione rappresenta una convoluzione con una
funzione inversa nel tempo:
f (t ) ⊗ g (−t ) =
∫ f (ξ ) g (t + ξ )dξ
(6.49)
Di conseguenza, il segnale compresso desiderato può anche essere ottenuto come sotto:
V (t ) = FT −1 [FT [S A (t )]FT [R(−t )]]
(6.50)
In pratica la frequenza doppler del segnale dipende da ro e varia con la distanza dal bersaglio. È
quindi necessario adattare la funzione di riferimento (risposta impulsiva) alla riga dell’immagine
che si sta elaborando, dato che per ogni riga si ha una diversa ro. Una volta determinata la funzione
di riferimento corretta, essa può essere utilizzata per focalizzare un’intera linea in direzione azimut
(o riga dell’immagine) sfruttando il teorema della convoluzione.
6.8.4 Elaborazione in portata
In direzione portata un SAR può operare esattamente come un radar convenzionale. Per ottenere
un’alta risoluzione in direzione perpendicolare alla direzione di volo, è necessaria una breve durata
τ dell’impulso. In pratica, può essere problematico generare un impulso molto breve ma con
potenza elevata può essere problematico, dato che le densità di energia risultanti sono difficili da
trattare. Un’alta risoluzione è quindi equivalente ad un’alta larghezza di banda del segnale. Una
seconda possibilità di generare una larghezza di banda di segnale alta è di usare un impulso lungo
ma modulato in frequenza. È comune usare per questo una modulazione di frequenza lineare
(chiamata “chirp”):
B
f (t ) = r t per − τ 2 < t < τ 2
(6.51)
τ
con Br che indica la larghezza di banda dell’impulso emesso. Come in azimut questo introduce una
storia “tipica” della fase nel segnale, che può essere usato per comprimere il segnale. Il chirp rate k
è ora:
Bπ
k = r
(6.52)
τ
Per comprimere il segnale esteso, bisogna costruire una nuova funzione di riferimento, che tenga in
considerazione la variazione di frequenza tipicamente più veloce confrontata al caso dell’azimut. La
compressione del segnale avviene nello stesso modo, cioè è necessario calcolare la correlazione del
segnale con la nuova funzione di riferimento, e il risultato di questa operazione è:
 sin(kτ t ) 
Vr (t ) = A0τ 2π exp(ikt 2 ) 

 kτ t 
La risoluzione risultante in direzione di portata è:
101
(6.53)
δ sr =
c
2 Br
(6.54)
Se si elabora il dato grezzo SAR in azimut e portata, si ottiene una risposta impulsiva
bidimensionale, che rappresenta il prodotto delle due risposte individuali all’impulso
monodimensionale. Questa funzione rappresenta la distribuzione di intensità di un obiettivo
puntiforme nell’immagine SAR finale.
Fig. 6.16 – Risposta bidimensionale di un obiettivo puntiforme (senza funzione di peso).
6.8.5 Caratteristiche delle immagini SAR
Da quanto detto finora è facile aspettarsi che le immagini radar abbiano un aspetto molto diverso da
quello delle immagini acquisite dai sensori ottici. Dato che nei due tipi di acquisizione vengono
usate parti diverse dello spettro elettromagnetico, il contenuto informativo nei due casi non è
confrontabile. Inoltre, l’uso di geometrie diverse nella formazione delle immagini cosi come l’uso
di un sistema di sensori coerenti nel caso del SAR, fa sì che i due tipi di immagini risultino ancora
più diversi. Per una corretta interpretazione delle immagini SAR diventa dunque necessaria una
comprensione dettagliata delle loro caratteristiche.
Prima di tutto va detto che a causa della memorizzazione coerente dei dati le immagini SAR hanno
valori dei pixel complessi (ampiezza e fase), in contrasto con quanto avviene nelle immagini ottiche
in cui viene memorizzata la sola immagine di ampiezza. Per ottenere un’immagine SAR di solito
viene impiegata solo l’ampiezza per l’immagine di luminosità in quanto la fase delle immagini ha
una distribuzione casuale. Ciò nondimeno la fase delle immagini diventa importante nelle
applicazioni di polarimetria e interferometria SAR.
Se si guarda ad un diffusore distribuito, cioè ad un pixel dell’immagine in cui sono situati molti
diffusori individuali diversi, ognuno di essi dà un contributo alla retrodiffusione complessiva. A
causa dell’onda radar coerente, ogni onda retrodiffusa individualmente interferisce nella formazione
del segnale totale. Come mostrato in Fig. 6.17 il risultato è un vettore coerente somma di tutti i
contributi che ha una fase casuale ed un’ampiezza che è distribuita tra le reali ampiezze di
retrodiffusione dei diffusori individuali. Come si vedrà più avanti questo fenomeno dà luogo al così
detto rumore speckle.
102
Fig. 6.17 – Somma vettoriale coerente dei contributi individuali di retrodiffusione all’interno di un elemento di
risoluzione.
6.9 Distorsioni nelle immagini radar
A causa della geometria di vista del sensore radar, che –ricordiamo- guarda di lato e colloca i
diffusori sulla base del tempo di ritorno dell’onda, le immagini radar risentono di serie distorsioni
geometriche e radiometriche. Nelle immagini radar si incontrano variazioni di scala (geometria
slant range), distorsione prospettica o foreshortening (accorciamenti), scavalcamenti o layover,
ombre (dovute all’elevazione del terreno) ed effetti di speckle.
6.9.1 Distorsioni di scala
Il radar misura la distanza dagli oggetti in termini di distanza dal sensore piuttosto che di vere
distanze orizzontali lungo il terreno. Quindi, l’immagine ha scale differenti procedendo dalla
distanza corta a quella lunga. Infatti nell’immagine iniziale prodotta da molti sistemi radar, le
posizioni dei ritorni radar in direzione distanza sono basati sulle loro distanze in slant range. Dato
che l’angolo delle riflessioni radar varia in direzione distanza, la scala orizzontale dell’immagine in
slant range non è costante. Gli oggetti della parte dell’immagine vicini alla linea di volo (il near
range) appaiono compressi in direzione distanza se confrontati con gli oggetti presenti nel far
range. Utilizzando l’altezza del sensore e l’assunzione di terreno piatto, è possibile elaborare
un’immagine in slant range per produrre un’approssimazione delle posizioni reali dei ritorni radar.
Il risultato di questa elaborazione è un’immagine in ground range, come si osserva in Fig. 6.18.
Questa operazione viene comunemente detta slant-to-ground projection.
Fig. 6.18 – Esempio di trasformazione di un’immagine da slant range a ground range
6.9.2 Distorsioni introdotte dal terreno
Similmente a quanto accade per i sensori ottici che operano in acquisizione obliqua (ad esempio
SPOT), le immagini radar sono soggette a distorsioni dovute al rilievo. Nel caso del radar, queste
distorsioni possono essere notevoli. Tre effetti sono tipici del radar: distorsione prospettica,
scavalcamento ed ombra.
103
Distorsione prospettica (foreshortening)
Il radar misura le distanze in slant range, di conseguenza le aree in pendenza vengono compresse. A
seconda dell’angolo che la pendenza forma in relazione con l’angolo del fascio radar la pendenza
sarà accorciata in modo più o meno accentuato. La distorsione è al suo massimo se il fascio del
radar è quasi perpendicolare alla pendenza. Le aree accorciate risultano molto luminose nelle
immagini radar perché vi si sovrappongono più ritorni rispetto a quelli che si avrebbero in una zona
piatta. In pratica questo effetto è tale per cui un rilievo risulta compresso nel versante che guarda il
radar e allungato nella direzione opposta.
Fig. 6.19 – Distorsioni geometriche nelle immagini radar dovute all’elevazione del terreno
Scavalcamento (layover)
Se il fascio del radar raggiunge la cima della pendenza prima della sua base, la pendenza viene
mostrata nell’immagine con la parte superiore più vicina rispetto a quella inferiore; come risultato,
nell’immagine la cima della montagna sembra essersi mossa nella direzione del radar al punto da
avere scavalcato la sua stessa base, da cui il nome. Lo scavalcamento è un caso estremo di
distorsione prospettica, per cui anche in questo caso le zone affette da scavalcamento appaiono
molto luminose.
Ombre (shadowing)
Quando l’angolo d’incidenza è troppo largo, il fascio radar non riesce ad illuminare i versanti delle
montagne che guardano in direzione opposta al sensore. Quindi, non c’è energia che possa essere
retrodiffusa verso il sensore e queste regioni rimangono nere nell’immagine. Le ombre radar
vanno ben distinte dalle aree d’ombra delle immagini ottiche dove i valori radiometrici sono
alterati a causa della ridotta illuminazione del Sole.
6.9.3 Distorsioni radiometriche
Le distorsioni menzionate sopra hanno un’influenza anche sull’energia ricevuta. Dato che l’energia
retrodiffusa viene raccolta in slant range, l’energia ricevuta derivante da un pendio lungo viene
immagazzinata in un’area più corta dell’immagine, cioè è compressa in meno pixel dell’immagine
di quanto non sarebbe se ci si trovasse nel caso di geometria ground range. Questo porta ad avere
DN con valori più alti perché l’energia raccolta da più oggetti viene combinata insieme.
Sfortunatamente questo effetto non può essere corretto se non avendo a disposizioni informazioni
sul rilievo da altre fonti. Tali zone sono comunque utili perché contribuiscono ad avere una veduta
tridimensionale dell’immagine e quindi aiutano la comprensione del terreno e la topografia.
104
6.9.3.1 Il rumore speckle
Quando un’onda elettromagnetica viene diffusa da un punto (x,y) della superficie terrestre, le
proprietà del terreno causano dei cambiamenti sia nella fase φ ( x, y ) che nell’ampiezza A( x, y )
dell’onda. il SAR infatti misura la coppia di numeri ( A cos φ , A sin φ ) nei canali in fase e in
quadratura del ricevitore. Questa stima della riflettività locale ad ogni pixel può essere rappresentata
da un numero complesso Ae iφ ; in questa forma, il dato SAR è conosciuto come immagine
complessa. Dall’immagine complessa è possibile estrarre un certo numero di altri prodotti, come ad
esempio l’immagine rappresentante la parte reale A cos φ (cioè la componente in fase) oppure
quella rappresentante la parte immaginaria A sin φ (cioè la componente in quadratura), l’immagine
di ampiezza A, l’immagine di fase φ , l’immagine di intensità I = A 2 , o l’immagine di intensità
logaritmica log I . Per un sistema calibrato in maniera adeguata, queste immagini rappresentano
misurazioni corrette delle proprietà di diffusione della superficie terrestre, ma esse producono delle
rappresentazioni molto diverse l’una dall’altra dal punto di vista visivo. Di solito, le immagini di
parte reale e parte immaginaria mostrano le strutture presenti in esse, ma sono estremamente
rumorose, l’immagine di fase è rumorosa e non mostra alcun tipo di struttura, mentre le immagini di
ampiezza, di intensità e di intensità logaritmica, benché rumorose, sono più facilmente
interpretabili. Di queste ultime immagini, normalmente vengono preferite l’immagine di ampiezza e
di intensità logaritmica in quanto l’ampio intervallo dinamico dell’immagine di intensità può ridurre
la percezione dei dettagli.
Il rumore che affligge questi tipi di immagini è detto rumore speckle.
Esso dà un aspetto granuloso all’immagine; tale aspetto è conosciuto come salt and pepper o “sale e
pepe”, così detto perché richiama un miscuglio di queste due sostanze. Lo speckle è causato
dall’interazione tra le microonde retrodiffuse dai diversi oggetti contenuti in ciascun pixel dell’area
in esame. L’interazione tra onde è detta interferenza. L’interferenza fa sì che i segnali di ritorno
vengano smorzati o amplificati a seconda della fase relativa delle retrodiffusioni che interagiscono,
dando luogo a dei pixel scuri o luminosi casualmente distribuiti nell’immagine anche quando il
sensore sta osservando una zona piuttosto omogenea. Lo speckle è una forma di rumore che degrada
la qualità dell’immagine e rende l’interpretazione della stessa più difficoltosa.
Va detto tuttavia che il rumore speckle non è vero rumore, dal momento che esso trae origine da
reali misurazioni elettromagnetiche, che vengono sfruttate,ad esempio, in alcune applicazioni di
interferometria. Assunto che il SAR effettua misurazioni reali delle proprietà di diffusione della
Terra, perché si verificano questi effetti? Un modello semplice di come il mondo appare al radar
suggerisce la risposta a tale domanda. Nei bersagli distribuiti possiamo pensare che ogni cella di
risoluzione contenga un certo numero di diffusori discreti. Dato che l’onda interagisce con il
bersaglio, ogni diffusore dà un contributo rappresentato da un’onda retrodiffusa con un
cambiamento in ampiezza e fase; di conseguenza l’onda diffusa è:
Ae
iφ
=
N
∑ A eφ
k =1
i k
k
(6.55)
Tale somma coerente è effettuata sul numero di diffusori illuminati dal fascio. Le singole ampiezze
Ak e fasi φ k di diffusione non sono osservabili in quanto i singoli diffusori hanno scale molto più
piccole della risoluzione del SAR, e di conseguenza in una cella di risoluzione sono presenti
numerosi diffusori.
Dall’equazione sopra riportata si può immediatamente trarre una conclusione piuttosto ovvia: il
segnale osservato sarà affetto da fenomeni di interferenza come conseguenza delle differenze di
fase tra i vari diffusori. Infatti lo speckle può essere inteso come un fenomeno di interferenza in cui
la causa principale delle caratteristiche che lo rendono assimilabile al rumore è proprio la
distribuzione dei termini di fase φ k .
105
6.9.3.1.1 Il modello di rumore moltiplicativo per lo Speckle
Il modello di diffusori discreti per bersagli distribuiti implica che tutta l’informazione ad ogni pixel
in un dato a singolo canale è portata dalla potenza media incoerente σ, appropriata per quel
particolare insieme di diffusori. L’intensità osservata ad ogni pixel ha la probabilità condizionale:
1 −I
PI ( I | σ ) = e σ
(6.56)
σ
con I ≥ 0 .
Effettuando un cambio di variabile
I =σ n
(6.57)
si ottiene una funzione densità di probabilità (PDF, Probability Density Function)
Pn (n) = e − n , con n ≥ 0
(6.58)
Di conseguenza, l’intensità osservata ad ogni punto può essere considerata come un valore
deterministico della RSC (Radar Cross Section) moltiplicato per uno speckle distribuito
esponenzialmente con media unitaria.
In maniera del tutto equivalente, la riflettività complessa ad ogni pixel può essere scritta come:
S = S 1 + iS 2 = σ (m1 + im2 )
in cui il contributo speckle m = m1 + im2 ha funzione densità di probabilità:
Pm , m (m1 , m2 ) =
1
2
1
π
exp(− m12 − m22 )
(6.59)
(6.60)
che significa che le componenti dello speckle in fase e in quadratura sono variabili casuali
gaussiane a media nulla indipendenti, ognuna con varianza pari a ½.
Ancora una volta possiamo dire che il segnale osservato può essere considerato come il prodotto del
termine RCS e del termine di speckle.
Benché la sezione radar RCS che si nasconde sotto i valori osservati è essenzialmente
deterministica, la sua dimensione non è nota e di solito viene descritta in maniera più utile
attraverso l’impiego di un modello probabilistico.
Dato un insieme di N pixel, abbiamo bisogno di considerare la distribuzione congiunta della RCS
σ = (σ 1 , σ 2 ,.........., σ N ) e i valori dello speckle n = (n1 ,.............., n N ) .
Se assumiamo che i valori di speckle siano indipendenti l’uno dall’altro e dalla RSC, possiamo
scrivere:
N
Pσ, n (σ, n) = Pσ (σ )∏ Pn (nk )
(6.61)
k =1
I corrispondenti valori di intensità I = ( I 1 ,............, I N ) sono dati da I k = σ k n k . Un cambio di
variabili consente di scrivere la distribuzione congiunta dell’intensità e dello speckle come:
N
P (n )
(6.62)
PI , n ( I , n) = Pσ ( I 1 n1 ,........, I N n N )∏ n k
nk
k =1
Integrando sui termini di speckle otteniamo la PDF congiunta dell’intensità come:
N
Pn (nk )
dn
(6.63)
nk
k =1
Dall’equazione 6.61 risulta chiaro come i valori di intensità non siano indipendenti, ma ovviamente
lo sarebbero se lo fossero i σ i . Un caso particolare di questa situazione si verifica quando i σ i sono
tutti costanti, con lo stesso valore σ cosi che:
PI (I ) =
∫ Pσ ( I1 n1 ,........, I N n N )∏
106
Pσ (σ ) =
N
∏ δ (σ
k =1
− σk )
(6.64)
Quindi
PI (I ) =
N
1
∏σe
−I
k σ
(6.65)
k =1
6.9.3.1.2 Elaborazione multi-look
È possibile ridurre il rumore speckle per mezzo di un’elaborazione multi-look o per mezzo di
filtraggi spaziali. Nel caso dell’elaborazione multi-look, il periodo di osservazione dei ritorni viene
diviso in diversi sottoperiodi più corti. Durante ogni sottoperiodo lo strumento getta uno ‘sguardo’
(look) all’oggetto. Usando la media di queste “occhiate” si ottiene l’immagine finale.
L’elaborazione multi-look ha lo svantaggio di ridurre la risoluzione spaziale.
Fig. 6.20 – Immagine originale (a) e filtrata per diminuire l’effetto del rumore speckle (b)
6.9.3.1.3 I filtri anti-speckle
Un altro modo per ridurre lo speckle è quello di applicare dei filtri spaziali all’immagine. I filtri
speckle sono disegnati per adattarsi alle variazioni locali dell’immagine per appianare i valori in
modo da ridurre lo speckle ma contemporanemente da intensificare le linee e i bordi per
salvaguardare la chiarezza dell’immagine.
Il filtro di Lee
Il filtro di Lee permette di rendere più “liscia” l’immagine senza eliminare i contorni e le forme
caratteristiche degli oggetti presenti in essa. Il rumore speckle viene di solito approssimato nelle
immagini SAR con un modello moltiplicativo di errore. Nel filtro di Lee, il modello moltiplicativo
viene prima approssimato con un modello lineare, a cui viene poi applicato il criterio dell’errore
minimo quadratico medio (minimum mean square error model).
Il valore di livello di grigio risultante R per il pixel modificato è allora:
R = I c ⋅ W + I m ⋅ (1 − W )
dove:
2
2
- W = 1 − C u C i (funzione di peso);
-
C i = S I m (coefficiente di variazione dell’immagine);
-
Cu = 1
-
I c = valore di intensità del pixel centrale della finestra del filtro;
I m = valore medio di intensità dei pixel all’interno della finestra;
S = deviazione standard dell’intensità all’interno della finestra.
N look (coefficiente stimato della variazione del rumore);
107
(6.66)
Fig. 6.21 – Immagine originale e filtrata con il filtro di Lee per diminuire l’effetto del rumore speckle.
Il filtro di Lee migliorato
Il filtro di Lee è stato migliorato da Lopes, il quale ha proposto di dividere un’immagine in aree di
tre classi diverse. La prima classe corrisponde alle aree omogenee in cui lo speckle può essere
eliminato semplicemente applicando un filtro passa basso (e, in maniera del tutto equivalente,
attraverso un’operazione di media o di multi-look). La seconda classe corrisponde alle aree
eterogenee in cui lo speckle può essere ridotto preservando le tessiture presenti nell’immagine. La
terza classe contiene infine punti isolati di cui il filtro può preservare il valore osservato.
Il valore di grigio del pixel risultante è dunque:
R = Im
per C i ≤ C u
(6.67)
R = I m ⋅ W + I c ⋅ (1 − W ) per C u < C i < C max
(6.68)
R = I c per C i ≥ C max
(6.69)
in cui:
- W = exp (− DAMP(C i − C u ) (C max − C i ))
-
Cu = 1
-
Ci = S I m
-
C max =
N look
(1 + 2
N look )
- I c = valore di intensità del pixel centrale della finestra del filtro;
- I m = valore medio di intensità dei pixel all’interno della finestra;
- S = deviazione standard dell’intensità all’interno della finestra.
- DAMP =fattore di smorzamento esponenziale.
Il filtro di Lee migliorato minimizza la perdita di informazione radiometrica e tessiturale.
Il filtro di Frost
Il filtraggio di Frost è un algoritmo di filtraggio adattativo, che usa un nucleo convoluzionale che si
adatta alle caratteristiche dell’immagine effettuando delle considerazioni sulle statistiche locali. Il
108
filtro di Frost è diverso da quello di Lee e da quello di Kuan, che verrà definito più avanti in questo
stesso paragrafo, in quanto la riflettività della scena viene stimata convolvendo l’immagine
osservata con la risposta impulsiva del sistema SAR. La risposta impulsiva del sistema SAR viene
ottenuta minimizzando l’errore quadratico medio tra l’immagine osservata e il modello di riflettività
della scena che si assume essere un processo autoregressivo.
L’implementazione di questo filtro consiste nella definizione di un filtro circolare simmetrico con
un insieme di pesi (weighting values) M per ogni pixel:
M = exp(- A ⋅ T )
(6.70)
in cui:
2
- A = DAMP ⋅ C i
- Ci = S I m
- I m = valore medio di intensità dei pixel all’interno della finestra;
- S = deviazione standard dell’intensità all’interno della finestra.
- T = valore assoluto della distanza in pixel del pixel centrale dai pixel che gli stanno intorno
nella finestra del filtro.
Il valore di grigio R risultante per il pixel spianato è:
R = (P1 ⋅ M 1 + P2 ⋅ M 2 + ....... + Pn ⋅ M n ) (M 1 + M 2 + ..... + M n )
(6.71)
in cui:
- P1,….,Pn sono i valori di grigio di ogni pixel presente nella finestra di filtraggio;
- M1,….Mn sono dei pesi per ogni pixel.
Fig. 6.22 – Immagine originale e filtrata con il filtro di Frost per diminuire l’effetto del rumore speckle
Il filtro di Frost migliorato
Il filtro di Frost è stato migliorato da Lopes. L’uscita dal filtro è:
R = I se C i < C u
R = Rf
se C u ≤ C i ≤ C max
R = C pixel se C i > C max
(6.72)
(6.73)
(6.74)
in cui R f è il risultato della convoluzione dell’immagine con un filtro simmetrico circolarmente i
cui valori di peso M per ogni pixel sono dati da:
109
M = exp(− DAMP ⋅ (C i − C u ) (C max − C i ) ⋅ T )
(6.75)
in cui:
- T valore assoluto della distanza in pixel del pixel centrale dai pixel che gli stanno intorno
nella finestra del filtro.;
- V è la varianza dei livelli di grigio presenti nella finestra del filtro;
- I è il livello di grigio medio nella finestra del filtro;
- C pixel è il livello di grigio del pixel centrale nella finestra del filtro;
-
N look è il numero di look dell’immagine radar;
-
Ci = V I
-
Cu = 1
-
C max = 1 + 2 N look
N look
Il valore del livello di grigio R f per il pixel “smussato” è:
R = (P1 ⋅ M 1 + P2 ⋅ M 2 + ....... + Pn ⋅ M n ) (M 1 + M 2 + ..... + M n )
(6.76)
in cui:
- P1,….,Pn sono i valori di grigio di ogni pixel presente nella finestra di filtraggio;
- M1,….Mn sono dei pesi per ogni pixel.
Tutti i pixel vengono filtrati; per filtrare pixel collocati in prossimità dei contorni dell’immagine, i
valori di tali pixel vengono replicati per fornire dati sufficienti. Per le immagini di ampiezza, ogni
livello di grigio verrà elevato al quadrato e di conseguenza sarà necessario estrarre la radice
quadrata del risultato finale.
Il filtro Gamma
È un altro filtro adattativo basato sull’assunzione che l’intensità dell’immagine informativa (priva di
speckle) abbia una distribuzione delle intensità di tipo Gamma:
x − µ


β 

f ( x) =
γ −1
 x − µ
exp −

β 

β Γ(γ )
x ≥ µ; γ , β > 0
(6.77)
∞
Γ(a ) = ∫ t α − 1e − t dt
(6.78)
0
Una volta assunta una distribuzione di tipo Gamma per le intensità presenti nella scena, il filtro
Gamma può essere ottenuto nella forma seguente:
R = I m se C i < C u
R = Rf
se C u ≤ C i ≤ C max
R = I c se C i > C max
dove:
- Rf = B ⋅ Im +
(
D
) (2 ⋅ A)
-
Ci = S I m
-
Cu = 1
-
C max = 2 ⋅ C u
I m = valore medio di intensità dei pixel all’interno della finestra;
S = deviazione standard dell’intensità all’interno della finestra;
N look
110
(6.79)
(6.80)
(6.81)
-
I c = pixel centrale nella finestra del filtro;
-
A = 1 + Cu
Ci − Cu
B = A − N look − 1
D = I m ⋅ I m ⋅ B ⋅ B + 4 ⋅ A ⋅ N look ⋅ I m ⋅ I c
-
(
2
)(
2
2
)
Fig. 6.23 – Immagine originale e filtrata con il filtro Gamma per diminuire l’effetto del rumore speckle
Il filtro di Kuan
Anche questo tipo di filtro rimuove il rumore speckle senza eliminare i contorni o le caratteristiche
di forma degli oggetti presenti nell’immagine. Esso però è applicabile solo alle immagini di
intensità. Il filtro di Kuan trasforma il rumore moltiplicativo in un modello di rumore additivo
dipendente dal segnale e successivamente applica a questo modello il criterio del minimo errore
quadratico medio. Il filtro risultante ha la stessa forma del filtro di Lee ma con una funzione di peso
diversa. Dato che il filtro di Kuan non effettua alcuna approssimazione del modello originale, può
essere considerato migliore del filtro di Lee.
Il valore di grigio del pixel risultante è:
R = I c ⋅ W + I m ⋅ (1 − W )
dove:
(
- W = 1 − Cu Ci
- Ci = S I m
2
2
) (1 + C
2
u
)
-
Cu = 1
-
I m = valore medio di intensità dei pixel all’interno della finestra;
S = deviazione standard dell’intensità all’interno della finestra;
I c = pixel centrale nella finestra del filtro.
N look
111
(6.82)
Fig. 6.24 – Immagine originale e filtrata con il filtro di Kuan per diminuire l’effetto del rumore speckle
6.10 Applicazioni del radar
I dati radar forniscono informazioni complementari a quelle fornite dai dati del telerilevamento nel
visibile e nell’infrarosso. Nel caso delle foreste, le immagini radar possono essere usate per ottenere
informazioni sulla presenza di foglie, sulle biomasse e sui diversi tipi di foresta. Inoltre le immagini
radar permettono di differenziare tra diversi tipi di copertura del suolo come le aree urbane, i campi
agricoli, i corpi d’acqua, eccetera. Nell’identificazione delle colture agricole l’uso di immagini
radar acquisite con diverse polarizzazioni si è dimostrato abbastanza efficace. Per le applicazioni
dell’agricoltura è cruciale acquisire i dati in un certo periodo di tempo (legato alla stagione) per
ottenere i parametri necessari. Questo è reso possibile dalla capacità del radar di lavorare
indipendentemente dal tempo o dalle condizioni di luce del giorno. In geologia e geomorfologia il
fatto che il radar fornisca informazioni circa la composizione e la rugosità della superficie gioca un
ruolo fondamentale nella rivelazione dei contorni e della mappatura geologica. Altre applicazioni di
successo del radar sono la modellizzazione idrologica e la stima dell’umidità del suolo, basati sulla
sensibilità delle microonde alle proprietà dielettriche della superficie osservata. L’interazione delle
microonde con le superfici oceaniche e i ghiacci forniscono dei dati molto utili per l’oceanografia e
il monitoraggio dei ghiacci.
6.11 Differenze tra le immagini ottiche e le immagini radar
Dal punto di vista geometrico una differenza essenziale rispetto alle immagini ottiche è legata al
fatto che, mentre queste ultime distinguono i vari pixel sulla base di una discriminazione in angolo
(l'IFOV del sistema ottico), le immagini radar vengono create sulla base di una discriminazione
temporale nella direzione di range (che corrisponde, come abbiamo visto, ad una discriminazione in
distanza nella direzione obliqua di osservazione dell'antenna). Ne consegue una deformazione
geometrica dipendente dall'angolo di incidenza (angolo tra la direzione di osservazione dell'antenna
e la normale alla superficie terrestre) che in genere viene corretta (correzione slant-to-groundrange). Tuttavia va detto che questa “deformazione” non costituisce una vera e propria distorsione,
ma piuttosto un cambiamento di coordinate. Nel caso di presenza di rilievi l'effetto deformante
diventa molto complesso per cui l'eventuale sovrapposizione ad una immagine ottica richiede di
effettuare opportune correzioni geometriche che utilizzano un modello di elevazione del terreno.
L'altra fondamentale differenza tra i due tipi di immagini è legata, e sembra di dire una banalità, al
fatto che sono relative a diverse bande dello spettro elettromagnetico. In effetti mentre un'immagine
112
ottica può essere interpretata alla luce del nostro stesso senso della vista, l'immagine radar ha delle
proprietà che, se rapportate ancora al senso della vista, risultano addirittura controintuitive.
6.12 Alcuni sistemi Radar
6.12.1 SeaSat
Il primo sistema radar di uso civile è stato il Seasat della NASA. Lanciato nel giugno 1978,
funzionò per soli 99 giorni prima della rottura di un circuito. Durante la sua pur breve vita utile,
fornì le prime immagini in banda L (lunghezza d’onda di 23,5 cm), con polarizzazione HH, vista a
destra del satellite, e con un angolo di 20 gradi dalla verticale, o nadir.
6.12.2 SIR-C
Le missioni dello Shuttle con radar a bordo sono state tre, nell’aprile 1994, ottobre 1994 e febbraio
2000. In tutti i casi si è usato un radar in banda C completamente polarimetrico, con risoluzione a
terra di circa 15 m. Contemporaneamente, sono stati ottenuti dati in banda L, P e X.
6.12.3 ERS
I satelliti ERS-1 e -2 sono stati lanciati dall’ESA nel 1991 e nel 1995, rispettivamente. ERS-1 ha
smesso di funzionare nel 2000, ed ERS-2 attualmente continua a funzionare ma con capacità ridotte.
Il radar è a polarizzazione VV, in banda C. Nel periodo di tempo in cui sono “convissuti”, i due
satelliti avevano orbite sincronizzate in modo da dare immagini della stessa area a terra a distanza di
un giorno (missione “tandem”).
6.12.4 Radarsat-1
Il satellite è canadese, lanciato nel novembre del 1995. Ha una risoluzione spaziale migliore degli
altri sensori (fino a 7 m nel “fine mode”) e ha diverse possibilità di angoli di vista (7 fasci o beam).
Il radar è in banda C, polarizzazione VV. Grazie alla possibilità di avere diversi angoli, può dare
immagini ogni pochi giorni. Sarà presto affiancato dal Radarsat-2, che verrà lanciato in orbita nel
2006, e garantirà continuità di acquisizione con Radarsat-1, avrà capacità polarimetriche, oltre a più
ampie possibilità di puntamento e risoluzione più fine.
6.25 – Il satellite Radarsat-1
Massa Totale
Array Power
Batterie
Design Lifetime
2,750 Kg
2,5 kW
3 × 48 Ah NiCd
5 anni
Tabella 6.1 - Caratteristiche del vettore di Radarsat-1
113
Frequenza/Lunghezza d’onda
5,3 GHz/C-band 5,6 cm
Larghezza di banda RF
11,6 17,3 o 30 Mhz
Potenza del trasmettitore (di picco)
5 kW
Potenza del trasmettitore (media)
300 W
Data Rate massimo
85 Mb/s (recorded) – 105 Mb/s (R/T)
Dimensione dell’antenna
1,5 × 1,5 m
Polarizzazione dell’antenna
HH
Tabella 6.2 - Caratteristiche dello strumento SAR di Radarsat-1
6.26 – Un’mmagine acquisita da Radarsat-1 sul delta del fiume Orinoco, in Venezuela, il 7 dicembre 1996 (Fonte:
Radarsat/ CSA Canadian Space Agency)
6.12.5 La costellazione COSMO/SkyMed
È una costellazione costituita da tre satelliti con sensori ottici IR/NIR e quattro satelliti con un
sensore SAR. Le caratteristiche operative sono:
Tempo di risposta rapido (12 ore)
Immagini ad alta qualità con risoluzione a terra adeguata (da 100 m a 2 m)
Dati da misure radar e multi/iperspettrali
- Capacità di operare in qualsiasi situazione di tempo
Il lancio di questa costellazione è previsto a partire dal 2008.
114
6.13 Envisat-1: il nuovo satellite europeo
Envisat-1, partito il 1° marzo 2002, è l’ultimo satellite in ordine di tempo lanciato dall’ESA
(European Space Agency) e finalizzato allo studio della Terra.
Fig. 6.27 – Il satellite Envisat-1 (fonte: ESA)
Per la parte radar, è l’ideale continuazione di ERS-1 ed ERS-2. Envisat-1 fornirà per un periodo di
cinque anni misure sull’atmosfera, sugli oceani, sulla terra e sui ghiacci, assicurando la continuità di
misurazione dei dati dei satelliti ESA ERS, e inoltre, grazie al suo innovativo carico utile,
supporterà la ricerca scientifica e permetterà il monitoraggio dei cambiamenti climatici ed
ambientali.
Envisat-1 vola in un’orbita polare eliosincrona (con ciclo di ripetizione di 35 giorni) ad un’altezza
di circa 800 km e, grazie ai suoi sensori, fornisce una copertura completa del globo in un tempo che
va da 1 a 3 giorni. In tabella 6.3 sono riportati i parametri orbitali:
La missione Envisat-1 è suddivisa in:
• Missione Globale, i cui obiettivi sono:
- previsioni delle condizioni del mare su varie scale;
- monitoraggio della temperatura della superficie del mare;
- monitoraggio di alcune specie atmosferiche, quale l’ozono;
- monitoraggio di alcune variabili atmosferiche (come temperatura, pressione, vapore acqueo,
nuvole alte, radiazioni dalla terra etc.);
- monitoraggio del colore dell’oceano come sostegno alla pesca e controllo dell’inquinamento.
• Missione Regionale, i cui obiettivi sono:
- monitoraggio del traffico navale;
- monitoraggio dell’umidità del terreno, dell’agricoltura e delle foreste.
- rilevamento del ghiaccio in alto mare;
- produttività primaria degli oceani;
- inquinamento degli oceani naturale e prodotto dall’uomo;
- sostegno a vasti programmi internazionali.
115
Orbite al giorno
14 11/35
Ciclo di ripetizione (giorni)
35
Orbite in un ciclo
501
Periodo dell’orbita (min)
100,59
Ora locale media al nodo discendente
10:00
Inclinazione (gradi)
98,55
Semiasse maggiore [Raggio dell’orbita]
(km)
7159,5
Velocità orbitale (km/s)
7,45
Altezza media (km)
799,8
Intervallo di altezze orbitali (km)
780 - 820
Tabella 6.3 – I parametri orbitali
Mentre alcuni degli obiettivi globali richiedono prodotti disponibili in modalità non in linea (da
giorni a settimane dal rilevamento), alcuni degli obiettivi regionali richiedono dati in tempo reale
(che può significare pochi giorni dal rilevamento) generati su richiesta degli utenti. Il sistema
Envisat-1 comprende diversi elementi:
- Il satellite stesso (Envisat-1 Space Segment) che include la Piattaforma Polare (PPF) ed il
carico utile;
- L' Envisat-1 Ground Segment che consiste nel “payload data segment” (PDS) e nel “flight
operation segment” (FOS).
6.13.1 Capacità di registrazione a bordo
Il sistema di registrazione a bordo è composto da 3 registratori a nastro (TR), ciascuno della
capacità di 30 Gbits e da un registratore allo stato solido (SSR o Solid State Recorder) della
capacità di 70 Gbits.
I registratori a nastro possono solo registrare i dati globali a bassa velocità (4,6 Mbps) e operano
indipendentemente l’uno dall’altro, nel senso che un TR può funzionare in scaricamento mentre un
altro TR sta registrando.
Il SSR permette la registrazione dei dati globali a bassa velocità, nonché dei dati a più alta
risoluzione, quali i MERIS FR e i dati ASAR HR. In più il SSR permette la registrazione in
parallelo di più dati. Esso viene usato per la Missione Regionale con scarico dei dati attraverso il
satellite ARTEMIS all’utente terminale di terra. In effetti, ARTEMIS è il satellite che Envisat-1
utilizza per colloquiare con la Terra, come mostrato in Fig. 6.29.
Il sistema di trasmissione dei dati è possibile:
- su 2 collegamenti in banda X funzionanti uno alla volta;
- su 2 collegamenti in banda Ka funzionanti uno alla volta;
- i trasmettitori in banda X e Ka funzionano in modo indipendente quindi possono essere usati
in modo simultaneo su 2 collegamenti in banda X e su 2 collegamenti in banda Ka.
Per la trasmissione dei dati a più alta risoluzione in tempo reale è necessario il pieno utilizzo di un
canale RF a 100 Mbps.
116
Fig. 6 28 – La struttura del sistema Envisat-1
6.13.2 La piattaforma polare
La piattaforma polare (PPF) rappresenta, con il suo carico utile, il più grande satellite europeo mai
realizzato finora ed è stata concepita come una piattaforma multimissione, comprensiva di due
grossi moduli:
- Il modulo di servizio (SM = Service Module), che fornisce le principali funzioni di supporto
del satellite, come comando e controllo, comunicazione con il terreno, potenza, controllo di
attitudine e propulsione;
- Il modulo carico utile (PLM = PayLoad Module), su cui sono posti gli strumenti di Envisat-1
e di equipaggiamento e supporto del PPF (scambio di dati e comunicazioni, distribuzioni
elettriche).
Questa separazione permette di isolare comodamente il sottosistema SM e l’equipaggiamento
necessario per ogni missione, dagli strumenti del PLM che sono dedicati a missioni specifiche.
6.13.3 Gli strumenti del carico utile
L’ambiente terrestre costituisce un sistema complesso da controllare e misurare, in quanto parti di
esso, come l’atmosfera e gli oceani, interagiscono tra di loro su ampie scale temporali e spaziali. Al
fine di garantire un contributo utile quanto ad informazioni acquisite, un apposito Comitato ha
selezionato in sede di progettazione di Envisat-1 una serie di strumenti multidisciplinari
complementari, tenendo conto sia del budget finanziario disponibile, sia delle limitazioni dei sistemi
fisici. Il carico utile derivato da tale selezione è composto da una serie di strumenti per misurare
l’atmosfera e da strumenti per misurare la superficie terrestre attraverso l’atmosfera; questi
strumenti operano in una vasta banda dello spettro elettromagnetico, che si estende da onde
“centimetriche” fino all’ultravioletto, come mostrato in Fig. 6.29.
La lista degli strumenti (illustrata in Fig. 6.30) comprende due strumenti radar, tre spettrometri di
caratteristiche e misure diverse, due radiometri (uno a banda larga e l’altro a banda stretta), un
interferometro spaziale ad alta risoluzione (il primo nato per osservazioni a lungo termine), e due
strumenti per misure di distanza.
117
Fig. 6.29– Bande di frequenza dei vari dispositivi
Fig. 6.30 – La struttura del satellite Envisat-1 (fonte: ESA)
Gli strumenti sono indicati qui di seguito:
Michelson Interferometer for Passive Atmospheric Sounding (MIPAS): è uno spettrometro basato
sulla trasformata di Fourier per la misura dell’emissione gassosa sulla superficie terrestre che opera
nel vicino e medio infrarosso dove molti dei gas che giocano un ruolo importante nella chimica
atmosferica hanno caratteristiche importanti di emissione.
- Global Ozone Monitoring by Occultation of Stars (GOMOS): è uno strumento preposto al
monitoraggio dell’ozono; negli ultimi decenni si è visto che la composizione chimica
dell’atmosfera sta cambiando su scala globale, in parte a causa del comportamento dell’uomo.
L’ozono gioca un ruolo fondamentale nella chimica dell’atmosfera, in quanto è largamente
responsabile del riscaldamento della stratosfera attraverso l’assorbimento della radiazione UV
e in quanto è responsabile dell’effetto serra. La scoperta del buco nell’ozono sull’Antartico ha
fatto sì che si ponesse finalmente l’attenzione sul budget globale dell’ozono. Questo strumento
rileva l’ozono tramite osservazione dello spettro apparente di emissione di alcune stelle di
riferimento; si confronta lo spettro rilevato quando le stelle sono visibili direttamente con
quello rilevato quando le stesse stelle sono visibili solo attraverso l’atmosfera (cioè quando
118
-
-
-
-
-
sono basse sull’orizzonte). La differenza è ovviamente legata alla composizione chimica
dell’atmosfera.
Scanning Imaging Absortion Spectrometer for Atmospheric Cartography (SCIAMACHY): è
uno spettrometro il cui obiettivo primario è quello di fornire misure globali delle tracce di gas
nella troposfera e nella stratosfera.
Medium Resolution Imaging Spectrometer (MERIS): è uno spettrometro a immagine a media
risoluzione la cui ragion d’essere principale è legata allo studio degli oceani.
Advanced Along Track Scanning Radiometer (AATSR): è uno strumento legato
principalmente al monitoraggio delle temperature dei mari e allo sviluppo del telerilevamento
terrestre, con particolare attenzione allo studio della vegetazione in termini di biomassa,
umidità e stadio di crescita.
Advanced Synthetic Aperture Radar (ASAR): è un radar avanzato ad apertura sintetica il cui
impiego è previsto in numerose applicazioni.
Radar Altimeter 2 (RA-2): è uno strumento utilizzato per determinare il ritardo dell’eco delle
pulsazioni radar riflesse
Microwave Radiometer (MWR): è un radiometro a microonde. il cui obiettivo principale è la
misura della colonna di vapore acqueo atmosferico e del contenuto di acqua liquida nelle
nuvole.
Doppler Orbitography and Radiopositioning Integrated by Satellite (DORIS): è un sistema di
inseguimento che fornisce misurazioni sui segnali; i dati vengono processati a terra fornendo
l’orbita del satellite con una precisione dell’ordine del centimetro e a bordo per fornire la
posizione del satellite in tempo reale con una accuratezza di alcune decine di centimetri.
Laser Retro-Reflector (LRR): è un laser a retroriflettore montato su un sostegno attaccato
vicino all’antenna RA-2 le cui due funzioni principali sono fornire un supporto
all’allineamento del satellite ed effettuare la calibrazione dell’altitudine per RA-2.
6.13.4 Il sensore ASAR
Il radar avanzato ad apertura sintetica ASAR operante in banda C (5,331 GHz) assicura la
continuità con il sensore AMI (Active Microwave Instrument) di ERS-1 ed ERS-2. Il radar è
caratterizzato da una grande capacità in termini di copertura, varietà di angoli di incidenza,
polarizzazione e modalità operative. Questa capacità è stata resa possibile dalle modalità con cui è
stata progettata l’antenna a schiera (completamente attiva), attrezzata con moduli per la
trasmissione e la ricezione che danno dei fasci di trasmissione e ricezione differenti e con
un'elaborazione digitale della forma d’onda per la generazione di impulsi. Rispetto al sensore radar
di ERS, ASAR presenta un miglior controllo in elevazione del fascio; questo miglior controllo,
sfociato nella tecnica ScanSAR, permette di saltare tra diverse fasce di terreno in sequenza, e di
ottenere con questa tecnica una strisciata di più di 400 km.
Le caratteristiche e la specificità del sensore ASAR hanno reso possibile suddividere gli obiettivi
della missione in due parti principali: gli obiettivi della Missione Oceano (rilevazioni e misurazioni
finalizzate a previsioni del tempo, instradamento delle navi, rilevamento di iceberg, inquinamento
da petrolio, etc) e gli obiettivi della Missione Terrestre (misurazioni e rilevazioni finalizzate a
classificazioni della superficie terrestre, cartografia, studi tettonici, processi di trasformazione della
terra, etc). Tutti questi obiettivi possono essere raggiunti in varie modalità, caratterizzate da diverse
risoluzioni.
6.13.4.1 La struttura dello strumento
ASAR è costituito da due gruppi funzionali principali:
- l’antenna;
- l’unità elettronica centrale.
La caratteristica principale di ASAR è l’antenna che permette un controllo indipendente dalla fase e
dall’ampiezza dei radiatori in differenti zone della sua superficie; essa è un’antenna a schiera a fase
119
attiva coerente, montata con l’asse longitudinale allineato alla direzione di volo (asse Y) e contiene
20 blocchi con 16 moduli T/R per ognuna, in tutto 320 moduli T/R distribuiti in modo tale che,
adattando la fase e il guadagno dei moduli individuali, sia possibile guidare e configurare i fasci in
trasmissione ed in ricezione.
Fig. 6.31 – L’antenna ASAR (fonte: ESA)
Attraverso l’uso dell’antenna attiva è possibile dunque utilizzare sia la modalità stripmap che la
modalità ScanSAR.
Quando opera in modo stripmap, la schiera di antenne conferisce ad ASAR la flessibilità necessaria
per selezionare una fascia di terreno cambiando l’angolo di incidenza del fascio e l’ampiezza del
fascio in elevazione. Inoltre per eliminare ambiguità inaccettabili nelle prestazioni e segnali di
ritorno nadir indesiderati, viene selezionata la corretta frequenza di ripetizione degli impulsi PRF
(Pulse Repetition Frequency).
Questa modalità di funzionamento può essere ulteriormente suddivisa in una modalità immagine e
in una modalità onde. Nella modalità immagine, ASAR opera su una fascia di terreno scelta tra sette
possibili, con radiazione polarizzata verticalmente o orizzontalmente e con la stessa polarizzazione
impiegata sia in trasmissione che in ricezione.
La modalità onde, benché utilizzi le stesse fasce di terreno e le stesse polarizzazioni usate dalla
modalità immagine, ha la particolarità di vedere visualizzate di volta in volta piccole aree
dell’oceano, particolarità, questa, che determina una bassa velocità di trasmissione dei dati, in modo
che questi possano essere immagazzinati a bordo del satellite e non scaricati direttamente alla
stazione a terra.
Quando opera in modalità stripmap, ASAR si limita ad una fascia di terreno stretta, a causa delle
limitazioni imposte dall’ambiguità della ricezione del segnale. Queste restrizioni vengono superate
impiegando la tecnica ScanSAR, che permette un ampliamento della fascia di terreno grazie all’uso
di un fascio dell’antenna la cui apertura viene controllata elettronicamente. Le immagini radar
vengono quindi sintetizzate per mezzo di una scansione dell’angolo di incidenza, sintetizzando in
sequenza immagini relative alle diverse posizioni del fascio.
L’area visualizzata da ogni singolo fascio forma una cosiddetta sottofascia; la tecnica ScanSAR si
basa sulla condivisione del tempo di operazione del radar tra due o più sottofasce separate in modo
da ottenere una copertura più ampia.
6.13.4.2 Prestazioni dello strumento: modalità operative della missione globale e regionale
I dati ASAR possono essere acquisiti in diverse modalità:
- il monitoraggio globale (GM): in questa modalità ASAR fornisce immagini a bassa
risoluzione (1 km) usando la tecnica ScanSAR su una fascia di terreno larga 405 km con
polarizzazione HH o VV;
120
Fig. 6.32 – Modalità di monitoraggio globale
-
la modalità onde (wave mode o WM): nella modalità onda ASAR misura i cambiamenti della
retrodiffusione della superficie del mare dovuti all’azione delle onde dell’oceano. Esso creerà
quindi delle immagini, della grandezza minima di 5 km × 5 km, simili alla modalità onda di
ERS AMI, distanziate di 100 km nella direzione longitudinale, con polarizzazione HH o VV.
Fig. 6.33 – Modalità onda
Entrambe queste modalità sono a bassa velocità di trasmissione dati e di conseguenza hanno
capacità operativa fino al 100% dell’orbita.
La tabella 6.4 sotto riportata riassume le prestazioni di ASAR per quanto riguarda queste modalità
di funzionamento.
Parametri dello strumento
Larghezza della strisciata
Velocità dei dati
Potenza
Monitoraggio globale
> 400 km
0,9 Mbit/s
713 W
Tabella 6.4 – Prestazioni di ASAR
121
Modalità onda
Finestre di 5 km
0,9 Mbit/s
647W
Le modalità operative della missione regionale possono essere suddivise in:
- modalità immagine;
- modalità di polarizzazione alternata;
- modalità di strisciata larga.
Queste modalità hanno tutte un’alta velocità di trasmissione dati ed un tempo di operazione limitato
sia dal funzionamento dello strumento (30 minuti per orbita con inclusi i 10 minuti in eclisse) sia
dalla visibilità della stazione a terra o del satellite ARTEMIS.
Nella modalità immagine (image mode o IM) ASAR crea dei prodotti ad alta risoluzione spaziale
(30 m) e acquisisce in polarizzazione HH o VV su una delle sette strisciate aventi angoli di
incidenza che vanno dai 15° ai 45° , come è mostrato in Fig. 6.34.
Fig. 6.34 – Modalità immagine
La modalità di polarizzazione alternata (alternate polarisation o AP) fornisce prodotti ad alta
risoluzione in una qualsiasi delle sette strisciate dette sopra, ma con polarizzazione che varia a
seconda dell’apertura. Viene impiegata una tecnica scanSAR che dà come risultato due immagini
della stessa scena con una combinazione diversa della polarizzazione (HH/VV o HH/HV o VV/VH)
con una risoluzione di circa 30 m e una risoluzione radiometrica ridotta rispetto alla modalità
immagine.
122
Fig. 6.35 – Modalità di polarizzazione alternata
Nella modalità di fascia larga (wide swath o WS) la tecnica scanSAR è utilizzata per fornire
immagini di una striscia di terreno di 405 km con una risoluzione media (150 m), con
polarizzazione HH o VV. La strisciata totale è composta da cinque sottostrisciate; ASAR trasmette
una sequenza di impulsi ad ognuna delle sottostrisciate a turno, creando così un’immagine continua
per ciascuna sottostrisciata.
Fig. 6.36 – Modalità di fascia larga
123
In tabella 6.5 sono riassunte le prestazioni di ASAR per le varie modalità di funzionamento della
missione regionale.
Parametri dello
strumento
Larghezza della
strisciata
Tempo di funzionamento
Velocità di trasmissione
dei dati
Potenza
Modalità
immagine
> 100 km
Polarizzazione
alternata
> 100 km
Strisciata larga
> 400 km
Oltre 30 minuti per orbita
Oltre 100 Mbit/s
1365 W
1395 W
1200 W
Tabella 6.5 - Prestazioni di ASAR nelle varie modalità di funzionamento
6.13.4.3 I dati ASAR
Il sensore ASAR fornisce una vasta gamma di dati che ESA ha suddiviso in vari livelli: si parte dal
Livello 0 per poi arrivare a livelli più avanzati come il Livello 1b e il Livello 2.
I dati di ASAR ad alta risoluzione vengono sistematicamente elaborati in tempo quasi reale per
generare dati a media risoluzione (150 m) e prodotti “browse” (provini) disponibili in rete; i
prodotti ad alta risoluzione vengono elaborati in tempo quasi reale o in differita in base alle richieste
degli utenti. I modi immagine di ASAR ad alta e media risoluzione vengono trasmessi tramite
collegamento in tempo reale (in banda X diretta o attraverso collegamento via ARTEMIS in banda
Ka) e registrati a bordo sul registratore a stato solido per un successivo invio a terra.
Il Livello 0 è composto da dati sincronizzati in uscita dal sensore. Questo tipo di dati, della
grandezza massima di 22500 MB, ha una copertura che varia a seconda della modalità con la quale
è stato acquisito; in particolare i dati acquisiti in modalità immagine e in modalità di polarizzazione
alternata hanno una copertura di 100 km × 12000 km (l’acquisizione lungo la traccia può essere
continua, da cui i differenti ordini di grandezza), mentre i dati ottenuti in modalità strisciata larga
(WS) hanno una copertura di 400 km × 12000 km.
La modalità immagine ASAR, come è già stato detto, opera di volta in volta su una fascia di terreno
scelta fra sette, con ampiezza da 55 a 100 km e polarizzazione HH o VV.
I dati di Livello 1b forniti da questa modalità di funzionamento sono:
- l’immagine single look complex (SLC): questo tipo di immagine, come il nome lascia
intendere, contiene informazione di fase sul ritorno e viene realizzata, a partire dai dati di
Livello 0 della stessa modalità di funzionamento, con l’aggiunta di alcuni parametri ausiliari
aggiornati al momento dell’elaborazione. L’uso di questi dati, che vengono prodotti solo su
specifica richiesta, riguarda la valutazione della qualità dell’immagine e le applicazioni
interferometriche. Ogni scena di questo tipo di dati è caratterizzata da una grandezza massima
di 714 MB e da una copertura massima di 100 km × 100 km.
- L’immagine di precisione: viene ottenuta dai dati della modalità immagine di Livello 0,
elaborati con dati ausiliari e corretti a causa del guadagno di elevazione dell’antenna. Questo
prodotto viene elaborato su specifica richiesta da parte dell’utente che desidera effettuare una
visualizzazione multitemporale e derivare i coefficienti di retrodiffusione. La grandezza
massima di questo tipo di dati è di 134 MB per scena e la copertura massima è di 100 km ×
100 km.
- L’immagine geocodificata: viene creata a partire dai dati di Livello 0 con un’applicazione
delle migliori correzioni strumentali disponibili, con una allocazione precisa e con la
creazione di una mappa. La sua grandezza massima è di 282 MB per scena e la copertura
massima è di 100 km × 100 km.
I dati di Livello 1b della modalità di polarizzazione alternata sono simili a quelli della modalità
immagine, con in più l’aggiunta di una seconda immagine con una diversa combinazione di
polarizzazione. Le combinazioni della polarizzazione sono:
124
- copolarizzazione (un’immagine HH e un’immagine VV);
- polarizzazione incrociata H (un’immagine HH e un’immagine HV);
- polarizzazione incrociata V (un’immagine VV e un’immagine VH).
Le immagini provenienti dai due canali di polarizzazione differenti vengono registrate
contemporaneamente.
I dati a media risoluzione sono invece prodotti di Livello 1b creati in modo sistematico a partire dai
dati di Livello 0 mentre lo strumento si trova in modalità WS, AP o IM. Questo tipo di prodotto
copre un’area continua lungo la fascia di visualizzazione fino ad un massimo di 10 minuti ed è
elaborato con una risoluzione di circa 150 m; la risoluzione radiometrica tipica di questi dati li
rende adatti per applicazioni sul ghiaccio.
I provini, poi, sono prodotti con immagini compresse a bassa risoluzione, creati per mezzo di un
ricampionamento del prodotto a media risoluzione. Questi tipi di dati vengono generati in diverse
modalità di funzionamento, come la modalità immagine, quella di polarizzazione alternata , quella
di strisciata (o fascia) larga e di monitoraggio globale. A seconda della modalità in cui vengono
prodotti, hanno una diversa grandezza massima (che va dai 3 MB della modalità strisciata larga ai
18 MB della modalità di monitoraggio globale) e una diversa copertura (che va dai 100 km × 4000
km della modalità immagine ai 400 km × 40000 km della modalità di monitoraggio globale).
6.14 L’interferometria SAR
L’Interferometria SAR (INSAR) è una tecnica che analizza la differenza di fase tra due immagini
SAR acquisite da posizioni leggermente differenti.
Anche se i radar tipici memorizzano solo immagini di ampiezza, il fatto che il SAR sia un sistema
di acquisizione coerente che immagazzina sia le informazioni di ampiezza che quelle di fase
nell’eco radar durante l’acquisizione dei dati, è di grande importanza per numerose applicazioni.
L’interferometria SAR sfrutta questa coerenza, usando le misure di fase per dedurre il differential
range (differenza tra le distanze percepite dal radar dallo stesso bersaglio e due punti di vista
differenti) e il range change (differenza tra le differenze viste sopra, generalmente tra due coppie
d’immagini; solitamente segno che si è verificato uno spostamento del bersaglio tra le due
acquisizioni) in due o più immagini SAR della stessa superficie.
6.14.1 Stima dell’altezza topografica mediante l’uso del SAR
Consideriamo due antenne radar, A1 e A2, che osservano simultaneamente la stessa superificie e che
sono separate da un vettore linea di base o baseline B con lunghezza B e angolo α rispetto
all’orizzontale.
A1 è situata ad un’altezza h sopra una superficie di riferimento. La distanza tra A1 e il punto al suolo
che viene acquisito è il range ρ , mentre ρ + δρ è la distanza tra A2 e lo stesso punto.
Nell’esempio riportato una stessa antenna trasmette e riceve il segnale radar, mentre l’altra funziona
solo da ricevitore. La differenza di fase è sensibile sia alla geometria di vista che all’altezza del
punto z sulla superficie di riferimento (in Fig. 6.37 h = 0). Se la geometria di vista è controllabile o
almeno conoscibile con sufficiente accuratezza, allora si può dedurre la topografia z ( y ) dalla
misura della fase fino ad una precisione di alcuni metri.
125
Fig. 6.37 – Geometria di base dell’acquisizione di immagini nell’interferometria SAR. A1 e A2 rappresentano due
antenne che guardano simultaneamente la stessa superficie, oppure una singola antenna che osserva la stessa superficie
su due passaggi separati.
Nel prosieguo vengono riportate le equazioni rilevanti. Dalla geometria di acquisizione possiamo
vedere che:
z ( y ) = h − ρ cos θ
(6.84)
dove θ è l’angolo di vista del radar.
Ricordando la regola dei coseni ( c 2 = a 2 − 2ab cos(C ) ), dove a, b, e c sono i lati di un triangolo e
C è l’angolo opposto al lato c, si ha:
( ρ + dρ ) 2 = ρ 2 + B 2 − 2 ρB cos(θ + 90 − α )
ρ 2 + B 2 − 2 ρB sin(θ − α )
(6.85)
ρ + B + 2 ρB sin(α − θ ))
2
2
Da qui è possibile ottenere :
sin(α − θ ) =
[( ρ + dρ )
2
− ρ2 − β 2
2 ρβ
]
(6.86)
La quantità misurata è la differenza di fase d tra le due antenne, ed è direttamente proporzionale a
dr , con costante di proporzionalità 2 p / λ .
dρ =
λϕ
2π
(6.87)
La fase ϕ nell’equazione riportata sopra è la fase frazionaria (valore tra 0 e 2π radianti)
responsabile dell’ambiguità in range. Per risolvere per un numero intero di lunghezze d’onda e per
ottenere il range assoluto sono necessarie delle tecniche aggiuntive, quali il phase unwrapping o
“srotolamento della fase”.
È possibile combinare le equazioni viste fino ad ora per esprimere la topografia ignota z ( y ) in
termini della fase osservabile e i parametri del sistema radar, come segue:
126
{[
]
}
z ( y ) = h − (λϕ 2π ) − B 2 / 2 B sin(α − θ ) − (λϕ 2π ) cos θ
(6.88)
Le stime delle altezze sono mediate su un elemento di risoluzione della superficie dell’immagine
radar (conosciuto come “picture element” o più comunemente “pixel”, tipicamente di diametro
dell’ordine delle decine di metri. Quanto si deve conoscere bene la geometria di vista per ottenere
delle stime delle altezze ragionevolmente accurate? L’incertezza in altezza, σ z , è legata
all’incertezza nell’angolo di orientazione, σ α , tramite la relazione:
2
σ z = ρ sin(θ )σ α
(6.89)
Per un sistema montato su satellite, dove ρ è grande (anche numerose centinaia di chilometri),
l’equazione sopra riportata mostra che per ottenere un’accuratezza nell’altezza accettabile l’errore
σ α deve essere molto piccolo. Per esempio, per ottenere un’accuratezza nell’altezza di 2 m da un
sistema satellitare a 500 km di altitudine con θ = 30° , l’errore di posizione deve essere non più
grande di 1 arcosecondo. Per un sistema radar in banda L con B = 1 km , questo implica
un’accuratezza relativa nella misurazione della posizione (cioè, una conoscenza della posizione di
un’antenna rispetto all’altra) di circa 5 mm. Tale accuratezza è ottenibile con le moderne tecniche di
localizzazione da satellite, (spacecraft- tracking) come il Global Positioning System (GPS) od il suo
analogo europeo, Galileo. Errori nell’orientazione della linea di base causano errori nell’elevazione
assoluta, cioè rispetto al centro della massa della Terra, ma le altezze relative all’interno della
strisciata (swath) radar non vengono influenzate in maniera significativa. Ciò implica che è
possibile impiegare solo pochi punti di controllo (ground control points) per calibrare le stime delle
altezze assolute anche in assenza di informazione relativa alla posizione.
6.15 La polarimetria SAR
6.15.1 Principi di base della polarimetria SAR
6.15.1.1 Introduzione alle onde elettromagnetiche e alle loro proprietà
Un’onda piana elettromagnetica ha componenti di campo magnetico ed elettrico varianti nel tempo
in un piano perpendicolare alla direzione di movimento. I due campi sono ortogonali l’uno all’altro
e sono descritti dalle equazioni di Maxwell. Questi campi si propagano alla velocità della luce nello
“spazio libero”, concetto che comprende non solo il vuoto ma anche l’atmosfera almeno nella
maggior parte delle condizioni atmosferiche più comunemente riscontrate. Per descrivere la
propagazione delle onde elettromagnetiche in un dato mezzo sono necessari e sufficienti tre
parametri: la costante dielettrica (o permettività), la permeabilità e la conduttività.
In generale, quando un’onda elettromagnetica viene emessa da una sorgente, come un’antenna
radar, essa si propaga in tutte le direzioni possibili, (con una intensità e una fase di campo
specifiche in ogni direzione). A grande distanza dall’antenna e per porzioni sufficientemente
piccole dello spazio, possiamo assumere che i fronti d’onda giacciano in un piano, piuttosto che
sulla superficie di una sfera. Dato che siamo interessati solo a ciò che accade alle onde lungo una
direzione specifica, l’assunzione di onda piana è appropriata.
La polarizzazione è una proprietà importante delle onde elettromagnetiche piane e riguarda
l’allineamento e la regolarità delle componenti di campo elettrico e magnetico dell’onda, in un
piano perpendicolare alla direzione di propagazione.
Ci interesseremo solo della componente di campo elettrico dell’onda, dato che la componente di
campo magnetico “segue” quella di campo elettrico attraverso le equazioni di Maxwell. Per questo
motivo, l’onda elettromagnetica può essere caratterizzata attraverso il comportamento del vettore di
campo elettrico come funzione del tempo.
127
Fig. 6.38 – Propagazione dell’onda piana elettromagnetica. Il vettore di campo elettrico ha componenti orizzontale (in
verde) e verticale (in blu) che si combinano per dare luogo al vettore di campo elettrico totale (rappresentato in rosso).
6.15.1.2 L’ellisse di polarizzazione
Il campo elettrico di un’onda piana può essere descritto come somma di due componenti ortogonali,
tipicamente una componente orizzontale e una verticale. Le due componenti sono caratterizzate
dalla loro ampiezza e dalla fase relativa tra esse. Quando si guarda lungo la sua direzione di
propagazione l’estremità superiore (la punta) del vettore di campo elettrico di un’onda
completamente polarizzata traccia una forma regolare. Nel caso più generale, la forma è un’ellisse,
come mostrato in Fig. 6.39:
Fig. 6.39 – L’ellisse di polarizzazione che mostra l’angolo di orientazione ψ e l’ellitticità
maggiore e minore a e b.
χ , funzioni dei semiassi
L’ellisse ha un semiasse maggiore di lunghezza a, e un semiasse minore di lunghezza b; l’angolo
del semiasse maggiore, misurato in direzione antioraria dall’asse orizzontale positivo, è
l’”orientazione” ψ dell’onda elettromagnetica, e può assumere valori compresi tra 0° e 180° . La
misura in cui l’ellisse è ovale è descritto da un parametro di forma detto eccentricità o ellitticità,
definita come χ = arctan(b a) , che può assumere valori tra − 45° e + 45° . La forma dell’ellisse è
influenzata dall’ampiezza e dalla fase relativa tra la componente orizzontale e verticale del vettore
di campo elettrico. La Fig. 6.39 mostra l’effetto della fase relativa tra le componenti, quando le
ampiezze delle componenti sono uguali. Quando le componenti sono in fase, la polarizzazione è
lineare (ellitticità χ = 0 ), con un’orientazione di 45° . Quando l’angolo di fase relativa aumenta
fino a π 2 radianti, l’orientazione rimane a 45° , ma l’ellitticità aumenta fino a 45° ,
rappresentando la polarizzazione circolare. La sequenza è mostrata nella prima riga della figura
6.40 (più la prima rappresentazione della seconda riga), in cui la fase aumenta a passi di π 8 .
128
Fig. 6.40 – Forma dell’ellisse di polarizzazione al variare della fase relativa tra le componenti orizzontali e verticali da
0 a 15π 8 radianti in passi di π 8 .
Quando la fase relativa passa da π 2 a 3π 2 radianti, l’orientazione passa a 135° , e quindi
l’ellitticità passa da 45° a zero e quindi a − 45° . Tale sequenza è mostrata nelle righe 2 e 3 di Fig.
6.40 (più la prima della immagine della quarta riga). Infine nella riga 4, la fase relativa va da 3π 2
a 15π 8 , l’orientazione passa a + 45° , e l’ellitticità tende di nuovo a zero.
La figura mostra come il cerchio e una linea retta siano casi limite dell’ellisse. Se l’angolo di fase
tra le componenti orizzontali e verticali è zero o π radianti, l’ellisse diventa una linea retta. In tal
caso, l’ellitticità è zero e la polarizazione è detta lineare. In questa figura si assume che le
componenti orizzontali e verticali siano uguali, ma se esse non sono uguali, l’orientazione può
assumere qualunque valore tra 0° e 180° . Se l’ellitticità è zero e l’orientazione è ψ = 0 ( 180° è
equivalente)m la polarizzazione è lineare orizzontale (la componente verticale è zero), e se
ψ = 90° , la polarizzazione è lineare verticale (la componente orizzontale è zero). Queste sono le
due polarizzazioni linearidi uso comune.
Se l’angolo di fase tra le componenti orizzontale e verticale è 90° , e le componenti orizzontali e
verticali sono uguali, l’ellisse diventa un cerchio. In questo caso, l’ellitticità è pari a 45° , e
l’orientazione non è definita. Un’ellitticità di χ = +45° corrisponde ad una polarizzazione circolare
sinistra mentre χ = −45° corrisponde ad una polarizzazione circolare destra. Se l’onda viene
osservata lungo la direzione di propagazione, la polarizzazione è verso sinistra se la rotazione del
vettore di campo elettrico è antioraria.
In Fig. 6.41 vengono mostrati un esempio di polarizzazione lineare, ellittica e circolare, insieme alla
rotazione del vettore di campo elettrico.
129
Fig. 6.41 – Il vettore di campo elettrico (in rosso) e il luogo tracciato dalla punta di esso (in blu) perpendicolare alla
direzione di propagazione; caso di polarizzazione rispettivamente lineare, ellittica e circolare.
6.15.1.3 La polarizzazione nei sistemi radar
Come vengono create le onde polarizzate da un sistema radar? Il radar usa un’antenna che è
progettata per trasmettere e ricevere onde elettromagnetiche aventi una polarizzazione specifica. In
un semplice sistema radar, la stessa antenna è spesso configurata in modo da la essere sensibile in
ricezione alla stessa polarizzazione.
Per creare un’onda con polarizzazione arbitraria sono necessari segnali con componenti ortogonali o
in polarizzazioni di base. Le due polarizzazioni di base più comuni sono la lineare orizzontale o H,
e la lineare verticale o V. Per alcune applicazioni si usano anche delle polarizzazioni circolari, come
avviene ad esempio nei radar meteorologici. Le componenti di base sono indicate con R per la
circolare destrorsa e L per la circolare sinistrorsa.
In sistemi radar più complessi, l’antenna può essere progettata per trasmettere e ricevere onde a più
di una polarizzazione. In trasmissione, onde di polarizzazioni diverse possono essere inviate
separatamente, usando un commutatore per dirigere l’energia a diverse parti dell’antenna in
sequenza. In alcuni casi le due parti possono essere usate congiuntamente, per esempio, un segnale
polarizzato circolarmente può essere trasmesso alimentando le parti H e V dell’antenna
simultaneamente, con segnali di uguale ampiezza e una differenza di fase pari a 90° .
Dal momento che il bersaglio può cambiare la polarizzazione dell’onda diffusa fino a renderla
diversa dalla polarizzazione dell’onda incidente, l’antenna radar spesso viene progettata per ricevere
le diverse componenti di polarizzazione dell’onda EM simultaneamente. Per esempio, le parti H e V
di un’antenna possono ricevere le due componenti ortogonali dell’onda in arrivo e i sistemi
elettronici provvedono a mantenere i due segnali separati.
Indicando le polarizzazioni trasmesse e ricevute con una coppia di simboli, un sistema radar che usa
polarizzazioni H e V può avere i seguenti canali:
- HH: per trasmissione orizzontale e ricezione orizzontale;
- VV: per trasmissione verticale e ricezione verticale;
- HV: per trasmissione orizzontale e ricezione verticale;
- VH: per trasmissione verticale e ricezione orizzontale.
6.15.1.3.1 Il modo HH
Il modo HH è un modo operativo del radar in cui l’antenna trasmittente crea un campo elettrico
orientato nel piano orizzontale, e la componente polarizzata orizzontalmente dell’energia
retrodiffusa viene registrata dall’antenna ricevente. Il modo HH è la combinazione di polarizzazioni
preferita per un certo numero di applicazioni. Per esempio, nello studio dell’umidità del suolo, le
colture orientate verticalmente, come il grano e l’orzo, permettono una maggiore penetrazione da
parte delle onde con polarizzazione orizzontale, così che l’energia retrodiffusa viene dominata
dall’umidità del suolo (che può pertanto essere misurata) piuttosto che dalla coltura. La
combinazione HH è inoltre molto utile per separare il ghiaccio marino dall’acqua, dal momento che
è meno sensibile alla rugosità dell’acqua rispetto alla combinazione VV, e quindi produce un
130
contrasto migliore tra il ghiaccio e l’acqua. Per una ragione simile, la combinazione HH è migliore
della VV nell’individuazione delle navi.
Fig. 6.42 – Il modo HH
6.15.1.3.2 Il modo VV
È un modo operativo del radar in cui l’antenna trasmittente crea un campo elettrico orientato nel
piano verticale, e la componente polarizzata verticalmente dell’energia retrodiffusa viene registrata
dall’antenna ricevente. Il modo VV è la combinazione di polarizzazioni preferita per un certo
numero di applicazioni. Per esempio, negli studi su piccola scala della rugosità delle onde capillari
sulla superficie dell’acqua, la combinazione VV risulta essere migliore della combinazione HH o di
quelle miste HV o VH in quanto l’effetto della diffusione di Bragg dà un SNR più alto nel canale
VV. Tale combinazione è usata largamente per applicazioni oceanografiche come l’estrazione della
velocità dei venti di superficie. I sistemi spaziali SAR che hanno avuto una singola banda con
polarizzazione verticale in trasmissione e ricezione sono numerosi, per esempio il sistema europeo
ERS e la banda C del satellite (anch’esso europeo) Envisat-1.
Fig. 6.43 – Il modo VV
6.15.1.3.3 Il modo HV
È un modo operativo del radar in cui l’antenna trasmittente crea un campo elettrico orientato nel
piano orizzontale, e l’antenna ricevente registra la componente polarizzata verticalmente
dell’energia retrodiffusa. Questa combinazione di polarizzazioni in trasmissione e ricezione è detta
anche cross-polarizzata, mentre i modi HH e VV sono detti co-polarizzati. Assumendo la
reciprocità del bersaglio, la quantità di energia retrodiffusa nei modi HV e VH è la stessa.
Comunque, il rumore del ricevitore è diverso nei canali HV e VH, sicché nell’elaborazione dei dati
questi canali vengono spesso mediati per ottenere una misura più accurata dell’energia crosspolarizzata. Benchè i ritorni cross-polarizzati del radar tendono ad essere più deboli di quelli copolarizzati, il canale HV si rivela molto utile nella discriminazione della vegetazione. Dato che la
retrodiffusione HV dalle superfici d’acqua è molto ridotta rispetto a quella VV, il canale HV è
molto adatto per rilevare bersagli sulla superficie dell’acqua che creano una diffusione multipla.
Esempi di tali bersagli sono le sovrastrutture delle navi e le deformazioni del ghiaccio. Allo stesso
modo, la separazione tra colture a foglia larga e in grani trae beneficio dall’impiego di immagini
131
SAR acquisite in cross-polarizzazione, dato che la geometria delle colture a foglia larga causa una
retrodiffusione con rimbalzi multipli, che danno luogo ad una retrodiffusione cross-polarizzata.
Fig. 6.44 – Il modo HV
6.15.1.3.4 Il modo VH
È un modo operativo del radar in cui l’antenna trasmittente crea un campo elettrico orientato nel
piano verticale, e la componente polarizzata orizzontalmente dell’energia retrodiffusa viene
registrata dall’antenna ricevente.
Fig. 6.45 – Il modo VH
Inoltre, un sistema radar può avere diversi livelli di complessità di polarizzazione:
- Polarizzazione singola: HH o VV o HV o VH;
- Polarizzazione doppia: HH e HV, VV e VH, o HH e VV;
- Polarizzazione quadrupla: HH, VV; HV e VH.
Un radar polarimetrico usa queste quattro polarizzazioni e misura la differenza di fase tra i canali
cosi come la loro ampiezza. Anche alcuni radar in doppia polarizzazione misurano la differenza di
fase tra i canali, in quanto questa fase gioca un ruolo importante nell’estrazione dell’informazione
polarimetrica.
6.15.1.4 Lo stato di polarizzazione
Lo stato di polarizzazione di un’onda piana può essere descritto dall’orientazione e dall’ellitticità,
più un parametro S 0 proporzionale all’intensità totale dell’onda. Scrivendo le componenti
orizzontali e verticali del vettore di campo elettrico come E h e E v il fisico britannico Gabriel
Stokes descrisse lo stato di polarizzazione di un’onda elettromagnetica attraverso un vettore di
T
quattro elementi, [S 0 , Q, U, V ] , noto come vettore di Stokes:
2
2
S0

S 0   Ev + E h  
 

  
 Q   E v 2 − E h 2   S 0 cos 2ψ cos 2 χ 
=

 =
 U   2 Re E v E h*   S 0 sin 2ψ cos 2 χ 
 

  

 V   2 Im E E *  
S
sin
2
χ
0
v h 

{
{
}
}
132
(6.90)
dove ⋅ indica il valore assoluto e * il complesso coniugato. Un’onda elettromagnetica piana può
essere completamente polarizzata, parzialmente polarizzata o completamente non polarizzata. Nel
caso di completa polarizzazione, solo tre dei parametri di Stokes sono indipendenti, a causa della
relazione della potenza totale:
S 02 = Q 2 + U 2 + V 2
(6.91)
Per un’onda completamente polarizzata lo stato di polarizzazione può essere descritto da un punto
sulla sfera di Poncaré, come mostrato in Fig. 6.46.
Il raggio della sfera è S 0 , l’intensità dell’onda. La latitudine di un punto sulla sfera corrisponde a
2χ , cioè, due volte l’ellitticità dell’onda. La longitudine di un punto sulla sfera corrisponde a 2ψ ,
cioè due volte l’orientazione dell’onda.
Fig. 6.46 – Orientazione ed ellitticità di un’onda completamente polarizzata rappresentate sulla sfera di Poincaré.
Da questa notazione possiamo vedere che le polarizzazioni lineari giacciono sull’equatore, con
polarizzazioni orizzontali e verticali opposte l’una all’altra. Le polarizzazioni circolari sinistrorse e
destrorse giacciono rispettivamente ai poli nord e sud. Tutti gli altri punti sulla sfera rappresentano
polarizzazioni ellittiche di varie ellitticità ( χ ) e orientazioni ( ψ ). Punti sulla sfera che sono
direttamente opposti l’uno all’altro rappresentano polarizzazioni ortogonali le une alle altre, e sono
dette cross-polarizzazioni.
Se l’onda elettromagnetica è parzialmente polarizzata, essa può essere espressa come somma di
un’onda completamente polarizzata e un’onda completamente non polarizzata (onda rumorosa o
noise-like). Il grado di polarizzazione è il rapporto tra la potenza di polarizzazione e la potenza
totale, e in termini di parametri di Stokes esso è dato da:
Q2 + U 2 + V 2
S0
(6.92)
quindi per le onde parzialmente polarizzate la potenza totale è maggiore della potenza dell’onda di
polarizzazione:
S 02 > Q 2 + U 2 + V 2
(6.93)
6.15.1.5 La diffusione polarimetrica
Dopo aver definito come rappresentare un’onda polarizzata, possiamo descrivere come un’onda
elettromagnetica con una certa polarizzazione venga retrodiffusa da un bersaglio. In questo
contesto, useremo la parola “bersaglio” per intendere sia un riflettore discreto che una superficie
133
distribuita. Le proprietà di retrodiffusione di un bersaglio possono essere misurate da un radar
polarimetrico, come mostrato in Fig. 6.47.
Il sistema radar illumina il bersaglio con un’onda incidente (A), e l’onda viene retrodiffusa in tutte
le direzioni dal bersaglio (C). Il sistema radar registra la parte di onda retrodiffusa che è diretta
indietro verso l’antenna ricevente (B). Spesso l’antenna ricevente è nella stessa posizione rispetto
all’antenna che trasmette l’onda: questa situazione prende il nome di caso monostatico, e l’energia
ricevuta è detta retrodiffusione. Controllando la polarizzazione dell’onda incidente e misurando le
proprietà di piena polarizzazione dell’onda retrodiffusa, il sistema radar può essere usato per
acquisire più informazioni relative al bersaglio che usando una singola polarizzazione.
(a)
(b)
Fig. 6.47 – Il caso (a) si riferisce al caso monostatico; il caso (b) illustra la retrodiffusione; solo una piccola parte
dell’energia diffusa (C), viene ricevuta dall’antenna del radar.
Un radar polarimetrico o radar a polarizzazione in quadratura trasmette con due polarizzazioni
ortogonali, spesso la lineare orizzontale (H) e la lineare verticale (V) e riceve l’onda retrodiffusa
sulle stesse due polarizzazioni. Questo porta ad avere quattro canali ricevuti, cioè HH, HV, VV e
VH, in cui vengono misurate sia l’ampiezza che la fase ricevuta. I segnali misurati in questi quattro
canali rappresentano tutta l’informazione necessaria per misurare le proprietà di diffusione
polarimetrica del bersaglio – quindi il radar a polarizzazione in quadratura è detto radar
completamente polarimetrico. Nel caso di radar a polarizzazione doppia, invece, possono essere
ottenute alcune proprietà di diffusione del bersaglio, ma non tutte.
6.15.1.6 La matrice di diffusione (Scattering Matrix)
Quando un’onda polarizzata orizzontalmente incide su un bersaglio, l’onda retrodiffusa può avere
contributi polarizzati sia orizzontalmente sia verticalmente. Lo stesso accade ad un’onda incidente
polarizzata verticalmente. Dato che le componenti verticale ed orizzontale formano un insieme
completo di basi per descrivere l’onda elettromagnetica, le proprietà di retrodiffusione del bersaglio
possono essere completamente descritte dalla matrice di diffusione, S:
 E hs   S hh
 s = 
 Ev   S vh
S hv   Ehi 
 
S hh   Evi 
(6.94)
che descrive la trasformazione del campo elettrico dell’onda incidente nel campo elettrico dell’onda
diffusa (nella matrice l’apice i indica l’onda incidente e l’apice s indica l’onda diffusa). Avendo
calcolato questa matrice, possono essere calcolate l’ampiezza e la polarizzazione dell’onda diffusa
per una polarizzazione arbitraria dell’onda incidente, dato che qualunque onda incidente può essere
espressa attraverso l’insieme di basi E hi , E vi .
I quattro elementi della matrice di diffusione sono complessi e possono essere ottenuti dalle
ampiezze e le fasi misurate dai quattro canali di un radar polarimetrico. Per ottenere questi elementi
è necessaria una procedura precisa di calibrazione. Le proprietà di diffusione del bersaglio misurate
si applicano solo alla frequenza e all’angolo d’incidenza al momento dell’acquisizione. Comunque,
[
]
134
le proprietà di diffusione possono variare di molto con la frequenza radar e la direzione del fascio (o
la rotazione del bersaglio), quindi bisogna prestare attenzione nello scegliere questi parametri come
rappresentativi di un particolare bersaglio da riconoscere.
Nei radar monostatici, la proprietà di reciprocità vale per la maggior parte dei bersagli. Questa
proprietà significa che S hv = S vh , cioè che la matrice di diffusione è simmetrica e ha solo tre
elementi indipendenti.
6.15.1.6.1 Convenzione nelle coordinate
La propagazione di un’onda elettromagnetica è descritta nello spazio tridimensionale con le
coordinate date dagli assi x, y e z. L’asse z è nella direzione di propagazione, mentre gli assi x e y
giacciono in un piano perpendicolare alla direzione di propagazione, con la terna (x, y, z) che forma
un insieme ortogonale destrorso. In situazioni di interazione con un bersaglio, lo spazio delle
coordinate deve essere definito sia per l’onda incidente che per quella diffusa. In letteratura sono
presenti due convenzioni, precisamente la convenzione di diffusione in avanti (forward scatter
alignment, FSA) e la convenzione di diffusione all’indietro (back scatter alignment, BSA). Per il
FSA, l’asse z positivo è nella stessa direzione della direzione di propagazione dell’onda (sia per
l’onda incidente che per l’onda diffusa), mentre nel BSA, l’asse z positivo punta verso l’obiettivo
sia per l’onda incidente che per l’onda diffusa. Per il caso del radar monostatico, nella convenzione
BSA i sistemi di coordinate sono gli stessi per le onde incidenti e diffuse, e questa è la ragione per
cui tale convenzione è la più usata nello studio dei radar di immagine.
La matrice di diffusione assume una forma diversa nel caso di convenzione FSA e BSA; nella
convenzione BSA la matrice di diffusione è detta Matrice di Sinclair, mentre nel caso della
convenzione FSA è detta Matrice di Jones.
Fig. 6.48 - Rappresentazione delle convenzioni BSA (in alto) e FSA (in basso).
6.15.2 I dati polarimetrici espressi nel dominio della potenza
Esistono molti modi diversi di rappresentare le proprietà di diffusione di un bersaglio, e spesso essi
sono espressi nel dominio della potenza. Alcune delle rappresentazioni di potenza più comuni sono
riportate qui di seguito.
6.15.2.1 Le matrici di covarianza e di coerenza
Il vettore di diffusione o di covarianza k C è una versione vettorizzata della matrice di diffusione.
Assumendo la reciprocità, per cui S vh = S hv , questo vettore è dato da:
135
kC
 S hh 



=
2 S hv 


 S 
 vv 
(6.95)
È conveniente costruire una rappresentazione nel dominio della potenza delle proprietà di
diffusione, effettuando il prodotto di questo vettore con se stesso. Il risultato ottenuto è la matrice di
covarianza, che descrive pienamente le proprietà di diffusione del bersaglio.
C = k C ⋅ k C+
 S hh 2


*
=  2S hv S hh

*
 S vv S hh

S hh S vv* 

2S hv S vv* 

2

S vv

2 S hh S hv*
2 S hv
2
2 S vv S hv*
(6.96)
dove l’apice “+” indica il trasposto coniugato e l’apice “*” il coniugato. La matrice di covarianza ha
simmetria coniugata.
La matrice di coerenza è strettamente legata alla matrice di covarianza; essa è ottenuta a partire
dalla matrice di diffusione che viene vettorizzata in un modo diverso usando gli elementi di spin di
Pauli (assumendo ancora la reciprocità):
kT
 S hh + S vv 


1 
=
S hh − S vv 


2
 2S

hv


(6.97)
Questo vettore viene qualche volta preferito perché i suoi elementi hanno un’interpretazione fisica
(odd-bounce, even-bounce, diffuse, ecc). L’informazione contenuta in questo vettore viene espressa
nel dominio della potenza effettuandone il prodotto con se stesso, ottenendo la matrice di coerenza:
Τ = k T ⋅ kT+
 S hh 2 + 2ℜ( S hh S vv* ) + S vv 2

1
2
2
=  S hh + 2 jℑ S hh S vv* − S vv
2

*

2 S hv S hh
+ 2 S hv S vv*

(
S hh
)
S hh
(
)
2
− 2 jℑ S hh S vv* − S vv
2
2
− 2ℜ( S hh S vv* ) + S vv
2
*
2S hv S hh
− 2S hv S vv*
2 S hh S hv* + 2 S vv S hv* 

2 S hh S hv* − 2 S vv S hv* 

2

4 S hv

(6.98)
Gli autovalori della matrice di covarianza e della matrice di coerenza sono gli stessi, e sono reali. La
somma degli elementi sulla diagonale (la traccia) di entrambe le matrici è anche questa la stessa e
rappresenta la potenza totale dell’onda diffusa se l’onda incidente ha potenza unitaria.
136
6.15.2.2 Le matrici di Stokes e di Mueller
Quando la polarizzazione dell’onda incidente è descritta dal vettore di Stokes S i e quello dell’onda
retrodiffusa dal vettore di Stokes S S , allora la potenza retrodiffusa da un diffusore è definita da:
( )
T
P = 0,5 ⋅ S s M S i
(6.99)
dove M è la matrice di Stokes, che è un vettore 4 × 4 di numeri reali che trasforma il vettore di
Stokes dell’onda incidente nel vettore di Stokes dell’onda diffusa, per un bersaglio specifico
illuminato da uno specifico sistema radar polarimetrico. In altre parole, la matrice di Stokes è un
altro modo per trasformare l’onda elettromagnetica EM incidente nell’onda retrodiffusa.
Assumendo la reciprocità, la matrice di Stokes è simmetrica, contiene 10 numeri diversi, dei quali 9
sono indipendenti. Ogni elemento può essere calcolato dalla matrice di diffusione. La definizione
del vettore di Stokes dell’onda diffusa dipende dalla convenzione utilizzata per il sistema di
coordinate. Dato che ciò può creare confusione, vengono utilizzate due forme della matrice di
Stokes, in particolare la matrice di Mueller e quella di Kennaugh.
La matrice di Mueller è molto simile alla matrice di Stokes, tranne che per il fatto che non viene
supposta la reciprocità e di conseguenza essa contiene più elementi indipendenti. La matrice di
Mueller viene usata con la convenzione FSA; esiste una forma dell’equazione della potenza
riportata sopra per la matrice di Mueller, cosi come per le matrici di covarianza e di coerenza.
La matrice di Kennaugh K è la versione della matrice di Stokes usata nella convenzione BSA. Le
matrici K ed M sono legate dalla relazione
M = diag [1
1
1
− 1] K
(6.100)
La traccia della matrice di Kennaugh è pari alla potenza totale, ma lo stesso non vale per la traccia
della matrice di Mueller.
6.15.2.3 Compressione dei dati e formati di archiviazione
Per trattare in modo efficiente i dati provenienti dai radar polarimetrici AIRSAR e SIR-C, gli
scienziati del Jet Propulsion Lab (JPL) hanno cercato un modo di memorizzare e distribuire i dati
che fosse semplice, compatto e contenesse tutte le informazioni necessarie per l’interpretazione dei
dati stessi e per la loro classificazione. Piuttosto che memorizzare i quattro elementi complessi della
matrice di diffusione, utilizzando 32 bytes per pixel, per i dati AIRSAR hanno scelto la matrice di
Stokes (Kennaugh), e compresso ogni campione (o gruppo di campioni mediati) in una parola di 10
byte. Nello schema ideato dai ricercatori del JPL, la potenza totale di ogni campione viene calcolata
e memorizzata in 2 bytes, una per la mantissa e uno per l’esponente. Gli 8 elementi unici restanti
della matrice di Stokes vengono normalizzati con l’elemento in alto a sinistra M 11 e memorizzati
ognuno in un byte. Tra questi, dei quattro più piccoli, relativi ai prodotti incrociati dei canali copolarizzati e cross-polarizzati vengono estratte le radici quadrate. Gli elementi originali della
matrice di Stokes sono quindi facilmente ottenibili dai dati immagazzinati.
Nota: è utile sottolineare che le matrici di Stokes e di covarianza contengono anche delle
informazioni di fase, nonostante siano delle rappresentazioni di potenza. Ciò accade perché i
termini come EhhEvv* sono numeri complessi, e l’angolo di tale numero complesso, ad esempio,
dipende dall’angolo di fase tra i canali HH e VV.
6.15.3 La sintesi di polarizzazione
Come già detto in precedenza, il radar polarimetrico può essere usato per determinare la risposta del
bersaglio o la matrice di diffusione usando due polarizzazioni ortogonali, tipicamente la lineare
orizzontale e la lineare verticale sia in trasmissione che in ricezione. Se la matrice di diffusione è
nota, si può calcolare la risposta del bersaglio ad ogni combinazione di polarizzazioni incidenti e
137
ricevute. Questa operazione è nota come sintesi di polarizzazione, ed illustra la potenza e la
flessibilità del radar polarimetrico.
Se un radar polarimetrico misura la matrice di diffusione, allora si ha a disposizione tutta
l’informazione relativa alle proprietà di retrodiffusione del bersaglio ad ogni campione, per quella
frequenza e quell’angolo con cui il fascio radar illumina il bersaglio. Mentre il radar misura la
risposta alle combinazioni delle quattro polarizzazioni, l’informazione ottenuta può essere usata per
sintetizzare un’immagine per ogni combinazione di polarizzazioni trasmesse e ricevute. Per
esempio, un radar a polarizzazione in quadratura può misurare le risposte a HH, HV, VV e VH, e
con queste informazioni si può costruire un’immagine che può essere ricevuta da un radar con
polarizzazione circolare destrorsa sia in trasmissione che in ricezione.
La sintesi di polarizzazione può essere effettuata convertendo la matrice di diffusione nella matrice
di Stokes, quindi pre-moltiplicando e post-moltiplicando la matrice per il vettore unitario di Stokes
che rappresenta le polarizzazioni desiderate delle antenne in ricezione e trasmissione
rispettivamente. Un uso comune della sintesi di polarizzazione viene fatto per costruire le firme di
polarizzazione per una classe scelta di bersagli; l’uso di queste rappresentazioni geometriche aiuta a
interpretare i meccanismi di diffusione presenti nella scena.
6.15.4 I parametri polarimetrici
Quando si analizzano dati radar polarimetrici, è possibile calcolare un certo numero di parametri
che hanno un’utile interpretazione fisica. Tali parametri possono essere calcolati per ogni campione
dell’immagine prodotta dal radar polarimetrico, ma spesso sono mediati su gruppi di campioni per
ridurre l’effetto del rumore.
6.15.4.1 La potenza totale
La potenza totale rappresenta una quantità che fornisce la potenza totale ricevuta dai quattro canali
del sistema radar polarimetrico. In termini di elementi della matrice di Sinclair (di diffusione), la
potenza totale è pari a:
PTOT = S hh
2
+ S hv
2
+ S vh
2
+ S vv
2
(6.101)
La potenza ricevuta da un radar polarimetrico può essere espressa attraverso le matrici di
covarianza, di coerenza e di Kennaugh. La potenza totale nei quattro canali è proporzionale alla
somma degli elementi diagonali (la traccia) di queste matrici.
6.15.4.2 Il coefficiente di correlazione di co-polarizzazione
Questo coefficiente rappresenta la correlazione tra i due canali co-polarizzati, che per la spiegazione
assumiamo essere HH e VV, in un radar multi-polarizzazione o polarimetrico.
Il coefficiente di correlazione è complesso e viene calcolato come la media del prodotto tra
l’ampiezza complessa del canale HH e il coniugato dell’ampiezza complessa del canale VV. Questo
prodotto viene normalizzato dalla radice quadrata del prodotto delle potenze dei canali HH e VV.
γ =
< S hh S vv* >
2
S hh S vv
2
(6.102)
Se l’ampiezza del coefficiente di correlazione è unitario, i segnali ricevuti dai due canali sono
collegati in maniera lineare (ossia, uno può essere calcolato a partire dall’altro). Un esempio è la
retrodiffusione ricevuta da un riflettore triedrico ideale. Se l’ampiezza del coefficiente di
correlazione è inferiore ad uno, questo significa che le retrodiffusioni ad HH e VV non sono
direttamente correlate. Questo può anche significare che su uno o su entrambi i canali è presente del
rumore oppure che le onde elettromagnetiche sono parzialmente polarizzate.
138
6.15.4.3 La differenza di fase di co-polarizzazione
La differenza di fase di co-polarizzazione è la differenza di fase tra i due canali co-polarizzati di un
radar polarimetrico ed è rappresentato dall’angolo di fase del coefficiente di correlazione di copolarizzazione. Quando viene effettuata la media, gli elementi della matrice di diffusione coerente
vengono mediati, e successivamente viene calcolata dalla media la differenza di fase di copolarizzazione.
Spesso i canali co-polarizzati sono i canali HH e VV, e la differenza di fase di co-polarizzazione è
la differenza media tra gli angoli di fase dei pixel corrispondenti (o gruppi di pixel) nei canali HH e
VV. La differenza di fase di co-polarizzazione è spesso di aiuto nella classificazione dei pixel, in
quanto esprime il numero di rimbalzi che l’onda elettromagnetica subisce durante la riflessione. Un
diffusore ideale a singolo rimbalzo (o con un numero dispari di rimbalzi) avrà una differenza di fase
di co-polarizzazione di 180° nella convenzione BSA, mentre un diffusore ideale a doppio rimbalzo
(o con un numero pari di rimbalzi) avrà una differenza di fase di co-polarizzazione di 0° .
Nelle situazioni pratiche, ci sarà un certa variazione nelle misurazioni della differenza di fase di copolarizzazione. Una superficie poco rugosa (o meglio, non abbastanza rugosa da far sì che avvenga
una diffusione a rimbalzi multipli) diffonderà con una differenza di fase di co-polarizzazione
prossima ai 180° , ed una struttura dritta aperta come una cabina telefonica avrà una differenza di
fase di co-polarizzazione prossima a 0° . Comunque, la retrodiffusione proveniente da un campo
agricolo potrebbe avere numerosi valori di differenza di fase di co-polarizzazione, compresi tra
− 180° e 180° , dipendenti dalla dimensione e dalla distanza tra le piante e dal tipo di vegetazione.
Per esempio, ci si aspetta che la retrodiffusione proveniente da un campo di grano, con gambi
verticali ben definiti abbia una differenza di fase di co-polarizzazione significativamente inferiore
rispetto a quella prodotta da un campo di piselli.
Esiste inoltre una differenza di fase di cross-polarizzazione, che ha una definizione analoga a quella
vista per la differenza di fase di co-polarizzazione. Va detto però che la differenza di fase di crosspolarizzazione è casuale, in quanto generalmente c’è poca correlazione tra i centri di fase8 di
diffusione dei canali HH e HV (ad esempio).
6.15.4.4 Il grado di polarizzazione
Il grado di polarizzazione è dato dal rapporto tra la potenza presente nella parte polarizzata di
un’onda elettromagnetica e la potenza totale presente nella stessa.
Un’onda elettromagnetica può avere una componente polarizzata e una non polarizzata, e i
parametri di Stokes sono un modo comodo di esprimere le potenze in ognuna delle due parti. La
potenza totale nell’onda è data dal parametro di Stokes S 0 , mentre S 1 2 + S 2 2 + S 3 2 dà la
potenza totale nella parte polarizzata. Di conseguenza, il grado di polarizzazione può essere
espressa in termini dei parametri di Stokes:
S1 + S 2 + S 3
2
D pol =
2
S0
2
(6.103)
6.15.4.5 Il coefficiente di variazione
Il coefficiente di variazione è il rapporto normalizzato tra la potenza massima e minima in una firma
di polarizzazione, che costituisce un metodo grafico di visualizzazione della risposta di
retrodiffusione di un bersaglio come funzione delle polarizzazioni incidenti e retrodiffuse
(P
)
− Pmin Pmax .
(6.104)
Quando il coefficiente di variazione è pari ad 1, la firma ha uno zero in qualche polarizzazione, ed il
segnale ricevuto è completamente polarizzato. Quando il coefficiente è pari a zero, la firma di
max
8
In generale si definisce centro di fase il punto sul quale si misura la fase dell’onda incidente o emessa.
139
polarizzazione è piatta ed il segnale ricevuto è non polarizzato. Il coeffiente di variazione è anche
detto polarizzazione frazionale.
6.15.5 L’interpretazione delle immagini polarimetriche
Uno dei principali obiettivi del telerilevamento è quello di realizzare una mappa tematica della
superficie terrestre, che indichi il tipo di materiale presente in ogni punto illuminato dal radar. È
possibile riconoscere il tipo di materiale a partire da dati polarimetrici utilizzando degli algoritmi
automatici di classificazione. I pixel o gruppi di pixel vengono assegnati a classi del terreno che
hanno un’interpretazione geoscientifica significativa. Il radar polarimetrico, rispetto al radar a
singolo canale, permette di misurare un numero elevato di parametri e ciò permette di ottenere una
classificazione più accurata. Va detto però che l’inevitabile presenza di rumore, le difficoltà nella
calibrazione del sistema, la comprensione dei meccanismi di diffusione e la presenza di diversi
meccanismi di diffusione all’interno di un pixel o di un gruppo di pixel costituiscono ostacoli
oggettivi che vanno superati in qualche modo se si vuole ottenere una classificazione accurata.
6.15.5.1 La calibrazione dei dati
Una delle caratteristiche critiche dei sistemi radar polarimetrici è la necessità di effettuare una
calibrazione, in quanto la maggior parte dell’informazione è contenuta nei rapporti tra le ampiezze e
le differenze nell’angolo di fase tra le retrodiffusioni nelle combinazioni delle quattro polarizzazioni
ricevute. Se la calibrazione effettuata non è sufficientemente accurata, i meccanismi di diffusione
possono essere mal interpretati e di conseguenza si perdono i vantaggi apportati dall’utilizzo di
polarizzazioni multiple.
La calibrazione viene ottenuta come risultato della combinazione della progettazione del sistema
radar e dell’analisi dei dati ricevuti. Consideriamo la risposta ad un riflettore triedrico mostrata in
Fig. 6.49 La risposta ideale è rappresentata da una matrice di diffusione identità:
1
S = 
0
0

1 
(6.105)
ed è ottenuta solo se i quattro canali hanno lo stesso guadagno, le differenze di fase tra i canali sono
corrette a zero, non c’è perdita di energia da un canale all’altro (crosstalk), e non c’è rumore nel
ricevitore.
Fig. 6.49 – Firme di polarizzazione di una grossa sfera conduttrice o di un riflettore triedrico
Anche se il sistema radar non ha queste proprietà ideali, se è possibile misurare le distorsioni queste
ultime possono essere per la maggior parte corrette attraverso le procedure di calibrazione. In
termini di progettazione del radar, i guadagni e le fasi dei canali devono essere adattati con tutta
l’accortezza possibile. Nel caso di bilancio della fase (phase balance)9, questo significa che la
lunghezza dei percorsi del segnale sarà effettivamente la stessa in tutti i canali. Spesso vengono
9
Si parla di fase bilanciata quando il percorso dall’antenna al ricevitore non introduce ulteriori sfasamenti tra le diverse
polarizzazioni ricevute.
140
inseriti nel progetto del sistema dei segnali di calibrazione per misurare gli equilibri dei canali
(balances).
In termini di analisi dei dati, gli equilibri dei canali (in ampiezza e fase), il crosstalk ed il rumore
possono essere misurati e corretti analizzando i dati ricevuti da bersagli specifici. Oltre ad
analizzare la risposta di segnali di calibrazione interni, è possibile usare segnali provenienti da
bersagli noti come riflettori ad angolo, ammassi uniformi (clutter) e ombre radar, per calibrare
alcuni dei parametri. Sono state sviluppate numerose procedure di calibrazione differenti, alcune
funzionanti solo con un sensore specifico. Una delle difficoltà comuni è che i parametri di
calibrazione tendono a variare con l’angolo di elevazione del fascio (per via delle caratteristiche
dell’antenna, variabili con la direzione considerata: si veda il diagramma di radiazione) e con
l’angolo d’incidenza (a causa delle proprietà di diffusione del bersaglio, naturalmente anch’esse
variabili con la direzione); ciò significa che nella procedura di calibrazione bisogna tenere in
considerazione .il variare della geometria di acquisizione all’interno dell’immagine.
6.15.5.2 L’interpretazione visuale
Il metodo più semplice di classificazione è quello costituito dall’interpretazione visuale.
L’interprete impara in che modo le caratteristiche della superficie sono ritratte nell’immagine, e
riempie i vuoti dovuti a dettagli mancanti utilizzando la conoscenza che ha del luogo e la sua
esperienza. Per aiutare l’interpretazione visuale, è possibile usare i canali multipli dei dati
polarimetrici, per rappresentare i dati in un’immagine a colori, in cui alcune caratteristiche
dell’immagine possono essere riconosciute da un interprete esperto.
Per esempio, è possibile ottenere un’immagine a colori utilizzando il canale HH nel rosso, il canale
HV nel verde e il canale VV nel blu. Questa scelta produce un’immagine a “colori reali”, in quanto
le riflessioni dell’acqua hanno una componente VV più alta della componente HH, e la vegetazione
ha una diffusione media più alta nel canale HV.
Fig. 6.50 - Immagine in colori compositi Sir-C in banda L del Parco Provinciale Nipawin, a Nord di Prince Albert,
Canada
Quella mostrata in figura 6.50 è un’immagine composita a fasi colori della zona di Prince Albert, in
Canada, centrata a 53°91’ nord in latitudine e 104°69’ ovest in longitudine. Questa immagine è stata
acquisita dal radar ad apertura sintetica operante in bande C e X aviotrasportato (SIR-C/X-SAR) a
bordo dello shuttle Endeavor sulla sua 20° orbita. L’area si trova a 40 chilometri a nord e 30
chilometri ad est della città di Prince Albert in Canada. L’immagine copre l’area ad est del lago
Candle. L’area nel mezzo dell’immagine copre l’intero parco Nipawin (Narrow Hills). L’angolo di
vista del radar è 30 gradi e la dimensione dell’immagine è approssimativamente 20 chilometri per
50 chilometri. Questa immagine è stata prodotta utilizzando solo la banda L. I tre canali di
polarizzazione HH, HV e VV sono stati assegnati rispettivamente al rosso, al verde e al blu. I
cambiamenti nell’intensità di ogni colore sono legati a varie condizioni superficiali come variazioni
141
nel sottosuolo delle foreste, condizioni di gelo o di disgelo della superficie, disturbi quali incendi e
deforestazioni, e aree di ricrescita. La maggior parte delle aree scure nell’immagine sono laghi
ricoperti di ghiaccio. L’area scura nell’angolo in alto a sinistra è il lago White Gull a nord
dell’incrocio tra le autostrade 120 e 913. Nel mezzo dell’immagine verso destra si possono vedere i
laghi Ispuchaw e il Lower Fishing Lake. Anche le aree disboscate appaiono scure nell’immagine.
Dal momento che la maggior parte delle aree riservate alla crescita degli alberi da legna nell’area di
Prince Albert si trovano attorno alle maggiori autostrade, le aree deforestate possono essere
facilmente individuate come regioni di piccola dimensione di colore scuro lungo le strade.
Nel periodo in cui il SAR SIR-C/X ha effettuato il passaggio la maggior parte delle foreste erano
ghiacciate o stavano subendo il disgelo primaverile. Il canale HH in banda L mostra un alto ritorno
proveniente dalla zona della foresta di pini. Le aree più rosse nell’immagine sono le zone in cui c’è
la foresta di pini vecchi, alti da 12 a 17 metri e dai 60 ai 75 anni di età. Le aree arancioni-verdastre
sono zone coperte da alberi di pino giovani, alti da 3 a 5 metri e vecchi da 11 a 16 anni. Le aree
verdi sono dovute all’intensità relativamente alta del canale HV, che è fortemente correlato con la
quantità di biomassa. Il canale HV in banda L mostra le variazioni di biomassa sull’intera regione.
La maggior parte delle aree verdi, quando confrontate con le mappe di copertura della foresta,
vengono identificate come neri abeti rossi. I colori blu scuro e viola scuro rappresentano
rispettivamente aree recentemente sottoposte a raccolto e a ricrescita.
6.15.5.3 L’interpretazione basata sui modelli di diffusione
Il livello successivo, di maggiore complessità, coinvolge la comprensione dei meccanismi di
diffusione presenti nell’immagine. Van Zyl ha introdotto un classificatore in cui i pixel
dell’immagine vengono assegnati a classi di meccanismi di diffusione a “rimbalzi dispari”,
“rimbalzi pari” e “diffusi”. Ciò si basa sul principio che i diffusori con semplice struttura
geometrica hanno essenzialmente una risposta di co-polarizzazione, ma il numero di rimbalzi o di
riflessioni che il segnale radar sperimenta crea una differenza di fase riconoscibile tra i canali HH e
VV (la fase relativa cambia di 180° ad ogni rimbalzo). Van Zyl ha sviluppato un semplice test
matematico per assegnare ogni pixel ad una di queste tre classi.
Un altro insieme di modelli di diffusione basati su principi fisici è stato introdotto da Freeman e
Durden. Prendendo un albero su un terreno rugoso come diffusore generico, l’energia radar
retrodiffusa dalla chioma, dal tronco e dal terreno vengono modellizzate e utilizzate per
categorizzare i diffusori presenti in natura. È stata sviluppata una procedura matematica che calcola
la percentuale di ogni tipo di diffusore in ogni pixel. Il metodo è simile a quello di Van Zyl, eccetto
che per il fatto che per separare i meccanismi di diffusione nei dati viene utilizzato un modello
fisico, piuttosto che una regola puramente matematica.
Quando si ha a che fare con un gran numero di parametri misurati, i classificatori lavorano meglio
se l’insieme dei parametri può essere trasformato in un insieme ortogonale, e se la dimensionalità
dell’insieme può essere ridotta a quei parametri che contengono informazioni significative (ad
esempio, i parametri che aiutano a rimuovere il rumore). I metodi degli autovalori se utilizzati
possono dare dei vantaggi, così come è utile usare modelli di diffusione che siano indipendenti dal
contenuto della scena. Uno degli ultimi metodi di selezione dei parametri in ordine di tempo si basa
sulla decomposizione degli autovalori della matrice di coerenza sviluppato da Shane Cloude ed Eric
Pottier, (detto Decomposizione di Cloude) in cui a partire dagli autovalori e dagli autovettori della
matrice vengono calcolati i parametri di entropia polarimetrica, anisotropia polarimetrica e l’angolo
alfa.
L’entropia (H) rappresenta la casualità della diffusione, con H = 0 che indica un meccanismo di
diffusione singola e H = 1 che rappresenta una mistura casuale di meccanismi di diffusione. Valori
nel mezzo indicano il grado di dominanza di un particolare diffusore. L’angolo alfa si basa sugli
autovettori ed è un numero indicativo della media dei meccanismi di diffusione dominanti. Il limite
inferiore di α = 0° indica diffusione superficiale, α = 45° indica diffusione volumetrica o
dipolare, mentre il limite superiore α = 90° rappresenta un riflettore diedrico oppure diffusione
142
multipla. Un altro parametro che fornisce informazione utile è l’anisotropia, un parametro basato
sul rapporto degli autovalori, che indica diffusione multipla.
6.15.5.3.1 La decomposizione di Cloude
La decomposizione di Cloude è un metodo per estrarre diversi meccanismi di diffusione dalla
rappresentazione attraverso la matrice dei coerenza di dati radar polarimetrici.
Questa decomposizione è in grado di descrivere tutto l’insieme di meccanismi di diffusione
possibili, mentre la maggior parte degli altri metodi sono in grado di distinguerne solo tre. Questo
metodo è basato sull’analisi degli autovettori della matrice di coerenza T; grazie al fatto che la
matrice di coerenza T è una matrice hermitiana, semidefinita positiva, è sempre diagonalizzabile.
Questo significa che la matrice di coerenza 3 × 3 reciproca può essere espressa come:
< [T ] > = [U 3 ][Λ ][U 3 ]
*
(6.106)
λ1
0
0
= [U 3 ] 0
λ2
0 [U 3 ]
0
0
λ3
∗
(6.107)
dove Λ è la matrice diagonale degli autovettori di [T ] , λ1 = λ 2 = λ3 = 0 sono i suoi autovalori
reali e [U 3 ] è una matrice unitaria le cui colonne corrispondono agli autovettori ortonormali e1 , e2
ed e3 di [T ] . Quindi la matrice di coerenza [T ] può essere decomposta nella somma di tre matrici di
coerenza [Tn ] , ognuna pesata dal suo autovalori corrispondente λ n :
[T ] = ∑ λ n [Tn ] = λ 1 (e1e1* ) + λ 2 (e2 e2 * ) + λ 3 (e3 e3* )
(6.108)
Ogni matrice [Tn ] è una matrice di diffusione unitaria che rappresenta un contributo deterministico
di diffusione. L’ammontare dei contributi è dato dagli autovalori λ n mentre il tipo di diffusione è
legato agli autovettori attraverso un angolo detto angolo alfa.
Cloude e Pottier hanno introdotto due caratteristiche importanti che nascono da questa
decomposizione. Il primo è l’entropia H di diffusione polarimetrica, che rappresenta una misura
globale della distribuzione delle componenti del processo di diffusione ed è definito come:
H = −∑ Pi log 3 Pi , i = 3 dove Pi = λ i
∑λ
n
n = 1, 3
(6.109)
Il valore Pi può essere interpretato come l’intensità relativa dell’i-esimo processo di diffusione.
Grazie a questa definizione, H è ristretta all’intervallo 0 ≤ H ≤ 1 , dove H = 0 indica che [T ] ha un
solo autovalore non nullo e rappresenta un processo di diffusione deterministica, mentre H = 1
significa che tutti i λ n sono uguali. L’ultimo potrebbe essere il risultato di una diffusione puramente
casuale. Dal momento che l’entropia è principalmente un indicatore della relazione tra l’autovalore
più grande λ1 e gli altri due autovalori più piccoli λ 2 e λ3 , non è possibile estrarre da essa alcuna
informazione diretta tra gli ultimi due. La seconda caratteristica, introdotta da Pottier, l’anisotropia
polarimetrica, è legata ai due autovalori più piccoli.
6.15.6 Gli algoritmi di classificazione
Gli algoritmi di classificazione vengono solitamente distinti in supervisionati e non supervisionati,
benché alcuni algoritmi combinino caratteristiche peculiari di entrambi i tipi. Per una spiegazione
più dettagliata degli algoritmi di classificazione si rimanda al Capitolo 9.
143
6.15.6.1 La classificazione non supervisionata basata sui parametri H/A/α
In ogni classificatore la scelta dei parametri è importante, e nel caso dei dati radar polarimetrici si
possono utilizzare dei modelli di diffusione dipendenti dal contenuto per ottenere i parametri che
forniscono una ragionevole separazione tra le classi. Un esempio di questo tipo di parametri è
l’insieme H/A/α che possono essere estratti a partire dalla decomposizione in autovalori della
matrice di coerenza. L’algoritmo H/A/α, come ricordato in precedenza, è stato sviluppato da
Cloude e Pottier, che hanno mostrato che le classi del terreno a volte producono dei raggruppamenti
distinti nel piano H/α.
Il piano H/α è mostrato in Fig. 6.51. I valori di α osservabili per una data entropia sono compresi
tra le curve I e II (cioè le aree ombreggiate non sono valide). Questo perché la media dei differenti
meccanismi di diffusione (cioè la media dei diversi autovettori) restringe l’intervallo dei valori
possibili al crescere dell’entropia. Dato che H e α sono entrambi invarianti rispetto al tipo di basi di
polarizzazione utilizzate, il piano H/α fornisce una rappresentazione utile dell’informazione
contenuta nella matrice di coerenza.
Fig. 6.51 - Il piano H/α mostrante le classi basate sul modello e la loro suddivisione. Una descrizione delle classi
mostrate (Z1-Z9) è data nel testo.
I contorni mostrati in Fig. 6.51 (Curva I e Curva II) mostrano che quando l’entropia è alta, la
capacità di classificare differenti meccanismi di diffusione è davvero limitata. Claude e Pottier
hanno suggerito una suddivisione iniziale in nove classi (di cui solo otto utilizzabili); queste classi
sono scelte sulla base di proprietà generali del meccanismo di diffusione e non dipendono da un
particolare insieme di dati. Questo permette di effettuare una classificazione non supervisionata
basata sulle proprietà fisiche del segnale. L’interpretazione delle classi suggerite da Cloude e Pottier
è la seguente:
- Classe Z1: Diffusione a doppio rimbalzo in un ambiente di alta entropia;
- Classe Z2: Diffusione multipla in ambiente di alta entropia (chiome degli alberi nelle
foreste);
- Classe Z3: Diffusione superficiale in ambiente di alta entropia (regione non utilizzabile nello
spazio H/α)
- Classe Z4: Diffusione multipla a media entropia;
- Classe Z5: Diffusione da vegetazione a media entropia;
- Classe Z6: Diffusione da superficie a media entropia;
- Classe Z7: Diffusione multipla ad entropia molto bassa (diffusione doppia o a rimbalzo
dispari);
144
- Classe Z8: Diffusione da dipolo a bassa entropia (meccanismi fortemente correlati con una
grande sbilanciamento in ampiezza tra HH e VV);
- Classe Z9: Diffusione superficiale a bassa entropia (diffusione di Bragg e da superfici
rugose).
È importante notare comunque che i contorni sono in qualche modo arbitari e dipedono dalla
calibrazione del radar, dalle misure di rumore al suolo e dalla varianza dei parametri stimati.
Nondimeno, questo metodo di classificazione è legato alle proprietà fisiche di diffusione, il che lo
rende indipendente dagli insiemi di dati usati per l’addestramento. Il numero di classi necessarie
così come la praticabilità del metodo dipendono dall’applicazione.
La terza variabile è l’anisotropia polarimetrica, che è stata usata per distinguere tipi differenti di
diffusione superficiale. La rappresentazione nel piano H/A per la diffusione superficiale è data in
Fig. 6.52, in cui la zona ombreggiata non è utilizzabile. La linea che demarca la regione utilizzabile
può essere calcolata attraverso la matrice di coerenza diagonale formata dagli autovalori più piccoli
λ2 e λ3 , con λ3 che varia da 0 a λ2 .
Fig. 6.52 - Tipi di diffusione superficiale nel piano Entropia/Anisotropia
L’introduzione dell’anisotropia nell’insieme delle caratteristiche mette a disposizione un terzo
parametro nell’operazione di classificazione. Un approccio è quello di dividere semplicemente lo
spazio in due piani H/α usando il piano verde mostrato nello spazio 3-D di Fig. 6.53, un lato per
A ≤ 0,5 e l’altro lato per A > 0,5 . Questo introduce 16 classi se i piani vengono divisi in accordo
con la Fig. 6.51. Si noti come il limite superiore di H sia operante quando A > 0, come mostrato in
Fig. 6.52.
Lo spazio di classificazione H/A/α, dato in Fig. 6.53, fornisce ora una capacità aggiuntiva di
distinguere tra diversi meccanismi di diffusione. Per esempio, alta entropia e bassa anisotropia
( λ 2 ≅ λ3 ) corrispondono a diffusione casuale mentre alta entropia e alta anisotropia ( λ 2 >> λ3 )
indicano l’esistenza di due meccanismi di diffusione con la stessa probabilità.
145
Fig. 6.53 - : Illustrazione di come un piano A = 0.5 (in verde) crea 16 classi a partire dalle 8 classi originali H/α
mostrate in Fig. 6.46. Questo dà 16 regioni nello spazio Entropia/Anisotropia/α da utilizzare nel classificatore non
supervisionato.
La stima dei tre parametri H, A e α permette di ottenere una classificazione della scena in base al
tipo di processo di diffusione all’interno del campione (H, A) e il corrispondente meccanismo di
diffusione fisica (α). I dati hanno bisogno di essere mediati per permettere una stima di H, A e α (se
non si effettua l’operazione di media, la matrice di coerenza ha rango 1); questo passo di
elaborazione ha il merito di ridurre il rumore speckle.
La figura 6.54.a mostra un esempio di raggruppamento di pixel da una scena SIR-C rappresentante
del ghiaccio marino. Il piano H/A mostra la possibilità di raggruppare i pixel in due o
eventualmente tre classi. La figura 6.54.b mostra la distribuzione dei valori di H/α per un campo di
Picea Albertiana Conica (“white spruce”, una specie di conifera); l’obiettivo mostra una diffusione
da dipolo dominante (α è circa 45° ), con un alto valore di entropia di circa 0,8, che indica una
diffusione abbastanza eterogenea.
(a)
(b)
Fig. 6.54 - : Diagrammi di diffusione che mostrano la distribuzione del ghiaccio in dati SIR-C sullo spazio di
classificazione H/A/α.
146
Fig. 6.55 - : Diagrammi di diffusione che mostrano la distribuzione del ghiaccio in dati SIR-C sullo spazio di
classificazione H/A/α.
6.15.6.2 La classificazione supervisionata basata sul criterio a Massima Verosimiglianza di Bayes
Un’alternativa a quanto visto finora è quella di definire le classi a partire dalle statistiche
dell’immagine stessa. Le classi vengono definite da un operatore, che sceglie delle aree
rappresentative della scena per definire i valori medi dei parametri per ogni classe individuabile (di
conseguenza è un metodo supervisionato). Un approccio probabilistico è utile quando i dati
vengono generati in presenza di una consistente quantità di rumore. La conoscenza delle statistiche
dei dati (come ad esempio la distribuzione statistica teorica) permette l’uso dell’approccio di
classificazione a massima verosimiglianza di Bayes, che è ottima nel senso che, in media, il suo
utilizzo produce la probabilità più bassa di errata classificazione. Dopo che sono state definite le
statistiche delle classi, i campioni dell’immagine vengono classificati in base alla loro distanza dalle
medie delle classi. Ogni campione viene assegnato alla classe da cui esso ha la minima distanza. La
distanza stessa viene scalata in accordo con la regola di massima verosimiglianza di Bayes.
La classificazione di Bayes per dati SAR polarimetrici è stata presentata per la prima volta nel
1988, nell’articolo di J.A. Kong, A. A. Swartz, H. A. Yueh, L. M. Novak, R. T. Shin “Identification
of terrain cover using the optimal polarimetric classifier”, J. Electromagnetic Waves and
Applications. Gli autori hanno mostrato che l’uso di dati completamente polarimetrici fornisce dei
risultati di classificazione ottima. L’algoritmo è stato sviluppato solo per dati polarimetrici singlelook. In molte applicazioni del telerilevamento radar i dati vengono sottosposti ad una operazione di
multi-look per ridurre gli effetti del rumore speckle. Il numero di look è un parametro importante
per lo sviluppo di un modello probabilistico. L’ informazione completamente polarimetrica è
presente nella matrice di diffusione S, nella matrice di covarianza C, così come nella matrice di
coerenza T. È stato dimostrato che T e C sono entrambe distribuite seguendo la distribuzione di
Wishart. La funzione densità di probabilità (pdf) dei campioni mediati di T per un dato numero di
look, n, è:
pT
( n)
(< T >) =
n qn < T >
n−q
e {− nTraccia (V
K (n, q )V
−1
<T >
)}
n
dove:
- <T> è la media del campione della matrice di coerenza su n look;
- q rappresenta la dimensionalità del dato (3 nel caso di reciprocità, altrimenti 4);
147
(6.110)
- la traccia è la somma degli elementi lungo la diagonale di una matrice;
- V è il valore atteso della matrice di coerenza mediata, E{< T >}, e
- K(n,q) è un fattore di normalizzazione.
Per determinare i valori delle statistiche da fornire al classificatore, bisogna calcolare il valore
medio della matrice di coerenza per ogni classe Vm :
Vm = E{< T >|< T >∈ ω m }
(6.111)
dove ω m è l’insieme dei pixel appartenenti alla classe m dell’insieme di addestramento.
In base alla classificazione a massima verosimiglianza di Bayes è possibile ottenere una misura di
distanza d:
(
(
d (< T >, Vm ) = n ln Vm + Traccia Vm
−1
))
< T > − ln (P(ω m ))
(6.112)
in cui l’ultimo termine tiene conto delle probabilità a priori P(ω m ) . Aumentando il numero di look
n decresce il contributo della probabilità a priori. Inoltre, se non è disponibile alcun tipo di
informazione a priori per una data scena, si può assumere allora che la probabilità a priori sia uguale
per tutte le classi. Una misura appropriata della distanza è data da:
(
d (< T >, Vm ) = ln Vm + Traccia Vm
−1
<T >
)
(6.113)
che porta ad avere un classificatore a minima distanza indipendente dai look:
d (< T >, Vm ) ≤ d (< T >, V j ) per tutti ω j ≠ ω m
(6.114)
Applicando questa regola, un campione dell’immagine viene assegnato ad una certa classe se la
distanza tra il valori del parametro in quel campione e la media della classe è minima.
L’indipendenza dai look di questo schema permette di applicarlo a dati sottoposti a operazioni di
multi-look cosi come a dati sottoposti a filtri anti-speckle. Questo schema di classificazione può
inoltre essere generalizzato per dati completamente polarizzati in multi-frequenza, se le frequenze
sono sufficientemente separate da assicurare indipendenza statistica tra le bande di frequenza.
La classificazione dipende dall’insieme di addestramento e di conseguenza questo metodo deve
essere applicato sotto supervisione. Tale metodo non è basato sulla fisica dei meccanismi di
diffusione, il che potrebbe essere considerato uno svantaggio. D’altro canto, però, esso utilizza
l’informazione polarimetrica piena e permette di ottenere una classificazione dell’immagine che sia
indipendente dai look, e questo costituisce indubbiamente un vantaggio.
6.15.6.3 Un algoritmo di classificazione combinato
I metodi visti in precedenza hanno entrambi dei limiti. Per quanto riguarda la classificazione H/A/α
si può dire che le soglie sono in qualche modo arbitrarie e che non è possibile utilizzare tutta
l’informazione polarimetrica, a causa dell’incapacità di determinare tutti e quattro gli angoli che
parametrizzano gli autovalori. Il metodo di Bayes invece dipende dall’insieme di addestramento o
dalla suddivisione iniziale dei dati. Ognuno dei due algoritmi è in grado di superare le difficoltà
incontrate dall’altro, di conseguenza diventa interessante la possibilità di combinare insieme i due
algoritmi. Applicando prima il classificatore non supervisionato H/A/α per stabilire le 16 classi
iniziali, e successivamente il classificatore a minima distanza basato sulla distribuzione dei
parametri raggruppati, si ottiene una classificazione migliorata rispetto a quelle ottenute applicando
singolarmente uno dei due classificatori. La distribuzione può essere presa da quella complessa di
Wishart, e per ottimizzare i contorni di separazione tra le classi si possono usare le iterazioni.
148
Fig. 6.56 - Classificatore combinato Entropia/Anisotropia/α-minima distanza.
Questo algoritmo combinato può essere considerato come non supervisionato, in quanto la
classificazione iniziale è di tipo non supervisionato. Comunque, dato che le iterazioni migliorano le
medie e i contorni dei raggruppamenti, le classi finali dovrebbero essere esaminate e ad esse
dovrebbero essere assegnate delle etichette basate su un’interpretazione fisica. Si noti che mentre la
ripartizione iniziale viene effettuata nel dominio H/A/α, la classificazione a minima distanza viene
realizzata usando direttamente la matrice di coerenza. Dopo la classificazione di Bayes, i
raggruppamenti possono sovrapporsi nel dominio H/A/α. Il classificatore risulta allora dipendere
dal numero e dalla diversità delle classe di ingresso al classificatore di Bayes, di conseguenza è utile
effettuare delle sperimentazioni con classi iniziali differenti.
Un esempio dei risultati della classificazione combinata è mostrata in Fig. 6.57. Da un’immagine
SIR-C dell’Aprile 1994 relativa alla zona ad ovest del Newfoundland in Canada sono stati estratti
quattro tipi di ghiaccio, tre classi di acqua e quattro classi di terreno. Il livello di dettaglio dei tipi di
ghiaccio estratti è un’indicazione della potenza della classificazione computerizzata dei dati radar
polarimetrici.
Gli algoritmi di classificazione possono includere un algoritmo di segmentazione in cui pixel vicini
con caratteristiche comuni vengono raggruppati insieme prima dell’assegnamento alle varie classi.
Se fatta in maniera appropriata, la segmentazione può migliorare in maniera significativa i risultati
di classificazione.
149
Fig. 6.57 - Classificazione di tipi di terreno, di oceani e ghiaccio in una scena SIR-C acquisita in banda C relativa alla
zona ovest della Newfoundland.
6.15.7 Le applicazioni della polarimetria SAR
A parte la missione SIR-C, la polarimetria radar è stata limitata ad un numero esiguo di sistemi
sperimentali montati su aereo. Di conseguenza gli insiemi di dati disponibili per l’analisi sono
limitati e quelli con sufficienti dati di realtà a terra da giustificare gli sforzi di ricerca sono ancora
più rari. Gli specialisti del settore hanno studiato un certo numero di applicazioni geoscientifiche e
hanno ottenuto risultati promettenti, soprattutto per la classificazione del terreno. Il numero di
questi insiemi di dati da aereo disponibili per la distribuzione e l’analisi sta aumentando ed Envisat,
con le sue capacità di multi-polarizzazione, sta fornendo ulteriori nuovi dati per l’analisi. Radarsat-2
con la sua multi-polarizzazione e i suoi modi polarimetrici fornirà altri dati nel prossimo futuro così
come altri sistemi satellitari in corso di progettazione. Di conseguenza il futuro per lo sviluppo delle
applicazioni polarimetriche appare promettente.
Per alcune applicazioni la disponibilità di dati multi-polarizzazione può essere sufficiente per
risolvere alcuni problemi, come ad esempio quello della discriminazione dell’acqua dal terreno e
dal ghiaccio per applicazioni di mappatura. In altri casi, per produrre i parametri polarimetrici sarà
necessario l’uso delle piene capacità polarimetriche. Attualmente si è solo all’inizio del processo di
comprensione della polarimetria SAR per applicazioni di scienze della terra e ci si aspetta che i
risultati delle ricerche in corso aumenteranno la nostra conoscenza sui dati SAR polarimetrici e di
conseguenza il loro utilizzo. Nel prosieguo vedremo alcuni esempi di utilizzo di dati multipolarizzazione e della polarimetria per applicazioni SAR. Il materiale selezionato è stato scelto da
lavori pubblicati (di cui verranno fornite indicazioni relative agli autori; nel caso in cui il
150
riferimento manchi del tutto o sia incompleto, ciò sarà dovuto a mancanza dello stesso nella fonte
utilizzata).
6.15.7.1 Applicazioni in agricoltura
6.15.7.1.1 Introduzione
L’uso delle immagini SAR per applicazioni in agricoltura è stato studiato in maniera estensiva
soprattutto grazie al fatto che è possibile acquisire dati in tempi diversi durante la stagione di
crescita. Per sopperire al fatto che gli strumenti radar acquisiscono dati su una sola frequenza, o
raramente su due-tre sole frequenze differenti, è possibile ricorrere ad una serie multitemporale di
osservazioni SAR. Dal momento che le coltivazioni crescono e maturano, le caratteristiche di
retrodiffusione cambiano e queste variazioni, che dipendono dal tipo di coltura, possono essere
utilizzate proprio per distinguere i tipi di coltivazione.
La retrodiffusione da bersagli agricoli è composta dalla diffusione superficiale proveniente dal
terreno, dalla diffusione volumetrica proveniente dalle piante, e da un termine causato
dall’interazione tra il suolo e la vegetazione. Il contributo relativo di ciascuna componente è
funzione dei parametri del sistema e del bersaglio. In generale in banda C il ritorno è costituito da
una combinazione di queste componenti con il termine di superficie che risulta dominante all’inizio
della ststagione di crescita e il termine volumetrico che risulta invece dominante al culmine della
stagione di crescita. Alla fine della stagione della crescita in genere è presente un misto dei ritorni
dalle diverse componenti, con i termini di superficie e di interazione tra suolo e vegetazione che
diventano dominanti. Questo rende difficile l’estrazione di informazione in quanto il suolo o la
coltura possono essere il bersaglio di interesse e le altre componenti producono “rumore” che
aggiunge un errore significativo al processo di stima. Di nuovo, l’uso di osservazioni
multitemporali può essere di aiuto, ma le difficoltà persistono.
Ricerche recenti hanno dimostrato che l’informazione aggiuntiva nei dati polarimetrici (sia di
ampiezza che di fase) può aiutare ad aumentare il contenuto informativo per applicazioni in
agricoltura diminuendo la necessità di avere dati multitemporali.
Nel seguito vedremo due esempi di questo tipo di lavoro:
- La salvaguardia del suolo: la coltivazione del suolo e il residuo di vegetazione.
- La produttività delle colture/variazione all’interno di un campo.
6.15.7.1.2 La salvaguardia del suolo: la coltivazione del suolo e il residuo di vegetazione
La salvaguardia del suolo è uno dei principali problemi che si incontrano in agricoltura. Le pratiche
di coltivazione hanno un impatto diretto sull’erosione da acqua e vento, e sulla qualità del suolo,
soprattutto dal momento che quest’ultima ha a che fare con il mantenimento della materia organica
del terreno. L’abilità di monitorare il tipo di coltivazione, e la quantità di residui, è importante per la
salvaguardia del terreno. La coltivazione influisce sulla rugosità della superficie e sulla quantità di
residuo. A causa della sensibilità della retrodiffusione radar alle caratteristiche del campo che
includono la rugosità della superficie, i dati polarimetrici possono risultare molto utili per il
monitoraggio delle coltivazioni del suolo e del residuo di coltivazione. Per effettuare la
discriminazione tra coltivazione del terreno/residuo sono utili alcuni parametri polarimetrici come
le firme di co-polarizzazione e la differenza di fase di co-polarizzazione.
Le firme di polarizzazione possono essere usate per dare una rappresentazione grafica delle
caratteristiche di retrodiffusione e per distinguere le caratteristiche del bersaglio. In questo esempio
ciò viene mostrato in relazione alle variazioni di coltivazione e di copertura residua. Uno studio
realizzato da McNairn ed altri ha fornito i diagrammi di polarizzazione a partire da immagini SIR-C
per campi con coltivazioni diverse e diverse quantità e tipologie di residui.
A. Campo coltivato con residuo piccolo o assente
I seguenti diagrammi di co-polarizzazione sono stati ottenuti a partire da dati in banda C (Fig.
6.58) e banda L (Fig. 6.59) per campi coltivati con quantità e tipi di residui diversi. Gli angoli di
incidenza erano approssimativamente tra 42 e 50 gradi.
151
Fig. 6.58 - Firme di co-polarizzazione in banda C, per campi coltivati con piccoli residui o residui assenti; fig.A:
residuo di piselli (25% di copertura residua); fig.B: residuo di lenticchie (25% di copertura residua); fig.C: residuo
di canola (40% di copertura residua); fig D: residuo di grano/orzo (20% di copertura residua); fig E: residuo di
girasoli (40% di copertura residua).
I campi più lisci, quelli con i residui migliori hanno un massimo di risposta in polarizzazione
VV (angolo di orientazione di 90°). La retrodiffusione è approssimativamente uguale in tutte le
polarizzazioni lineari per i campi residui di canola (una varietà di colza), grano/orzo e girasoli,
suggerendo dunque che tali campi appaiono più rugosi.
Nell’esempio relativo ai dati in banda L, i campi che sono stati coltivati o che hanno una
copertura di residuo migliore mostrano risposte tipiche della retrodiffusione superficiale. Per
questi bersagli, la risposta massima è ad un angolo di orientazione di 90° e il bersaglio appare
liscio relativamente alla lunghezza d’onda. Per questi campi, le piccole altezze (0,18-0,24)
indicano depolarizzazione minima, il che conferma che la diffusione superficiale è il contributo
dominante. Queste superfici non sono rugose abbastanza e non hanno materiale vegetativo
sufficiente da causare una diffusione multipla o volumetrica significativa. La differenza tra la
diffusione VV e HH è più pronunciata in banda L che in banda C, dal momento che a questa
lunghezza d’onda più lunga queste superfici appaiono più lisce.
B. Campi con diffusione multipla ma senza residui di coltivazione
I diagrammi di co-polarizzazione seguenti sono stati ottenuti da immagini in banda C e banda L
per campi non coltivati con diversi tipi e quantità di residuo. I diagrammi per la banda C
riportati in figura, ad eccezione della Fig. 6.59a, mostrano una forma tipica di diffusione a
doppio rimbalzo. L’altezza della base in questi diagrammi di co-polarizzazione è più grande e
indica che in questo caso si verifica una depolarizzazione maggiore nei campi non coltivati se
confrontati con i campi coltivati con una copertura di residuo bassa. Il campo residuo di piselli
(Fig. 6.59a) mostra una risposta simile a quella del campo con residuo di piselli che è stato
coltivato (Fig. 6.58a). Un confronto tra le due figure suggerisce che dei residui molto buoni
hanno un effetto davvero trascurabile sulla risposta radar dal momento che questo bersaglio
appare liscio in banda C.
..
Fig. 6.59 - Firme di co-polarizzazione in banda C, per campi non coltivati diffusione multipla; (A): residuo di
piselli; (B): residuo di lenticchie; (C): residuo di canola; (D): residuo di grano/orzo; (E): residuo di girasoli.
I diagrammi di co-polarizzazione per le immagini in banda L sono significativamente differenti
se confrontati con quelli in banda C. In banda C la diffusione a doppio rimbalzo è
sostanzialmente ridotta con un picco in VV spesso presente, che indica una diffusione
superficiale significativa per i residui di grano/orzo e girasoli.
La differenza di fase di co-polarizzazione (PPD)
La differenza di fase di co-polarizzazione è un parametro polarimetrico che può essere utile per
caratterizzare i meccanismi di retrodiffusione. Per esempio, un diffusore a singolo rimbalzo (o a
rimbalzi dispari) avrà una fase relativa tra HH eVV di 0° nella convenzione FSA. Per un diffusore a
152
doppio rimbalzo (o a rimbalzi pari) la differenza di fase sarà 180°. Se la convenzione delle basi
viene cambiata da FSA in BSA allora si verifica un ulteriore cambio di segno, che aggiunge 180°
alla differenza di fase. Ad esempio, i terreni nudi sono diffusori superficiali, e generalmente hanno
una differenza di co-polarizzazione media pari a 0° con una piccola deviazione standard.
Ulaby ed altri hanno suggerito che la maggior parte del contenuto informativo fornito dalle
differenze di fase di co-polarizzazione sia contenuto nella distribuzione di queste differenze
(espresse dalla deviazione standard), cioè un campo arato rugoso ha una distribuzione di fase che è
ampia confrontata con quella di un campo più liscio.
Come mostrato nello studio condotto da McNairn ed altri, si è visto che la differenza di copolarizzazione media è vicina a 0 per molti campi con residuo e di conseguenza fornisce poca
informazione utile. Le coltivazioni ritte in senescenza hanno mostrato differenze di fase
significativamente maggiori di 0° con le differenze di fase medie che variano tra i campi in cui si
crede avvenga diffusione multipla. In termini di pratiche di coltivazioni, le differenze di fase medie
per i campi non potrebbero essere utilizzate per distinguere tra la presenza e l’assenza di
coltivazioni e di tipi di residui, benché siano state trovate delle differenze tra le colture in
senescenza ed i campi mietuti. Per esempio i campi di grano ritto ed in senescenza e quelli di
girasoli tendono ad avere una differenza di fase media più alta che varia tra -30° e -130° per la
banda C e tra -30° e -90° in banda L. I dati di distribuzione di fase basati sul campo possono essere
usati per differenziare i campi coltivati con bassi residui dai campi non coltivati (con residui alti).
La deviazione standard delle differenze di fase per i campi con bassa copertura di residuo era
minore di 30°; la deviazione standard per campi non coltivati superava i 45°. Questi risultati sono
consistenti con quelli riportati da Ulaby ed altri. Una figura di esempio che mostra la distribuzione
dei campi con varie differenze di fase medie è data in Fig. 6.60.
Fig. 6.60 - La distribuzione di fase co-polarizzata basata su campi in banda C varia come funzione delle caratteristiche
dei residui.
6.15.7.1.3 La produttività delle colture/variazione all’interno di un campo
La produttività delle coltivazioni dipende da numerosi fattori comprese le caratteristiche del terreno,
le variabili climatiche e le pratiche di gestione delle colture stesse. La biomassa delle colture, l’area
delle foglie verdi e la durata delle foglie verdi sono indicatori della condizione della coltura. Il
grado fino a cui la biomassa e l’indice di area della foglia (Leaf Area Index LAI) possono
effettivamente essere monitorati utilizzando immagini a microonde sono un’area di ricerca che sta
andando avanti. La sensibilità dei dati SAR alla situazione ed alle condizioni della coltura è
funzione sia dei parametri di acquisizione come la lunghezza d’onda, gli angoli di incidenza e la
polarizzazione, sia dei parametri come il tipo di coltivazione e lo stato fenologico (cioè la
dimensione, la distribuzione, l’orientazione e le proprietà dielettriche della parti che costituiscono le
chiome).
153
Nel prosieguo vengono presentati due esempi dell’uso dei dati polarimetrici per il monitoraggio
delle condizioni delle colture per i dati polarimetrici (dal lavoro di McNairn).
1. l’uso delle immagini a polarizzazioni multiple per separare regoni in un campo con
variazioni nelle condizioni delle colture.
2. l’abilità di distinguere i meccanismi di diffusione associati a zone caratterizzate da
condizioni variabili delle colture utilizzando l’algoritmo H/A/α sviluppato da Cloude e
Pottier.
Variazione all’interno di un campo relativa alla polarizzazione
L’abilità di determinare le variazioni all’interno di un campo viene mostrato utilizzando dati
polarimetrici C-SAR acquisiti sull’Ontario meridionale il 30 giugno 1999 come descritto da
McNairn ed altri. Le combinazioni di polarizzazione esaminate includono le quattro polarizzazioni
lineari di trasmissione e ricezione (HH, VV, HV e VH) cosi come le due polarizzazioni circolari di
trasmissione e ricezione (RR e LR).
Per illustrare la mappatura delle variazioni all’interno di un campo utilizziamo un campo di winter
wheat, un cereale che viene piantato da settembre a dicembre e raccolto in primavera (Fig.6.61a).
Una semplice immagine RGB (R = VV, G = HV, B = HH) mostra le regioni di bassa
retrodiffusione. I dati di monitoraggio del raccolto ottenuti seguendo due settimane di osservazioni
SAR hanno mostrato che queste aree di bassa retrodiffusione corrispondevano a raccolti con minore
resa (misurata in bushel per acro o BPA).
Fig. 6.61 - (a): Immagine in banda C di un campo di winter wheat (R = VV, G = HV, B = HH); (b): dati del
monitoraggio dei raccolti classificati, bushels per acro; (c) dati classificati SAR che distinguono tra zone ad alto e basso
raccolto (Noetix Research Inc., 2001).
Si può notare che le immagini in banda C in polarizzazione HH non possono essere utilizzate da
sole per separare zone di diversa produttività (Fig. 6.62). Le immagini che hanno mostrato il
contrasto migliore tra zone ad alta e bassa produttività sono quelle in cross-polarizzazione lineare
(HV) (4,1 dB), seguite dalle immagini in polarizzazione VV, RR ed LR con differenze di circa 2
dB.
154
Fig. 6.62 - (a): Retrodiffusione alle polarizzazioni lineare e circolare per zone di produzione più alta e più bassa di un
campo di winter wheat.
Le aree di raccolto scarso all’interno del campo di grano, identificate utilizzando le tre
polarizzazioni lineari, concordano in maniera ragionevole (77%) con le aree di basso raccolto
identificate dai dati di monitoraggio dei raccolti.
Fig. 6.63 - (a): Percentuale di accordo tra la classificazione SAR e i dati di monitoraggio dei raccolti; A indica l’area di
accordo per il raccolto più alto (77%); B indica l’area di accordo per il raccolto più basso (77%) mentre C indica
l’errore (omissione/inclusione) del 23%.
6.15.7.2 Applicazioni al ghiaccio marino
6.15.7.2.1 Introduzione
Le immagini SAR sono ben adatte per la mappatura del ghiaccio marino e per applicazioni di
monitoraggio. Questa caratteristica delle immagini SAR è stata di notevole spinta per lo sviluppo
della missione RADARSAT-1, che viene utilizzata dal Canada cosi come da molti altri paesi per la
mappatura ed il monitoraggio del ghiaccio marino.
Va detto però che i dati SAR a singolo canale come quelli acquisiti da RADARSAT-1 hanno
capacità limitate nel monitoraggio del ghiaccio marino, soprattutto in condizioni diverse da quelle
che si hanno durante l’inverno e nelle zone ghiacciate marginali. Le difficoltà di interpretazione e di
analisi includono ambiguità tra acqua e ghiaccio ad angoli di incidenza bassi e/o in condizioni di
vento spinto, confusione tra acqua e ghiaccio sottile, mascheratura delle firme del ghiaccio in
condizioni di umidità (primavera) e l’identificazine del tipo di ghiaccio. Le sezioni successive
illustrano come i SAR polarimetrici possono fornire delle informazioni addizionali per far fronte a
queste difficoltà di interpretazione e di analisi.
155
6.15.7.2.2 Analisi polarimetriche per il ghiaccio marino
I dati SAR polarimetrici possono essere utilizzati per creare una varietà di prodotti di output che
comprendono immagini di intensità multipolarizzazione, cosi come i parametri polarimetrici. Le
immagini acquisite con le varie combinazioni di polarizzazione in trasmissione e ricezione possono
essere mostrate sui singoli canali o in varie combinazioni che includono i rapporti e la
composizione in falsi colori. La Fig. 6.64 mostra immagini acquisite in ognuna delle tre
polarizzazioni lineari come immagini di intensità a singolo canale e combinate poi in un’immagine
composita in falsi colori. L’area osservata è il Mare del Labrador vicino alla costa del
Newfoundland con ghiaccio e mare aperto.
Fig. 6.64 - Immagini acquisite in banda C dal sensore SIR-C e visualizzate come immagini di intensità in falsi colori
compositi e a singolo canale per una regione del Mare del Labrador vicino alla costa del Newfoundland interessata dal
ghiaccio. I dati sono stati acquisiti il 18 aprile 1994 con angoli di incidenza che vanno dai 26 ai 31 gradi.
I dati complessi possono inoltre essere utilizzati per generare le firme polarimetriche così come i
parametri polarimetrici che possono essere utilizzati per essere di aiuto nell’interpretazione e nella
comprensione dei meccanismi di diffusione. Inoltre è possibile generare dei discriminanti
polarimetrici che possono essere usati per scopi di classificazione.
6.15.7.2.3 Ambiguità tra ghiaccio e acqua
Ad elevati angoli di incidenza, soprattutto in condizioni di forte vento, può succedere che si
verifichi della confusione tra il mare aperto e il ghiaccio marino in immagini acquisite da radar SAR
a singolo canale come RADARSAT-1 o ERS-1/2. Le immagini da SAR multipolarizzazione
possono essere utilizzate per ridurre notevolmente questa confusione in due modi diversi:
- grazie alla minima retrodiffusione proveniente dall’acqua nei canali di cross-polarizzazione
(HV o VH), le immagini acquisite a queste polarizzazioni possono essere utilizzate per
migliorare la discriminazione tra le classi acqua/ghiaccio/terreno.
- Il terreno e fino ad un certo punto anche il ghiaccio sperimentano la diffusione volumetrica
dando origine ad un ritorno cross-polarizzato.
La Fig. 6.65 illustra ciò per la stessa area del Mare del Labrador mostrato in Fig. 6.64.
156
Fig. 6.65 - Immagini a singolo canale acquisite in banda C dal sensore SIR-C relative al Mare del Labrador. Nel canale
HV si nota il forte contrasto aumentato sul contorno tra il primo ghiaccio dell’anno e l’acqua, contrasto dovuto alla
mancanza della diffusione multipla dalla superficie dell’acqua.
La Fig. 6.66 dimostra come il rapporto HH/VV può essere usato per ottenere risultati simili in
quanto le diverse caratteristiche di diffusione dei due bersagli in polarizzazioni HH VV possono
essere utilizzati per migliorare il contrasto in confronto ad ogni singolo canale.
Fig. 6.66 - Rapporti tra le immagini del Mare Labrador acquisite dal sensore SIR-C mostranti i vantaggi del rapporto tra
i canali di co-polarizzazione per migliorare il contrasto del contorno tra il ghiaccio e l’acqua.
Le tecniche di decomposizione polarimetrica possono essere usate per generare i discriminatori
polarimetrici che possono a loro volta essere utilizzati per aiutare l’interpretazione o per migliorare
157
la classificazione. Le figure sotto riportate mostrano esempi di contrasto tra acqua e ghiaccio che è
visibile nelle immagini in bande C ed L con miglioramenti particolarmente visibili nell’uso
dell’anisotropia in banda C e dell’entropia in banda L.
Fig. 6.67 - Immagini di Entropia (H), Anisotropia (A), e Angolo alfa (α) in banda C per il Mare Labrador che migliora
il contrasto tra ghiaccio e acqua utilizzando il parametro di anisotropia.
Fig. 6.68 - Immagini di Entropia (H), Anisotropia (A), e Angolo alfa (α) in banda L per il Mare Labrador che migliora
il contrasto tra ghiaccio e acqua utilizzando il parametro di entropia.
6.15.7.2.4 Strutture e tipi di ghiaccio
Le firme di polarizzazione generate dalla matrice di diffusione possono essere utilizzate per
interpretare le proprietà di diffusione del bersaglio aiutando quindi a comprendere la rugosità, la
dipendenza dalla polarizzazione e i meccanismi di diffusione per quel tipo di ghiaccio. La figura
158
sottostante mostra le firme di co-polarizzazione in banda C per il primo ghiaccio dell’anno con una
copertura di neve variabile e per il ghiaccio giovane e rugoso.
Fig. 6.69 - Firme di co-polarizzazione in banda C per : (a) ghiaccio giovane e rugoso; (b) ghiaccio liscio con diverse
proprietà di copertura di neve.
L’uso delle firme di polarizzazione per l’interpretazione dei tipi di ghiaccio può anche essere
dimostrato confrontando le firme di tipi di ghiaccio diversi, ossia nuovo, grigio, grigio rugoso, e
desalinizzato che rappresentano una serie temporale in termini di evoluzione e sviluppo. La figura
sottostante mostra queste firme di polarizzazione e dimostra la migrazione della risposta di picco da
HH a VV che è legata alla riduzione della costante dielettrica della superficie del ghiaccio su questo
periodo di tempo. Si può notare che la risposta di polarizzazione cambia ancora una volta verso un
picco HH dato che il ghiaccio evolve ulteriormente, diventa più rugoso e desalinizzato.
Fig. 6.70 - Firme di co-polarizzazione in banda C per diversi tipi di ghiaccio: nuovo, grigio, grigio rugoso e
desalinizzato ottenute da misurazioni fatte con un diffusimetro. Si noti il cambio del picco nella risposta di
polarizzazione man mano che il ghiaccio passa da ghiaccio nuovo a desalinizzato.
6.15.7.2.5 La classificazione del ghiaccio marino
L’abilità di effettuare una classificazione robusta e non ambigua del tipi di ghiaccio è critica per
applicazioni operative ed è una delle limitazioni dei SAR a singolo canale. I SAR polarimetrici
offrono potenzialmente una accuratezza di classificazione migliorata grazie all’aumentato contenuto
informativo delle polarizzazioni addidizionali e dei dati di fase. Le metodologie di classificazione
del ghiaccio marino per i SAR polarimetrici sono attualmente in via di sviluppo e i risultati stanno
mostrando una separabilità migliorata con la risposta polarimetrica sia in banda C che in banda L.
La Fig. 6.71 mostra i dati in banda C acquisiti dal sensore CV 580 nel marzo 2001 sull’isola Prince
159
Edward, in Canada. È stato trovato che mentre i dati in multipolarizzazione forniscono una migliore
separabilità delle classi rispetto ai dati a singola polarizzazione, i dati completamente polarimetrici
forniscono informazione sufficiente per dare una classificazione valida dei tipi di ghiaccio.
Fig. 6.71 - Immagine classificata della costa nord di Prince Edward Island, (Canada) utilizzando dati SAR polarimetrici
acquisiti da CV-580 ottenuta attraverso l’impiego di un classificatore complesso Wishart con 8 classi iniziali e 12
iterazioni.
Colore
blu
rosso
magenta
cyan
bianco
verde
verde scuro
nero
grigio
Descrizione
Ghiaccio liscio sottile
Ghiaccio con superficie rugosa
RYI rugoso
FYI rugoso, più sottile
FYI/terreno rugoso, più sottile
terreno
terreno
terreno
Classi non usate per il confronto dei
diagrammi di diffusione (bianco, verde
scuro e nero).
Tabella 6.6 – Descrizione delle classi utilizzate nella classificazione riportata in Fig. 6.72
Per illustrare il contenuto extra di informazione dei dati polarimetrici si è utilizzata la
decomposizione polarimetrica. La figura sottostante mostra l’entropia (H), l’anisotropia (A) e
l’angolo alfa (α) per questi dati. L’immagine in basso mostra il terreno, mentre il fast ice10 è messo
in evidenza nell’immagine centrale e il ghiaccio rugoso nell’immagine in alto. Il ghiaccio liscio
mostra l’entropia più bassa a causa della diffusione omogenea mentre il terreno ha l’entropia più
alta. L’anisotropia è più bassa per il terreno e più alta per il ghiaccio fornendo il miglior contrasto
tra ghiaccio e terreno e tra tipi di ghiaccio. L’angolo α è basso per il ghiaccio liscio, che insieme
all’entropia bassa dimostra che la diffusione superficiale domina. Per ghiaccio più rugoso sia
l’angolo α sia l’entropia sono più alti, come dimostrato nel canale di cross-polarizzazione, il che
indica che si sta verificando più diffusione volumetrica.
10
Ghiaccio ancorato alla terra e che non si muove lateralmente, mentre può subire dei movimenti verticali dovuti alle
maree.
160
Fig. 6.72 - Entropia (H), Anisotropia (A) e angolo alfa (α) per immagini acquisite in banda C nel Marzo 2001, con il
sensore CV-590 dell’area della costa Nord di Pei. L’immagine in basso mostra il terreno, mentre il fast ice è messo in
evidenza nell’immagine centrale e il ghiaccio rugoso nell’immagine in alto.
L’utilizzo di sensori SAR completamente polarimetrici in multifrequenza come il sensore AIRSAR
del JPL è appetibile a causa delle frequenze addizionali che permettono di estrarre ulteriori
informazioni sul bersaglio. Per esempio le caratteristiche di penetrazione variabili permettono
un’ulteriore separabilità tra i tipi di ghiacci specialmente tra tipi di ghiaccio vecchi di molti anni e
tipi di ghiaccio recenti. Ciò può essere illustrato con l’uso di tecniche di decomposizione
polarimetrica per distinguere le caratteristiche di diffusione superficiale e diffusione volumetrica del
bersaglio. La Fig. 6.73 mostra la classificazione della diffusione superficiale contro la diffusione
volumetrica utilizzando questa tecnica, mentre la Fig. 6.74 mostra il risultato della classificazione.
161
Fig. 6.73 - Immagini di potenza totale della decomposizione di Freeman-Durden di dati AIRSAR in banda C, L e P che
mostrano la diffusione superficiale contro quella volumetrica.
Fig. 6.74 - Risultati di classificazione dei tipi di ghiacci utilizzando dati acquisiti dal sensore AIRSAR del JPL e una
decomposizione polarimetrica basata sull’entropia utilizzando otto classi e 12 iterazioni.
162
Classe
ThI/SFYI
Colore
blu
RFYI/R
Arancione
Verde
nero
Rosa
Verde pastello
Bianco
grigio
CFYI
MYI
Descrizione
Ghiaccio sottile di nuova formazione/
Ghiaccio liscio first year
Ghiaccio rugoso /detriti
Ghaccio compresso
Ghiaccio vecchio di molti anni
Tabella 6.7 – Descrizione delle classi utilizzate nella classificazione riportata in Fig. 6.74
6.15.7.3 Applicazioni allo studio delle foreste
C’è sempre più bisogno di capire e quantificare lo stato di salute e le dinamiche delle foreste, sia da
un punto di vista regionale sia globale. Le informazioni richieste includono la mappatura dei tipi di
foreste, l’identificazione di incendi recenti e l’estrazione di una varietà di parametri biofisici come
la biomassa totale e l’età degli alberi.
I dati polarimetrici vengono utilizzati per migliorare l’individuazione delle differenze strutturali tra
le chiome e quindi per aiutare nella mappatura dei tipi di foresta e nella fornitura di informazioni
addizionali per altre applicazioni di gestione delle foreste. La Fig. 6.75 mostra un’immagine in falsi
colori multipolarizzazione di un’area ad est di Ottawa, Canada, ed illustra l’aumento del contenuto
informativo per l’dentificazione delle foreste.
Fig. 6.75 - Immagine in falsi colori del sito di studio Mer Bleue vicino Ottawa, che mostra sei aree di foresta con
diversa composizione (dati C-SAR; Rosso: HH, Verde: HV e Blu:VV).
6.15.7.3.1 Dipendenza dalla frequenza
L’utilità dei dati SAR per l’estrazione dei parametri biofisici dipende soprattutto dalla frequenza. Le
microonde alle più basse frequenze come la banda L (2,0-1,0 GHz) e la banda P (1,0-0,3 GHz) sono
meglio in grado di penetrare le chiome e interagiscono in maniera più estensiva con le sue
componenti strutturali (foglie, rami, tronchi). Le microonde alle frequenze più alte (banda C, 3,8 –
7,5 GHz) tendono ad interagire soprattutto con la porzione superiore della chioma. I sensori a
163
frequenza più alta hanno un utilizzo più limitato nella discriminazione delle variazioni della
biomassa asciutta mentre ci si aspetta che i dati in banda L e in banda P possano essere usati per
discriminare le variazioni di biomassa.
6.15.7.3.2 Dipendenza dalla polarizzazione
Nell’articolo di T. Le Toan, A. Beaudoin e D. Guyon “Relating forest biomass to SAR data” (IEEE
Transactions on Geoscience and Remote Sensing, Vol. 30(2), Marzo, pp- 403 – 411, 1992) gli
autori hanno mostrato che l’intervallo dinamico della retrodiffusione sui pini uniformi ha una forte
variazione con la polarizzazione, cioè l’intervallo dinamico per i dati ottenuti in banda P per la
polarizzazione HV era approssimativamente 15 dB, per la polarizzazione HH circa 11 dB e per la
polarizzazione VV circa 4,8 dB. In banda L, l’intervallo dinamico si riduce, con un intervallo
dinamico di circa 8,6 in polarizzazione HV, circa 5,3 dB in HH e circa 4,6 dB in polarizzazione
VV. In banda C l’intervallo dinamico è significativamente più basso, con dati per la polarizzazione
HV che mostrano l’intervallo più ampio (approssimativamente 4 dB) e quelle in polarizzaione HH e
VV che mostrano un intervallo dinamico di solo 2 dB.
La retrodiffusione per la polarizzazione HV a lunghezze d’onda più lunghe può essere utilizzata in
maniera più efficiente per caratterizzare la biomassa delle foreste, come si vede nel lavoro
”Dependence of Radar Backscatter on Coniferous Forest Biomass”, di M.C. Dobson, T. Le Toan,
A. Beaudoin, E. S. Kasischke, apparso sulle IEEE Transactions on Geoscience and remote Sensing,
Vol. 30(2), March, pp.412-415, 1992.
Fig. 6.76 - Retrodiffusione in banda C ed L come funzione della biomassa totale sul suolo dei pini marittimi e dei pini
loblolly riportati su a scala logaritmica.
6.15.7.3.3 I parametri polarimetrici
Le firme di co-polarizzazione
I dati polarimetrici possono fornire informazioni uniche circa le chiome delle foreste relative in
particolare all’architettura delle chiome e ai meccanismi di diffusione che ne derivano. I
meccanismi di retrodiffusione includono la retrodiffusione diretta dai rami (diffusione a singolo
rimbalzo/di volume), la retrodiffusione dai tronchi (singolo rimbalzo), la retrodiffusione
proveniente dall’interazione tra i rami ed il terreno (doppio rimbalzo), la retrodiffusione proveniente
dall’interazione tra i tronchi ed il terreno (doppio rimbalzo) e la retrodiffusione diretta dal terreno
(diffusione superficiale). Il contributo relativo di ognuno di questi dipende dalla natura della chioma
e dai parametri di acquisizione delle immagini come l’angolo di incidenza e la frequenza.
164
Alcune componenti all’interno della chioma (foglie e rami) possono giocare un ruolo significativo
nelle interazioni di diffusione e di attenuazione dipendenti dalla frequenza. Ci si aspetta che l’uso
dell’analisi di dati polarimetrici possa aiutare a comprendere la natura della diffusione all’interno di
una chioma.
Un esempio modellizzato di firma di co-polarizzazione rappresentativo di una foresta di
caducifoglie in banda L mostra che la retrodiffusione proveniente da una copertura pesante di
foresta alle polarizzazioni HH e VV è simile a quella alla polarizzazione VV che è leggermente
inferiore, il che suggerisce la dominanza della diffusione dai rami multipli combinata con una
debole componente a doppio rimbalzo. L’altezza del minimo indica una grande componente non
polarizzata nel ritorno di retrodiffusione, indicativa della diffusione multipla.
La modellizzazione della stessa chioma con una densità di rami di un ordine di grandezza inferiore
produce una firma di polarizzazione che è caratteristica di un riflettore diedrico ad angoli (doppio
rimbalzo), che suggerisce la dominanza dei meccanismi di diffusione tronco-terreno per questa
foresta con meno rami. La densità più bassa di rami porta anche ad avere una altezza più bassa del
minimo a causa di una componente non polarizzata più bassa, che indica una quantità più piccola di
diffusione volumetrica.
Fig. 6.77 - Firme di co-polarizzazione in banda L di: (a) una foresta caducifoglie e (b) una foresta caducifoglie con una
densità di rami che è un oridine di grandezza inferiore a quello considerato nel caso (a)
La Fig. 6.78 mostra le firme di co-polarizzazione modellizzate per un’area di foresta e per un’area
deforestata. L’area deforestata ha un’altezza del minimo più bassa, che è indicativa di una
componente non polarizzata più bassa a causa di un più grande ritorno diretto dalla superficie del
terreno e una quantità più piccola di diffusione volumetrica. Il ritorno nel caso VV più forte
confrontato al caso HH è indicativo di diffusione superficiale.
Fig. 6.78 - Firme di co-polarizzazione per (a) un’area di foresta e (b) per un’area deforestata.
La differenza di fase di polarizzazione
La differenza di fase di co-polarizzazione può essere utile per comprendere i meccanismi di
diffusione per un bersaglio particolare. I diffusori a singolo rimbalzo generalmente risultano in una
differenza di fase prossima a 0° mentre i diffusori ideali a doppio rimbalzo hanno una differenza di
fase di ± 180° . In questo esempio preso dal lavoro di Le Toan ed altri per una chioma di foresta la
differenza di fase di co-polarizzazione è stata messa in relazione con l’età (Fig. 6.79) e fino ad un
certo punto con l’altezza degli alberi e la biomassa del tronco. In questo caso, la differenza di fase
di co-polarizzazione media ottenuta per l’area deforestata ( ∆φ = 6,8° ) indica che la retrodiffusione
è soprattutto funzione della diffusione superficiale proveniente dal terreno. Il valore medio abbinato
165
a gruppi omogenei di alberi maturi è molto più alto (approssimativamente 66°) ed ha una
deviazione standard maggiore (90°) di quella ottenuta per l’area deforestata (70°). Questo è
indicativo di diffusione volumetrica.
Fig. 6.79 - Istogramma delle differenze di fase di co-polarizzazione in banda P tra le polarizzazioni HH e VV ( ∆φ ) per
(I) un’area deforestata e (II) una piantagione di pini di 46 anni. F = Frequenza di occorrenza (%); D = Differenza di fase
di polarizzazione (gradi)
6.15.7.4 Idrologia
L’uso del SAR per applicazioni di idrologia ha una lunga storia ed è stato ampiamente investigato
per la stima dell’umidità del suolo, la mappatura della neve e la mappatura delle inondazioni e dei
terreni umidi. Queste applicazioni non hanno realizzato un successo operativo o commerciale anche
a causa delle limitazioni dei sistemi SAR a singolo canale come RADARSAT-1. la polarimetria ha
il potenziale per migliorare l’utilizzo dei dati SAR per queste applicazioni aiutando a rendere
operative queste applicazioni. Alcuni esempi di ciò vengono forniti nelle sezioni seguenti.
6.15.7.4.1 La mappatura dell’umidità del suolo
L’umidità del suolo è un parametro importante per molte applicazioni a risorse naturali come la
modellizzazione idrologica, la predizione dei flussi d’acqua, e la previsione delle piene. I dati SAR
sono ben adatti per la stima dell’umidità del suolo a causa della dipendenza della costante dielettrica
dall’umidità a queste frequenze. Come è stato descritto nel lavoro di Dobson e Ulaby, (M.C
Dobson, F. T. Ulaby: “Active microwave soil misture research”, IEEE Transactions on Geoscience
and Remote Sensing, Vol. GE-24 No. 1, pp. 23-36) per una data condizione del suolo (rugosità o
tessitura) si è visto che la retrodiffusione radar è linearmente dipendente dall’umidità volumetrica
( mv ) nello strato superiore del suolo (dai 2 ai 5 cm), con una correlazione r ≈ 0,8 fino a 0,9
( σ 0 = A + Bmv ).
La presenza di una copertura vegetativa introduce un altro livello di complessità nella mappatura
dell’umidità del suolo a causa dell’interazione delle microonde con la vegetazione e il suolo. In base
alla quantità della vegetazione presente, le sue proprietà dielettiche, l’altezza e la geometria
(dimensione, forma e orientazione delle sue parti componenti) la sensibilità della retrodiffusione
delle microonde all’umidità del suolo volumetrica può essere ridotta in maniera significativa.
166
L’abilità di mappare l’umidità del suolo in maniera efficace può essere migliorata attraverso una
selezione giudiziosa dei parametri nell’acquisizione delle immagini come l’angolo di incidenza, la
lunghezza d’onda e la polarizzazione.
Per minimizzare i contributi della rugosità del suolo alla retrodiffusione spesso si sceglie di
acquisire le immagini ad angoli di incidenza elevati e dell’attenuazione associata alla biomassa
presente al suolo. La retrodiffusione è affetta in maniera significativa dalla rugosità del suolo e dagli
angoli di incidenza oltre i 40°. Di conseguenza, per la stima dell’umidità del suolo si raccomanda di
acquisire le immagini ad angoli di incidenza più piccoli.
Si è visto che la polarizzazione HH in banda C è la più sensibile all’umidità del suolo e la meno
sensibile alla rugosità del terreno in presenza di poca biomassa. Nei campi agricoli, dal momento
che la componente vegetativa al suolo aumenta, sono necessarie lunghezze d’onda maggiori (ad
esempio, quelle della banda L) per permettere un monitoraggio continuato dell’umidità del suolo
durante la stagione della crescita. Per le aree coperte da arbusti o da foresta, solo le lunghezze
d’onda più lunghe come quelle della banda L o meglio della banda P possono fornire la
penetrazione necessaria per la stima dell’umidità del suolo. I dati polarimetrici possono aiutare a
ridurre e/o a tenere conto degli effetti della rugosità e/o della vegetazione sulla stima dell’umidità
del suolo.
La dipendenza dalla polarizzazione
L’abilità di stimare l’umidità della superificie del suolo (per profondità da 0 a 2,5 cm) utilizzando
varie polarizzazioni e parametri polarimetrici di dati SIR-C è riportata nel lavoro di J. Sokol, H.
NcNairn, T.J Pultz (“Case studies demonstrating hydrological applications of C-band
multipolarized and polarimetric SAR CJRS”, 2002)
Sono stati raccolti dati sulle superfici di suolo nudo nella zona del Manitoba meridionale durante
l’aprile e l’ottobre 1994. La valutazione dei dati polarimetrici è stata limitata a dati acquisiti con
angoli di incidenza che vanno dai 33° ai 38°. I parametri polarimetrici esaminati includono le
polarizzazioni sintetizzate lineari e circolari, la potenza totale, i rapporti di co-polarizzazione e
cross-polarizzazione, l’altezza del minimo, e le differenze di fase di co-polarizzazione (vedi
tabella).
I dati acquisiti sia in polarizzazione HH sia VV risultavano altamente correlati con l’umidità del
suolo (coefficiente di correlazione ρ = 0,86 – 0,87) mentre quelli acquisiti in polarizzazione HV
erano molto meno correlati (ρ = 0,71). L’analisi a regressione multipla utilizzando varie
combinazioni di polarizzazioni lineari non ha mostrato significativi miglioramenti nella stima
dell’umidità del suolo.
Si è visto che i rapporti di co- e cross-polarizzazione non hanno effetti sulla stima dell’umidità del
suolo come i dati in polarizzazione HH o VV, benché siano stati usati con successo altrove per
aiutare a ridurre gli impatti della rugosità del suolo e della vegetazione per dati acquisiti ad angoli di
incidenza minori.
La differenza di fase di co-polarizzazione media (ρ = -0,35) non è correlata in maniera significativa
con l’umidità del suolo. Questo parametro spesso è utilizzato per distinguere i meccanismi di
diffusione, che in qesto caso erano relativamente invarianti e indicativi della diffusione superficiale
(singolo rimbalzo). Di conseguenza, la bassa correlazione non era inaspettata.
I dati SIR-C ottenuti nel Manitoba meridionale mostrano che l’informazione nelle immagini a varie
polarizzazioni e i parametri polarimetrici sono altamente intercorrelati (tabella 2), la retrodiffusione
in HH, VV e RL mostrano una correlazione più alta con l’umidità del suolo.
167
Tabella 6.8 – Correlazione tra la retrodiffusione radar e l’umidità del suolo in superficie (0 – 2.5 cm)
* statisticamente significativo a p < 0,05
Tabella 6.9 - Correlazioni tra la retrodiffusione media del campo registrate per ogni polarizzazione lineare e circolare
su suoli nudi.
* coefficienti ρ di correlazione.
168
6.15.7.4.2 La mappatura della neve
La stima della copertura della neve e delle sue proprietà è importante come dato d’ingresso ad
applicazioni ideologiche come la modellizzazione e la previsione del flusso d’acqua proveniente
dallo scioglimento della neve così come la comprensione dei cambiamenti in regimi climatici locali
e regionali. Parametri tipici per la neve derivati da dati radar includono la misura della neve,
l’equivalenza acqua/neve (SWE, Snow water equivalent, o contenuto equivalente d’acqua) e lo stato
della neve (umido/secco).
Lo SWE può essere rappresentato in unità di misura di kg/m2 o metri di profondità di acqua liquida
che si ottiene dallo scioglimento della neve. Il SWE è il prodotto della profondità e della densità:
SWE = profondità (m) × densità ( kg m 3 ) ⇒ (unità di misura : kg m 2 )
SWE = profondità (m) × densità ( kg m 3 ) / densità di acqua ( kg m 3 ) ⇒ (unità di misura : kg m 2 )
La risposta di retrodiffusione da una superficie coperta di neve è funzione di numerosi fattori, tutti
legati tra loro, che comprendono le proprietà dielettriche della neve, la temperatura, la densità, l’età
e la struttura della neve. La retrodiffusione ricevuta all’interfaccia aria/neve, la diffusione
volumetrica dallo strato di neve e la diffusione dall’interfaccia neve/terreno. La misura in cui la
retrodiffusione è funzione della diffusione superficiale o della diffusione volumetrica è governata
dalle proprietà della neve. Quando un mucchio di neve è asciutto (ad una temperatura inferiore a 0°
C) le microonde penetrano facilmente (Fig. 6.80) e la retrodiffusione è in gran parte funzione della
profondità e della densità della neve stessa.
Fig. 6.80 - Profondità di penetrazione nella neve come funzione di contenuto di acqua liquida e frequenza delle
microonde.
σ p = profondità di penetrazione (m)
mv = Contenuto volumetrico di acqua liquida (percentuale)
Dato che dipende dalla frequenza della microonde e dalla profondità della neve, la retrodiffusione
da un mucchio di neve secca può essere soprattutto funzione delle caratteristiche della superficie del
terreno sottostante a causa della trasparenza relativa della neve secca alle frequenze delle
microonde.
169
In banda C, la neve umida assorbe mentre quella secca è trasparente, il che rende la stima di SWE
difficile. La polarimetria può aiutare fornendo delle informazioni aggiuntive aiutando cosi a
migliorare la stima di SWE.
6.16 Il radar meteorologico
Il radar è uno strumento che consente di rilevare la presenza di oggetti distanti, di localizzarli nello
spazio e di ottenere informazioni sulla loro natura fisica e geometrica. Nel caso particolare di un
radar meteorologico, tali oggetti sono tipicamente le idrometeore, siano esse gocce di pioggia
oppure neve, grandine o pioggia ghiacciata.
Il radar genera un impulso elettromagnetico che viene focalizzato da un’antenna e trasmesso
nell’atmosfera (fascio radar). Gli oggetti che si trovano lungo il percorso di tale impulso
elettromagnetico (le idrometeore, per esempio) diffondono nell’ambiente circostante l’energia
elettromagnetica da cui vengono investiti. Parte di tale energia viene retrodiffusa verso il radar.
L’antenna ricevente riceve la radiazione retrodiffusa e la invia ad un apparecchio detto ricevitore.
Tramite l’analisi delle proprietà di tale segnale è possibile conseguire diverse informazioni circa
l’insieme delle idrometeore osservate, come la loro distanza rispetto all’antenna radar, le loro
dimensioni, e la loro velocità di spostamento rispetto al radar. Poiché l’intensità di precipitazione è
funzione del volume delle gocce e della loro velocità di caduta (funzione anch’essa del diametro
delle gocce), le informazioni ricavate dal radar consentono una stima indiretta dell’intensità di
precipitazione in atto.
L’antenna del radar può ruotare sia nel piano orizzontale sia in quello verticale, esplorando in tal
modo un vasto volume di atmosfera (dell’ordine dei 106 km3), ottenendo informazioni quantitative
sulla struttura e la dinamica dei processi meteorologici in atto. Per l’individuazione geometrica del
bersaglio rispetto al radar sono necessari tre parametri: il primo rappresenta l’angolo formato dal
fascio radar rispetto al Nord ed è chiamato azimut.
Fig. 6.81 - Rappresentazione dell’angolo di azimut del fascio radar in un piano orizzontale: il radar qui è visto dall’alto.
Il secondo rappresenta l’angolo formato dal fascio radar con il piano tangente alla superficie
terrestre al sito radar ed è chiamato angolo di elevazione.
170
Fig. 6.82 - Rappresentazione dell’angolo di elevazione del fascio radar in un piano verticale
Il terzo è rappresentato dalla distanza del bersaglio dal radar lungo il percorso seguito dall’impulso.
Fig. 6.83 - Determinazione della distanza del bersaglio dall’antenna radar
La distanza D viene determinata misurando il tempo impiegato dall’impulso per percorrere la
doppia distanza radar-bersaglio-radar. Poiché la velocità di trasmissione del segnale è nota (velocità
della luce), la determinazione della distanza risulta immediata. Sulla base del valore di distanza così
calcolato, e dei valori misurati degli angoli di azimut ed elevazione si determina la posizione del
bersaglio rispetto al radar.
6.16.1 Stima di precipitazione tramite il radar meteorologico
L’informazione meteorologica estratta dal segnale retrodiffuso ricevuto dall’antenna radar è nota
come riflettività z (in Fig. 6.85 viene rappresentato un campo di riflettività z osservato da un radar
meteorologico). Per determinare la corrispondente intensità di precipitazione R si utilizza una
relazione z-R di conversione nella forma z=aRb , determinata sulla base di misure di distribuzioni
dimensionali delle gocce al suolo. Il tipo di legame tra z ed R è approssimativamente valido per la
maggior parte delle piogge convettive, mentre i coefficienti variano significativamente e a volte si
possono stimare da misure integrative effettuate con pluviometri.
171
Fig. 6.84 - Campo di riflettività osservato da un radar meteorologico
In pratica attraverso l’eco ricevuto, un radar ad impulsi convenzionale misura la potenza riflessa, da
cui conoscendo la potenza trasmessa, la distanza e l’attenuazione è possibile ricavare la riflettività z.
Una volta effettuata una depurazione del segnale ricevuto da quelle eco generate da bersagli che
non sono di interesse, si procede alla conversione di z nelle misure direttamente utilizzabili ai fini
meteorologici; esse sono l’intensità di precipitazione R, la quantità totale dell’acqua Q e la
distribuzione dei diametri delle idrometeore DSD (Drop Size Distribution). Queste conversioni non
sono univoche e sono caratterizzate da una problematica abbastanza complessa.
Indicando con D il diametro del bersaglio (goccia di pioggia) colpito dalla radiazione emessa
dall’antenna radar e con N(D) la distribuzione della quantità di idrometeore in funzione del
diametro, si può dimostrare che la riflettività z vale:
z = ∫ N ( D) ⋅ D 6 ⋅ dD
e la grandezza di nostro interesse che si vuole ricavare da z, cioè l’intensità di pioggia R espressa in
mm/h, vale:
π
∞
N ( D) ⋅ V ( D) ⋅ D 3 ⋅ dD
6 ∫0
in cui V(D) è la distribuzione della velocità di caduta delle particelle in funzione del diametro.
Questa distribuzione è ricavabile teoricamente ed ha l’espressione seguente:
R=
V ( D) = 9,65 − 10,3 ⋅ e −6 D
Essa ha piena validità solamente in una situazione teorica, poichè la frequente presenza in
situazione piovose di correnti verticali più o meno intense, ne discosta l’andamento da quello reale.
La distribuzione N(D), viceversa, non è misurabile direttamente; esistono però delle espressioni che
ne descrivono l’andamento, e che hanno dimostrato negli anni attraverso l’applicazione
sperimentale una buona aderenza alla realtà; per esempio N(D) si può esprimere con l’esponenziale
negativa di Marshall e Palmer:
N ( D ) = N 0 ⋅ exp(− ΛD ) = 8000 ⋅ exp(−4.1 ⋅ R −0.21 ⋅ D )
oppure, in modo più generale, come:
172
N ( D ) = N 0 D µ e − ΛD
Basandosi sulle espressioni disponibili per queste due distribuzioni, si assume che la relazione fra z
e R sia di tipo esponenziale: z = aR b .
I parametri a e b che figurano nella relazione possono variare da punto a punto e da un evento di
precipitazione all’altro, ma sono indipendenti da R. Tali coefficienti riflettono in qualche modo le
caratteristiche climatologiche di una particolare località o stagione, o, più specificamente, il tipo di
precipitazione (stratiforme, convettiva, orografica) per la quale sono state derivate.
Di seguito sono riportate alcune delle numerosissime relazioni proposte da vari autori:
−
−
−
−
z = 200 ⋅ R 1, 6
z = 400 ⋅ R 1, 4
z = 237 ⋅ R 1,5
z = 277 ⋅ R1, 48
(Marshall et al, 1948: la più usata)
(Joss e Waldvogel, 1970)
(Atlas e Ulbrichts, 1977)
(media delle 69 relaz in Battan, 1973)
La relazione z-R è una relazione soggetta a diverse incertezze che dipendono tra l’altro dalla
distribuzione, dalle dimensioni delle gocce e dalla durata temporale della misura. Per migliorare il
grado di precisione ed ottenere maggiori infomazioni vengono usati i sistemi a doppia
polarizzazione, nei quali la riflettività viene valutata su due piani ortogonali. L’onda polarizzata
orizzontalmente è più sensibile alle direzioni orizzontali dell’idrometeora mentre l’onda polarizzata
verticalmente risulta più sensibile alle dimensioni verticali. In altre parole tanto più le gocce di
pioggia sono grosse tanto più assumeranno durante la caduta una struttura schiacciata; di
conseguenza la riflettività dell’onda polarizzata orizzontalmente differirà da quella verticale. Tutto
questo ci fornisce un’indicazione della distribuzione delle dimensioni delle idrometeore. La doppia
polarizzazione ci consente anche di distinguere le gocce di pioggia dai cristalli di ghiaccio i quali
durante la caduta mantengono una forma pressoché costante.
Oltre all’andamento di N(D) e V(D) esiste un terzo aspetto che si è tenuto in considerazione nella
formulazione di queste relazioni, vale a dire l’impatto del profilo verticale di riflettività (Vertical
Reflectivity Profile o VPR). La pioggia, infatti, non è verticalmente uniforme a causa di fenomeni
di evaporazione e di cambio di fase da solida a liquida. Esiste una fascia, ad un’altezza compresa tra
i 2000 ed i 4000 metri a seconda della latitudine e del periodo dell’anno, dove coesistono lo stato
liquido e quello solido, chiamata melting layer.
Nella banda di frequenze utilizzate dai radar, questa fascia è molto ben visibile, perciò le si è dato il
nome di bright band, cioè banda brillante. La causa di questa alta visibilità è la fusione dei cristalli
di ghiaccio in precipitazione che si verifica a quelle altezze. La sezione radar (cioè la visibilità) di
un bersaglio di forma sferica è proporzionale alla quarta potenza del suo diametro. Il ghiaccio
riflette assai poco, ma possiede un comportamento interessante per i radar: nelle idrometeore è
altamente poroso, quindi ha un volume grande rispetto alla quantità d’acqua che effettivamente
contiene. Finché è tutto ghiaccio (al di sopra della banda brillante) riflette poco perché il ghiaccio è
un cattivo conduttore elettrico, ma quando comincia a sciogliersi (all’interno della banda brillante)
si ricopre di una pellicola di acqua che lo fa apparire al radar come una goccia di dimensioni
superiori al normale. All’uscita dalla banda brillante, il ghiaccio si è sciolto tutto e le dimensioni
della goccia sono tornate ad essere congruenti alla quantità d’acqua in essa contenuta.
Ipotizzando una situazione abbastanza comune, dove si ha un profilo di z quasi uniforme
accompagnato dalla presenza di una intensa banda brillante, l’impatto del VPR è illustrato in Fig.
6.85.
173
Fig. 6.85 – Impatto del VPR
Si vede chiaramente come a 50 km dal radar il fascio illumini solamente la sezione costituita dalla
pioggia, a 100 km la fascia illuminata è prevalentemente la banda brillante, mentre a distanze
sempre maggiori il fascio illumina le zone sovrastanti il corpo nuvoloso. Nel secondo caso, perciò,
si ha una forte sovrastima del valore di R, mentre nel terzo, cioè per rilevazioni a grande distanza, si
ha una sottostima di R.
Nell’esempio schematizzato nella figura precedente, si è ipotizzato per semplicità che il fascio di
radiazioni emesse dal radar si propagasse linearmente nell’atmosfera. In realtà, in situazioni
standard, si ha una curvature costante verso il basso a causa della diminuzione della densità
dell’atmosfera all’aumentare della quota. Considerando la proporzionalità diretta fra la densità
dell’atmosfera e l’indice di rifrazione, questo comportamento è in accordo con la legge di rifrazione
di Snell. L’effetto pratico di questo fenomeno è quello di aumentare l’orizzonte visivo del radar,
effetto di cui si tiene normalmente conto (moltiplicando il raggio terrestre per un fattore costante
pari a 4/3). Esiste però un fenomeno abbastanza comune che provoca lo spostamento da questa
situazione standard: la propagazione anomala (ANAPROP). Essa è provocata da un andamento
dell’indice di rifrazione dell’atmosfera anomalo e può avere come effetto l’incurvamento non
standard dei raggi elettromagnetici oppure, nel caso di inversione dell’andamento dell’indice di
rifrazione, la formazione di condotti a quota costante capaci di trasportare il fascio a distanze
elevatissime. In conseguenza di ciò, a seconda dei casi, si può avere uno spostamento fittizio della
posizione dei bersagli, un forte aumento oppure una forte diminuzione della portata. Avremo anche
uno spostamento apparente degli ostacoli fissi, che ne rende difficoltosa l’individuazione.
Una tecnica che permette la calibrazione del radar e l’individuazione dei migliori parametri
possibili nella relazione di conversione z-R consiste nell’utilizzo dei pluviometri, ovvero particolari
strumenti che consentono la misurazione diretta dei valori di R. L’utilizzo combinato del radar e di
una rete di pluviometri disposti nell’area circostante, permette la raccolta delle serie temporali di z e
R. Tali serie vengono sincronizzate applicando il metodo della correlazione incrociata, il quale in
pratica individua il ritardo tra la prima e la seconda, ovvero il tempo che le idrometeore impiegano a
raggiungere il pluviometro partendo dalla cella osservata dal radar; una volta fatto questo, vengono
infine calcolati i parametri della relazione esponenziale z = aR b tramite un algoritmo di
regressione. Ciò assicura una buona aderenza della legge di conversione alla realtà.
174
Fig. 6.86 - Campo di intensità di pioggia ottenuto dai valori di riflettività rappresentati in Fig. 6.84 utilizzando la
relazione Z= 300 R 1.4. La scala va da 5 a 85 mm/h con un intervallo di 5 mm/h.
Il radar meteorologico ha esteso e perfezionato considerevolmente la possibilità di osservare in
tempo reale, con elevata risoluzione spaziale e temporale, la struttura dei campi di precipitazione. Il
suo impiego presenta alcuni sostanziali vantaggi rispetto a quanto si può ottenere con una rete di
stazioni pluviometriche. Il radar meteorologico offre infatti le seguenti opportunità:
- visione globale, in tempo reale, dei fenomeni di precipitazione in atto su un’area molto
vasta (dell’ordine dei 10.000 km2), e determinazione dell’intensità di precipitazione su
elementi di griglia di dimensione di 1-4 km2;
- monitoraggio della precipitazione con continuità spaziale, e quindi possibilità di rilevare
anche fenomeni estremamente localizzati;
- elevata frequenza temporale della osservazione (dell’ordine dei 5 minuti);
- analisi dell’andamento della precipitazione lungo la verticale;
- possibilità di seguire lo spostamento e l’evoluzione dei fenomeni e di individuare le zone
che potranno essere interessate da precipitazione nell’immediato futuro.
In particolare, il radar ha dimostrato una notevole efficacia nel monitoraggio dei fenomeni a
spiccata caratterizzazione locale, quali, ad esempio, le celle temporalesche.
6.16.2 Previsione di precipitazione tramite radar meteorologico
La possibilità di prevedere l’evoluzione temporale di un campo di precipitazione a partire dalla sua
osservazione tramite radar discende dalla continuità spaziale di tale osservazione relativa ad una
regione piuttosto vasta. Confrontando fra loro mappe successive di precipitazione radar è possibile
pervenire ad una sintetica descrizione della dinamica dell’evento meteorico, individuando una
direzione di spostamento dell’idrometeora. Negli schemi più semplici, la previsione agli istanti
successivi viene conseguita operativamente estrapolando gli ultimi campi di precipitazione osservati
nella direzione ed alla velocità del moto precedentemente identificato. Procedure di previsione più
evolute consentono di tenere in conto anche gli aspetti di crescita e di decadimento delle celle
convettive eventualmente presenti nel campo di precipitazione osservato. Si tratta, in questi casi, di
modelli meteorologici semplificati che consentono di utilizzare l’informazione radar disponibile sul
contenuto di acqua in forma liquida della colonna atmosferica al fine di pervenire ad una
simulazione numerica del fenomeno e ad una sua previsione. Nell’ambito di tali schemi basati su
modelli è possibile l’uso combinato del radar meteorologico e del satellite.
175
E’ evidente che schemi di previsione come quelli appena delineati possono essere sufficienti
quando l’orizzonte temporale di previsione di interesse è pari a qualche ora. Previsioni quantitative
di precipitazione su orizzonti temporali più prolungati sono conseguibili, evidentemente con minore
accuratezza, solamente utilizzando modelli numerici di previsione. Solitamente, i modelli a scala
sinottica dei principali centri meteorologici europei (Reading, Offenbach), maggiormente affetti da
errori proprio su regioni ad orografia complessa, risultano inidonei a evidenziare la distribuzione
spaziale di dettaglio della nuvolosità e delle precipitazioni. I modelli ad area limitata, che utilizzano
le previsioni dei modelli sinottici quali condizioni al contorno e consentono la rappresentazione dei
fenomeni meteorologici su una griglia più fine, sono generalmente indicati come maggiormente
affidabili nella previsione dei quantitativi di pioggia. Tuttavia, anche in questo caso la
rappresentazione della struttura orografica fornita dal modello è molto semplificata e gli errori
conseguenti possono essere rilevanti. L’esperienza acquisita in questo campo indica che le
previsioni numeriche di precipitazione relative a regioni ad orografia complessa sono da usarsi con
molta cautela, e che esse devono essere integrate da conoscenze sinottiche e regionali dettagliate,
derivate da esperienza acquisita sul territorio. L’uso dell’informazione radar, in questo caso, assume
un duplice valore. Da una parte, essa diventa elemento essenziale per la verifica continua, ad ampia
scala spaziale, della accuratezza delle previsioni conseguite tramite modelli numerici. Dall’altra, la
conoscenza dettagliata degli effetti regionali acquisita tramite l’analisi delle immagini radar
consente al previsore una differenziazione regionale della previsione numerica.
Per le ragioni appena indicate, il miglioramento delle previsioni di precipitazione a breve termine
sembra conseguibile utilizzando, secondo un albero decisionale, i modelli numerici di previsione e i
flussi cospicui di dati forniti, in tempo reale, da radar meteorologico e da satellite.
6.16.3 I Radar meteo Doppler
Oltre ai normali radar meteo esistono degli speciali radar chiamati radar Doppler i quali sfruttando
appunto l’effetto Doppler consentono di stimare la velocità di spostamento con cui le particelle che
costituiscono la nube (gocce e cristalli) si avvicinano o si allontanano dal radar. Questi speciali
radar permettono di sapere quindi, oltre all'intensità della precipitazione, la direzione di
spostamento dell'evento meteorologico.
6.16.3.1 L’effetto Doppler
Se si pensa al suono di una sirena, possiamo ricordare come il tono di essa cambia mentre si
avvicina e in seguito mentre si allontana. Prima diviene acuto, poi grave. Scoperto dal matematico e
fisico austriaco Christian Doppler (1803-1853), questo cambiamento di tonalità è il risultato di uno
spostamento nella frequenza delle onde sonore, come mostrato in Fig. 6.87.
Fig. 6.87 – Effetto Doppler
Durante l'avvicinamento, le onde sonore provenienti dalla sirena vengono compresse nella direzione
dell'osservatore. Gli intervalli tra le onde diminuiscono, il che si traduce in un aumento della
frequenza (maggiore la frequenza più acuto il tono). Quando il treno si allontana, rispetto
176
all'osservatore le onde vengono "stirate", causando l'abbassamento di tonalità. Dalle variazioni del
tono della sirena, è possibile determinare se il treno si sta avvicinando o se si sta allontanando.
Potendo misurare il cambiamento di tonalità in un determinato tempo, è anche possibile stimare la
velocità del treno.
L'entità dello spostamento è determinata da: v/c
dove v è la velocità di avvicinamento o di allontanamento dall'osservatore e c è la velocità alla quale
si propagano le onde.
Il suono si propaga alla velocità di 350 metri al secondo. Un treno che viaggi a 120 km/h si muove a
33 metri ed 1/3 al secondo, circa 1/10 della velocità di propagazione del suono. Dalla formula di
Doppler, possiamo calcolare che la frequenza del suono della sirena del treno in avvicinamento
subirà uno spostamento verso i toni acuti del 10%. Dopo il passaggio del treno, presumendo una
velocità costante dello stesso, udiremo un abbassamento della tonalità di pari percentuale, della
frequenza del suono della sirena.
Analogamente, qualsiasi radiazione elettromagnetica emessa da un oggetto in movimento, è
soggetta all'effetto Doppler. La radiazione elettromagnetica emessa da un oggetto in avvicinamento
è compressa, la frequenza quindi aumenta: subisce quello che viene denominato "uno spostamento
verso il blu" (blueshifted). All'opposto, la radiazione emessa da un oggetto in allontanamento viene
"stirata" o "spostata verso il rosso" (redshifted). Come ben sanno i fisici (al contrario di quanto
vorrebbe far crederci il buonsenso che conferisce al colore rosso temperature e quindi energie
superiori a quelle associabili al colore blu ritenuto sinonimo di freddo), con il termine "spostamento
verso il blu" si indica un aumento della frequenza e quindi dell'energia di qualsiasi forma di
radiazione dell'intero spettro elettromagnetico. All'inverso, con il termine "spostamento verso il
rosso" si indica una riduzione di frequenza e quindi di energia di qualsiasi radiazione. Il motivo per
cui possiamo renderci conto dello spostamento Doppler, come viene anche chiamato, del suono ma
non di quello della luce è diretta conseguenza della tremenda differenza tra la velocità del suono e
la velocità della luce.
6.16.4 Alcuni radar meteorologici
6.16.4.1 Il radar meteo a Spino d’Adda (Cr)
−
−
−
−
−
•Fa
capo al C.S.T.S.-C.N.R.
Convenzionale (non doppler), banda S (2,8 GHz), pol. vert.
Operativo dal 1978, ma non funziona continuativamente.
Copre da 350 m a 150 km, risoluzione 75/150 m.
Genera una mappa di pioggia ogni 90 secondi;
PRF=456/228 Hz, durata 0.5/1.5 ms
− Quantizzazione ad 8 bit.
− 475 kW di picco.
177
6.16.4.2 Radar di Gattatico (RE)
6.16.4.3 La rete radar britannica
−
−
−
−
15 radar in banda C (5,6 cm) tra Regno Unito ed EIRE, con portata di 75 km.
Scansione completa sui 4 angoli di elevazione ogni 5 minuti.
Raccolta dati presso il Met Office di Exeter nel Devon.
Met Office li elabora per fornire una mappa di pioggia alla risoluzione di 5 km × 5 km ogni
15’.
− In caso di situazioni anomale, emette avvisi di pericolo, anche molto specifici (servizio
FloodCall
178
6.16.4.4 La rete radar svizzera
− Tre radar meteo con zone di copertura parzialmente sovrapposte: Lema (Lugano),
La Dôle (Ginevra), Albis (Zurigo)
− Mappa a risoluzione 1km×1km su tutto il territorio nazionale ogni 5 minuti, con
soppressione degli echi a terra.
− Previsioni di pioggia a breve termine (1 o 2 ore) e previsione eventi catastrofici.
179
PARTE SECONDA
L’ELABORAZIONE DELLE IMMAGINI
TELERILEVATE
180
CAPITOLO 7
LA CORREZIONE DELLE DISTORSIONI
7.1 Introduzione
Ogni immagine telerilevata richiede, per poter fornire informazioni fruibili da un utente finale, un
certo numero di operazioni, dipendenti dalla sua tipologia e risoluzione (spaziale, numerica,
spettrale e temporale).
Queste operazioni si possono raggruppare in sette grandi classi:
- Correzioni geometriche, radiometriche e atmosferiche
- Miglioramento delle caratteristiche d’immagine
- Classificazione
- Fusione di dati
- Analisi di immagini iperspettrali
- Modellizzazione biofisica
- Trasmissione e compressione
I dati raccolti dai sensori per telerilevamento necessitano, prima dell’utilizzo nelle applicazioni, di
una serie di correzioni per eliminare o limitare i disturbi e le distorsioni introdotte durante
l’acquisizione e la trasmissione. Questa fase di pre-elaborazione può essere
divisa in due classi principali di correzioni:
- correzioni geometriche
- correzioni radiometriche
7.2 Le correzioni geometriche
7.2.1 La georeferenziazione
Il modo più semplice di collegare un’immagine ad una mappa è quello di usare una trasformazione
geometrica, cioè una funzione che mette in relazione le coordinate dei due sistemi. Per esempio, la
relazione tra (x,y) e (i,j) viene normalmente rappresentata attraverso delle equazioni lineari, come:
x = 3 + 5i
y = − 2 + 2 .5 j
(7.1)
(7.2)
Usando le trasformazioni sopra riportate, per esempio, la posizione che nell’immagine ha
coordinate (i=5, j=8) corrisponde alle coordinate della mappa (x=28, y=18). Una volta che una tale
trasformazione è stata determinata, è possibile calcolare le coordinate per ogni pixel dell’immagine.
L’immagine risultante è un’immagine georeferenziata. Questo permette di sovrapporre dei vettori di
dati e l’immagazzinamento dei dati in coordinate della mappa. Va detto che l’immagine rimane
immagazzinata cosi come è nella struttura raster e che la sua geometria non è alterata.
Il processo di georeferenziazione include due passi: la selezione di un tipo appropriato di
trasformazione e la determinazione dei parametri della trasformazione. Il tipo di trasformazione
dipende principalmente dal sistema piattaforma-sensore utilizzato. Per la fotografia aerea (di un
terreno piatto) normalmente viene usata una trasformazione detta prospettica per correggere gli
effetti di inclinazione e rotolamento. Una trasformazione più generale è quella polinomiale, che
permette trasformazioni di primo, secondo e terzo ordine. In molte situazioni comunque vengono
preferite le trasformazioni del primo ordine.
Una trasformazione del primo ordine correla le coordinate della mappa (x,y) con quelle
dell’immagine (i,j) nel modo seguente:
181
x = a + b(i ) + c( j )
(7.3)
y = d + e(i ) + f ( j )
(7.4)
queste equazioni richiedono la determinazione di sei parametri (a, b, c, d, e, f). I parametri della
trasformazione possono essere determinati per mezzo dei Ground Control Points (GCPs), punti che
possono essere chiaramente individuati nell’immagine e nella mappa che viene utilizzata per il
confronto. Una possibilità è quella di utilizzare mappe topografiche a scala adeguata. L’operatore a
questo punto ha bisogno di riconoscere punti identici in entrambe le immagini, per esempio
utilizzando incroci tra strade, corsi d’acqua, strutture morfologiche tipiche, eccetera. Un’altra
possibilità è quella di identificare i punti nell’immagine e quindi misurare le coordinate sul campo
attraverso il posizionamento del satellite. Il risultato della selezione dei GCP è un insieme di punti
(come quello riportato nella tabella sottostante). Per risolvere le equazioni sopra riportate, si ha
bisogno di almeno tre GCP. Comunque, per calcolare l’errore commesso durante la trasformazione,
è necessario avere più punti a disposizione.
Fig. 7.1 – Un insieme di 5 GCP usati per determinare una trasformazione del primo ordine; xc e yc sono calcolati usando
la trasformazione, mentre xc e yc sono gli errori residui
Basandosi sui GCP scelti, il computer calcola i parametri della trasformazione ottima da utilizzare.
Gli errori che rimangono dopo l’applicazione della trasformazione sono detti errori residui. La loro
grandezza è un indicatore della qualità della trasformazione applicata. La tabella sopra riportata
mostra un esempio in cui sono utilizzati 5 GCP. Basandosi sui punti dati (i,j) e (x,y), si può
determinare la seguente trasformazione:
x = 902,76 + 0,206i + 0,051 j
(7.5)
y = 152,579 − 0,044i + 0,199 j
(7.6)
Fig. 7.2 – Sistema di coordinate dell’immagine definite da righe e colonne (a) e sistema di coordinate mappate con assi
x e y (b)
Usando queste equazioni, è possibile calcolare le coordinate nell’immagine per ogni GCP singolo.
Nel fare questo, ovviamente non sarà possibile trovare gli esatti valori x e y nella tabella, dal
momento che i calcoli vengono effettuati solo sui primi tre decimali. Rimarrà quindi una differenza
182
tra i valori calcolati (xc,yc) e i valori reali, (x,y), perché la trasformazione è stata ottimizzata per dare
la migliore corrispondenza per l’insieme totale dei GCP. Le differenze risultanti (errori residui)
sono indicati con dx e dy. Gli errori residui possono essere usati per individuare quali siano i GCP
che danno il maggiore contributo nel calcolo dell’errore; questo potrebbe significare, per esempio,
che un GCP è stato scelto male. L’accuratezza totale della trasformazione viene espressa di solito
attraverso l’errore quadratico medio (errore RMS, Root Mean Square), che calcola il valore medio
dai residui individuali. L’errore quadratico medio in direzione x, indicato con mx, viene calcolato
usando la formula seguente:
1 n
δxi2
∑
n i =1
mx =
(7.7)
Per la direzione y, viene usata una equazione simile per il calcolo di my. L’errore complessivo,
indicato con mtot, viene calcolato come:
mtotal = m x2 + m y2
(7.8)
L’errore quadratico medio è un metodo per valutare l’accuratezza della trasformazione. Va detto
però che tale errore non tiene conto della distribuzione spaziale dei GCP e che il suo valore è valido
solo per la zona individuata dai GCP stessi. Nella scelta dei GCP, è consigliabile includere punti
che siano vicini ai bordi dell’immagine.
Il numero di punti di controllo minimo per effettuare la rettifica dipende dall’ordine della
trasformazione ed è espresso da :
N GCP =
(n + 1)(n + 2)
2
(7.9)
dove n è il grado del polinomio utilizzato.
7.2.2 La geocodifica
La sezione precedente ha mostrato come sia possibile correlare tra di loro dei sistemi di coordinate
bidimensionali, come quelli di un’immagine e di una mappa geografica. L’approccio di
georeferenziazione è utile in molti casi; tuttavia, vi sono un certo numero di situazioni in cui è
preferibile adottare l’approccio della geocodifica, nel quale la griglia dell’immagine viene anche
trasformata. La geocodifica diventa necessaria quando si vogliono combinare più immagini in
un’immagine unica, o quando le immagini che contengono i dati sono usate in un sistema GIS, che
richiede che tutti i dati vengano immagazzinati nello stesso sistema di coordinate.
La geocodifica è un processo di georeferenziazione con successivo ricampionamento dell’immagine
raster. Questo significa che una nuova immagine raster viene definita lungo gli assi x,y della mappa
di proiezione selezionata. In pratica la geocodifica consiste nell’assegnare delle coordinate mappa al
dato immagine in modo che quest’ultimo sia sovrapponibile con carte topografiche e tematiche.
Il processo di geocodifica comprende due passi principali:
- Ogni nuovo elemento dell’immagine raster viene proiettato (usando i parametri di
trasformazione) sull’immagine originale;
- Viene determinato e successivamente immagazzinato un valore di DN per il nuovo
pixel.
Per ottenere la geocodifica si effettuano le operazioni di rettifica e di campionamento.
La rettifica consente di trasformare la griglia (righe e colonne) di un dato origine in un nuovo
reticolo mediante l’uso di polinomi. Si effettua individuando una serie di punti di controllo (GCP)
ricavabili da una cartografia accurata (Map to Image Geocoding) o da un’immagine di riferimento,
già precedentemente geocodificata (Image to Image Geocoding). Nel processo di correzione i punti
di controllo sono definiti come coordinate geografiche (U.T.M) e come punti di coordinate
dell’immagine (pixel) espressi in righe e colonne. Associando, quindi, un punto cartografico ad un
183
punto immagine è possibile ricavare i coefficienti utilizzati per la trasformazione polinomiale
propria della rettifica. Applicando tale trasformazione al dato di origine si ottiene un prodotto
geometricamente corretto e definito in termini di coordinate cartografiche. I polinomi utilizzati
possono essere di vario ordine a seconda della qualità della correzione di sistema che ha subito il
dato grezzo.
L’ortorettifica è una correzione di precisione che tiene conto delle distorsioni dovute al rilievo (è
necessario l’utilizzo di DEM). La distorsione dovuta al rilievo al margine della scena per immagini
LandSat è di circa 10 m per ogni 100 m di altitudine al di sopra dell’elevazione media della scena e
di 4 m per le immagini SPOT a ripresa nadirale.
Dato che l’orientazione e la dimensione delle immagini raster originale (di ingresso) e richiesta (di
uscita) sono diverse, non c’è una relazione esclusiva di corrispondenza uno-a-uno tra gli elementi
(pixel) delle immagini. Di conseguenza, è necessario utilizzare dei metodi di interpolazione per
prendere una decisione riguardo il nuovo valore di ogni pixel. Esistono diversi metodi di
ricampionamento, tra i quali i più comuni sono:
- Il vicino più prossimo o nearest neighbour; il valore di radianza del pixel nella griglia di
output coincide con il valore di radianza del pixel della griglia di input ad esso più
vicino. Questo metodo, sebbene mantenga inalterati i valori di radianza dei pixel
dell’immagine originaria, fornisce una scarsa accuratezza geometrica;
- L’interpolazione bilineare o bilinear interpolation: in esso il valore di radianza del pixel
della griglia di output viene ricavato tramite interpolazione dei valori di radianza dei
quattro pixel della griglia di input più vicini ad esso;
- La convoluzione cubica o cubic convolution: il valore di radianza del pixel della griglia
di output viene ricavato tramite interpolazione dei valori di radianza dei 16 pixel della
griglia di input che si trovano nel suo intorno; questo metodo causa una forte
trasformazione dei valori di radianza dell’immagine, agendo come un filtro passa basso.
La scelta del tipo di algoritmo di ricampionamento dipende, tra altre cose, dal rapporto tra la
dimensione dei pixel di input e di output e dallo scopo del ricampionamento stesso.
Fig. 7.3 – Principio di ricampionamento: vicino più prossimo (in alto) e interpolazione bilineare (in basso)
184
Fig. 7.4 – Un’immagine radar originale (in alto), georeferenziata (al centro) e geocodificata (in basso)
185
7.3 Le correzioni radiometriche
Servono a calibrare i sensori, eliminare gli errori dovuti al loro cattivo funzionamento e ridurre
l’influenza dello strato di atmosfera interposto tra sensore e terra. Possono essere divise in:
-
Calibrazione radiometrica
Equalizzazione del sensore
Ripristino di linee e pixel saltati
Correzione atmosferica
7.3.1 La calibrazione radiometrica
Serve a trasformare il valore del DN in una grandezza fisica assoluta che molto spesso è la radianza.
Lλ[Wm-2sr-1mm-1]
guadagno
rumore
0
255
La funzione lineare utilizzata è del tipo:
Lλ = rumoreλ + DN λ × guadagnoλ
(7.10)
7.3.2 L’equalizzazione del sensore
Nei sistemi a scansione ottico - meccanica, ad ogni oscillazione dello specchio il singolo rivelatore
registra una linea di pixel. Per varie cause, può accadere che le funzioni di trasferimento dei dati dal
sensore al registratore non siano identiche per tutti i rivelatori. Questo comporta un effetto di
striatura regolare nell'immagine (striping), visibile soprattutto sulle superfici omogenee quali ad
esempio la neve e l’acqua.
Tale effetto può essere ridotto mediante l'uso di dati di calibrazione di bordo o attraverso tecniche
statistiche, come quella riassunta nella formula seguente, che fornisce il nuovo valore del DN in
funzione del vecchio ritenuto alterato:
DN ( c ) = DN ( c )
S
S
+ M − Mi
Si
Si
(7.11)
dove M i e S i sono la media e la deviazione standard relative alle righe del rivelatore, mentre M ed
S sono la media e la deviazione standard di tutta l’immagine.
186
Fig. 7.5 – Effetto di striatura regolare dell’immagine (striping)
7.3.3 Linee e pixel saltati
Può accadere che durante la scansione di una scena da satellite, per cadute di tensione o per perdite
del segnale, si presentino degli errori sulle immagini, costituiti di solito da delle righe nere o
uniformemente grigie (Drop Line) o da pixel con valori anomali.
Fig. 7.6 – Linee di pixel saltati in un’immagine
Per la correzione di questi disturbi si usano tecniche abbastanza semplici:
- nel caso di un pixel saltato, il suo valore viene sostituito con la media di quelli vicini,
prendendo in esame finestre di 3×3 o 5×5
- quando invece l'errore riguarda un'intera linea, essa si sostituisce con i valori della linea
precedente o di quella successiva oppure con la media di queste; i valori risultanti sono
ovviamente artefatti ma vengono inclusi nei dati originali senza che questi ultimi ne
vengano compromessi.
187
Esistono anche metodi più complessi che si basano sulla correlazione tra i valori del pixel in altre
bande eventualmente disponibili.
7.3.4 La correzione atmosferica
Fig. 7.7 – Definizione di radianza, radianza di ritorno, irradianza e irradianza alla superficie
I gas atmosferici, gli aerosol ed i vapori contribuiscono ad assorbire, diffondere e rifrangere la
radiazione solare diretta e riflessa dalla superficie terrestre, inteferendo con la corretta stima delle
caratteristiche dell’onda che porta informazione sull’oggetto osservato. È dunque opportuno cercare
di risalire alle caratteristiche originali dell’onda depurando il DN ricevuto dagli effetti di tale
interferenza; questa procedura si chiama correzione atmosferica. I metodi di correzione atmosferica
delle immagini si dividono in due grossi gruppi a seconda che si disponga o meno di dati sulle
condizioni atmosferiche al tempo di acquisizione dell’immagine. Brevemente si tratta di risolvere la
seguente equazione che consente di ricavare la riflettanza spettrale della superficie terrestre a livello
del suolo:
π L sλ d 2
ρs =
E gλ cos(θ s )
(7.12)
dove:
Lsλ è la radianza a livello della superficie;
E gλ è l’irradianza solare a livello della superficie;
ϑs è l’angolo zenitale del Sole;
d è la distanza Terra-Sole in unità astronomiche.
- Si risale alla radianza Lsλ e all’irradianza Egl a livello della superficie modellando il
trasporto della radiazione solare attraverso l’atmosfera.
- I parametri significativi sono la trasmittanza (trasparenza) e la radianza dell’atmosfera.
- Entrambi questi parametri danno contributi parassiti alla radianza al sensore, il primo
negativo ed il secondo positivo; tali contributi vanno compensati.
188
Fig. 7.8 – Trasporto della radiazione solare attraverso l’atmosfera
Per fare questo tipo di correzioni si possono seguire diverse procedure, in funzione della
disponibilità di dati sulle caratteristiche dell’atmosfera all’epoca di acquisizione dell’immagine. Le
metodologie più accurate sono quelle che ricorrono a modelli estesi all’intera colonna atmosferica
che, per essere calibrati, necessitano di alcuni dati sulle condizioni atmosferiche (temperatura
dell’aria, umidità, visibilità, ecc.). Tra questi modelli, i più conosciuti sono i codici 6S, Lowtran e
Modtran, che forniscono valori accurati della trasmittanza e della radianza atmosferica per calcolare
Lsλ ed Egλ.
Metodi meno accurati, ma comunque molto usati poiché non necessitano di alcuna misura sui
parametri atmosferici, sono quelli che derivano informazioni sulle caratteristiche ottiche
dell’atmosfera a partire dall’immagine medesima.
Pixel nero (Dark Pixel)
Tra i metodi che non richiedono misure atmosferiche, il più conosciuto è senz’altro quello
denominato “dark pixel” (pixel nero). Questo pixel si trova in corrispondenza di un oggetto che, per
sua natura, è molto poco riflettente, per cui si ipotizza che la radianza registrata dal sensore in
corrispondenza di questo pixel sia relativa alla sola atmosfera.
A partire da questo dato esistono diversi metodi che permettono di determinare la trasmittanza e la
radianza dell’atmosfera: il più semplice assume la trasmittanza uguale ad uno e la radianza
dell’atmosfera uguale alla radianza del dark pixel.
I “dark pixel” comunemente usati per queste correzioni sono le acque oligotrofiche (bassa
riflettività nel visibile) e le foreste di conifere (bassa riflettività nelle bande del blu e rosso).
Problemi del pixel nero
- Non tiene conto della variazione spaziale dell’atmosfera.
- I pixel veramente “neri” sono molto rari, e quelli neri su tutte le bande ancor di più.
- Quando non si hanno pixel neri soddisfacenti, si ricorre ad altre tecniche che non
richiedono la conoscenza dei parametri atmosferici bensì solo alcune assunzioni.
Fig. 7.9 – La correzione atmosferica
189
- Se la diffusione atmosferica e l’illuminazione sono spazialmente variabili, ma diversi da
banda a banda solo per un fattore moltiplicativo, allora
M 2 ( x, y ) = cM 1 ( x, y )
(7.13)
A2 ( x, y ) = cA1 ( x, y )
(7.14)
A questo punto, dividendo (pixel per pixel) una banda per l’altra si ottiene una nuova immagine
I 3 ( x, y ) =
I 1 ( x, y ) M 1 ( x, y ) F1 ( x, y ) + A1 ( x, y )
M 1 ( x, y ) F1 ( x, y ) + A1 ( x, y )
=
=
I 2 ( x, y ) M 2 ( x, y ) F2 ( x, y ) + A2 ( x, y ) cM 1 ( x, y ) F2 ( x, y ) + cA1 ( x, y )
(7.15)
Se la radianza atmosferica si può assumere nulla, allora
A1 ( x, y ) = A2 ( x, y ) = 0
(7.16)
e, di conseguenza, si ottiene
I 3 ( x, y ) =
I 1 ( x, y )
F ( x, y )
= 1
I 2 ( x, y ) cF2 ( x, y )
(7.17)
La nuova immagine sarà insensibile alle variazioni sia di illuminazione sia di condizioni
dell’atmosfera (naturalmente nella misura in cui sono valide le assunzioni di partenza).
190
CAPITOLO 8
MIGLIORAMENTO E VISUALIZZAZIONE DELLE IMMAGINI
8.1 Introduzione
Le tecniche di elaborazione delle immagini telerilevate possono essere classificate secondo le
seguenti diverse finalità:
Miglioramento delle immagini. Sono le elaborazioni che hanno lo scopo di migliorare
l’interpretabilità visiva delle immagini, ad esempio variando il contrasto o la forma degli
istogrammi, variando la codifica in colori dei dati, evidenziando i contorni tra oggetti diversi o
diminuendo la variabilità in aree omogenee.
Ricostruzione delle immagini. Sono le elaborazioni che hanno lo scopo di eliminare gli errori e gli
artefatti provocati dal sistema di ripresa ricostruendo la scena osservata a partire dall’immagine
corretta. Ricordiamo in questa classe le tecniche di filtraggio di rumore, di miglioramento della
focalizzazione, di eliminazione degli effetti del movimento del soggetto, etc. Nel caso in cui il
sistema di ripresa sia lineare esso determina una convoluzione tra la sua risposta impulsiva e la
scena osservata ed allora ricadono in questa classe tutte le tecniche di deconvoluzione ed i filtraggi
che rimuovono il rumore di tipo aleatorio o le interferenze note dalla teoria di elaborazione
numerica dei segnali ( ad esempio il filtro di Wiener ) .
Interpretazione delle immagini. Sono le elaborazioni che hanno lo scopo di determinare, per ogni
pixel dell’ immagine, una “etichetta” che ne descrive una qualche proprietà. Ad esempio ricadono
in questa classe le tecniche di individuazione e riconoscimento delle forme e delle strutture
(“pattern recognition”), di segmentazione delle immagini, ovvero assegnazione di una classe di
appartenenza a tutti i pixel dell’ immagine. Se pure non ricadono propriamente nell’ambito della
disciplina di “elaborazione delle immagini” nel caso di immagini telerilevate si fanno rientrare in
tale ambito con una accezione più ampia anche elaborazioni finalizzate a:
-
Controllo di qualità. Hanno lo scopo di determinare la qualità del dato acquisito o certificare
quella del prodotto telerilevato che deve essere fornito all’utente finale. Ad esempio nei
sensori operanti nel visibile e nell’infrarosso servono a determinare il grado di copertura
nuvolosa presente nella scena.
- Correzioni geometriche. Sono le elaborazioni che hanno lo scopo di riproiettare le immagini
rispetto ad un sistema di riferimento sulla superficie terrestre, compensando le distorsioni
indotte dal sistema di ripresa, ed in particolare dal meccanismo di scansione.
- Correzioni radiometriche. Sono le elaborazioni che hanno lo scopo di determinare, a partire
dal segnale numerico quantizzato fornito dal sensore di telerilevamento, una grandezza
fisica che rappresenta una proprietà radiativa dell’oggetto osservato. Ad esempio
permettono di ricavare, a partire dal segnale in uscita del rilevatore, la temperatura di
brillanza che incide sull’antenna di un radiometro a microonde oppure l’emissività della
superficie del terreno osservata. Ancora, nel caso di un sensore elettroottico, permettono di
determinare, a partire dal segnale elettrico in uscita all’elemento fotosensibile, la radianza
del pixel oppure, valutando l’irradianza dovuta al sole, la sua riflettività. In genere le
correzioni radiometriche includono la calibrazione interna ed esterna del sistema di misura,
le correzioni degli effetti dell’atmosfera, la determinazione delle condizioni di illuminazione
dell’oggetto osservato tenendo conto, nel caso più complesso, della pendenza e
dell’elevazione della porzione di superficie considerata.
In più di un’occasione durante il processo di telerilevamento capita di avere la necessità di
visualizzare le immagini, come ad esempio quando si deve effettuare la georeferenziazione. Dal
191
momento che spesso il telerilevamento si occupa di dati multispettrali, ci occupiamo qui della
visualizzazione delle immagini a colori. Una comprensione del modo in cui l’occhio umano
percepisce il colore si rende necessaria a due diversi livelli del processo di telerilevamento. In primo
luogo, è necessario per produrre delle ‘fotografie’ ottime a partire dalle immagini (multispettrali)
dei dati telerilevati sullo schermo del computer. Dopo di che, la teoria della percezione dei colori
gioca un ruolo importante nella successiva interpretazione di tali immagini.
8.2 La percezione del colore
La percezione del colore avviene nell’occhio umano e nella parte ad esso associata del cervello
umano. Con questo termine si intende la nostra abilità nel riconoscere e distinguere i colori, che a
loro volta, ci permettono di riconoscere e distinguere le entità del mondo reale. Non è
completamente noto come funzioni il meccanismo della vista umana, o cosa accada esattamente
negli occhi e nel cervello prima che qualcuno decida, per esempio, che un oggetto è blu. Alcuni
modelli teorici, supportati da risultati scientifici, comunque, sono generalmente accettati.
8.2.1 Modello tri-stimolo
La sensibilità generale dell’occhio è a lunghezze d’onda tra 400 e i 700 nm. Lunghezze d’onda
diverse all’interno di questo intervallo vengono percepite come diversi colori.
La retina nei nostri occhi ha coni (recettori sensibili alla luce) che mandano segnali al cervello
quando vengono colpiti da fotoni che corrispondono a diverse lunghezze d’onda nell’intervallo del
visibile dello spettro elettromagnetico. Ci sono tre diversi tipi di coni, che corrispondono alle
lunghezze d’onda del blu, del verde e del rosso rispettivamente. I segnali mandati dal nostro
cervello da questi coni e le differenze tra essi, ci danno le sensazioni del colore. Oltre ai coni
abbiamo i bastoncelli, che non contribuiscono alla visualizzazione del colore e possono operare con
meno luce rispetto ai coni. Per questa ragione, gli oggetti appaiono meno colorati in condizioni di
poca luce. Gli schermi delle televisioni a colori e i monitor dei computer sono composti da un
grande numero di piccoli punti organizzati in una configurazione regolare di tre elementi: un
puntino rosso, uno verde e uno blu. Ad una distanza normale dallo schermo non siamo in grado di
distinguere i puntini. I cannoni elettronici per il rosso, il verde e il blu sono posizionati nella parte
finale del tubo. Il numero di elettroni eccitati dai cannoni ad una certa distanza determinano la
quantità di luce (rossa, verde, blu) emessa da quella posizione. Tutti i colori visibili su tale schermo
sono creati dalla combinazione di diverse quantità di rosso, verde e blu. Questa combinazione
avviene nel nostro cervello. Quando vediamo luce gialla monocromatica (cioè con una lunghezza
d’onda ben precisa, per esempio, 570 nm), noi riceviamo la stessa impressione che abbiamo quando
vediamo una combinazione di rosso (700 nm) e verde (530 nm). In entrambi i casi, i coni vengono
stimolati nello stesso modo. In base a questo modello, sono necessari e sufficienti tre diversi tipi di
punti.
Fig. 8.1 – Intervallo visibile dello spettro elettromegnetico che include le curve di sensibilità dei coni e dei bastoncelli
dell’occhio umano
192
8.2.1.1 Lo spazio dei colori
Il modello di percezione dei colori sopra riportato è generalmente accettato. Questo significa che ci
sono tre gradi di libertà nella descrizione di un colore. Per descrivere e definire i colori vengono
usati vari spazi tridimensionali tra i quali ricordiamo i seguenti:
- Spazio “Red Green Blue” (RGB) basato sul principio additivo dei colori;
- Spazio “Intensity Hue Saturation” (HSI), cioè di saturazione dell’intensità del colore, che è
quello più vicino alla nostra percezione intuitiva del colore;
- Spazio Yellow Magenta Cyan (YMC) basato sul principio sottrattivo del colore.
8.2.1.2 RGB
La definizione RGB dei colori ha attinenza diretta con il modo di funzionamento dei monitor di
computer e televisioni. In ingresso al monitor ci sono tre canali (RGB) direttamente correlati ai
punti rossi, verdi e blu. Quando guardiamo al risultato, il nostro cervello combina gli stimoli che gli
giungono dai punti rossi, verdi e blu e ci permette di percepire tutti i colori possibili nella zona dello
spettro del visibile. Durante questa combinazione, i colori vengono sommati. Quando i punti verdi
sono illuminati in aggiunta a quelli rossi, vediamo il giallo. Questo principio è noto come schema
additivo dei colori. La Fig. 8.2 (a) mostra i colori additivi provocati dall’insieme della luce dal
rosso, dal verde e dal blu che emettono su un muro bianco in una stanza buia. Quando ci sono solo
le luci rosse e verdi, il risultato è il giallo. Nell’area centrale, dove vi sono quantità uguali delle tre
illuminazioni, noi percepiamo il bianco.
Fig. 8.2 – Confronto tra lo schema additivo (a) e sottrattivo (b) dei colori
Nello schema additivo, tutti i colori visibili possono essere espressi come combinazioni di rosso,
verde e blu, e possono quindi essere rappresentati in uno spazio tridimensionale con R, G, B lungo
gli assi. Lo spazio è limitato dai valori massimo e minimo (delle intensità) per il rosso, il verde e il
blu; in questo modo si definisce il cubo dei colori, come si può vedere nella Fig. 8.3.
Fig. 8.3 – Il cubo RGB; si noti che i colori rosso, verde e blu si trovano sugli assi
193
Nella legge additiva,si ha che:
-
B+G+R=Bianco;
B+G=Ciano;
B+R=Magenta;
G+R=Giallo
Nella legge sottrattiva, invece, si ha che:
-
White -B=Giallo;
White -G=Magenta;
White -R=Ciano;
White -G-B-R= Nero.
8.2.2 IHS
Nel linguaggio quotidiano noi non esprimiamo i colori per mezzo del sistema RGB. Il sistema HSI,
che si riferisce all’intensità, al colore e alla saturazione, riflette più naturalmente le nostre effettive
sensazioni riguardo al colore.
L’intensità descrive in che misura un colore è luminoso o scuro.
La tinta (Hue) si riferisce al nome che diamo al colore (rosso, verde, blu, giallo, arancione,
eccetera).
La saturazione descrive un colore in termini di opacità o vivacità. I colori pastello hanno bassa
saturazione, e il grigio ha saturazione zero.
Come nel modello RGB, anche qui sono sufficienti tre gradi di libertà per descrivere il modello.
La Fig. 8.4 illustra la corrispondenza tra i sistemi RGB e IHS; benchè il modello matematico sia
complicato, la descrizione è di fatto più naturale. Per esempio, “luce rosso chiaro” è più facile da
immaginare di “tanto rosso con delle quantità considerevoli di verde e blu”. Il risultato è comunque
lo stesso. Dato che il modello IHS ha a che fare con la percezione del colore, che è in qualche modo
soggettiva, non esiste un accordo totale tra le definizioni. Viene definita intensità la somma dei
valori R, G e B. Sulla diagonale principale del cubo dei colori (R = G = B), andando dal bianco al
nero, dove troviamo tutte le tonalità di grigio, la saturazione è pari a 0. Ai lati rosso-verde, verdeblu, e blu-rosso del cubo (questi sono i lati che contengono l’origine) la saturazione è massima
(100%). Se consideriamo i colori come miscele (additive) di un colore (saturato) e di grigio, la
saturazione è la percentuale del colore nella miscela. Per esempio, (R, G, B) = (100, 40, 40) è una
mescolanza del colore saturato (60,0,0,) e del tono di grigio (40, 40, 40). Di conseguenza, la
saturazione è 60/100 = 60%. Per definire la tinta di un colore, guardiamo nel piano, perpendicolare
alla diagonale principale, che contiene il colore. In quel piano, possiamo ruotare di 360°,
rispettivamente guardando verso il rosso, il giallo, il verde, il cyan,il blu, il magenta e tornando
quindi al rosso. L’angolo a cui si trova il nostro colore è la tonalità.
Fig. 8.4 – Relazione tra gli spazi di colori RGB e IHS
194
8.3 La visualizzazione delle immagini
In questa sezione introduciamo alcuni metodi per visualizzare immagini a singola banda o
multibanda. Cominciamo però fornendo una descrizione del concetto di istogramma, che ha un
ruolo cruciale nella realizzazione del contrasto ottimo delle immagini.
8.3.1 L’istogramma
L’istogramma di un’immagine fornisce un numero elevato di caratteristiche importanti di
un’immagine a singola banda, come un’immagine satellitare pancromatica, o una singola banda di
un’immagine multispettrale.
L’istogramma descrive la distribuzione del valore dei pixel (Digital Numbers, DN) dell’immagine
considerata. Indicando con Q il numero di bit utilizzati per rappresentare ciascun pixel
dell’immagine, il numero di valori che può assumere ciascun pixel è 2Q.
Nel caso più comune, l’intervallo di variazione per il valore dei pixel va da 0 a 255. L’istogramma
indica il numero di pixel per ogni valore compreso in questo intervallo. In altre parole,
l’istogramma contiene le frequenze dei valori di DN in un’immagine. I dati di un istogramma
possono essere visualizzati sia in forma di tabella sia di grafico. La rappresentazione tabulare
normalmente mostra cinque colonne. Da sinistra a destra queste sono:
- DN: Digital Number, nell’insieme [0,....,255]
- Npix: il numero di pixel nell’immagine che hanno quel valore di DN (frequenza)
- Perc: frequenza come percentuale del numero totale di pixel dell’immagine
- CumNpix: numero cumulativo dei pixel dell’immagine con valori di DN minori o uguali
a DN
- CumPerc: frequenza cumulativa come percentuale del numero totale di pixel
dell’immagine
I dati dell’istogramma possono essere riassunti in alcune caratteristiche statistiche: media,
deviazione standard, minimo e massimo.
La deviazione standard è una misura statistica della variazione dei valori attorno alla media.
Oltre alla distribuzione di frequenza, esiste la rappresentazione grafica che mostra la frequenza
cumulativa. La frequenza cumulativa mostra la percentuale di pixel con DN che sono minori o al
massimo uguali al valore dato.
195
Fig. 8.5 – Esempio di istogramma in formato tabulare (in alto) e riassunto delle statistiche di tale istogramma (in basso)
Fig. 8.6 – Istogramma standard e istogramma cumulativo corrispondente alla tabella riportata nella figura precedente
196
Nel caso di immagini a più componenti (per es. Immagini a colori), si possono utilizzare due
approcci:
- Calcolare l’istogramma per ogni componente cromatica (es. R,G,B)
- Calcolare un unico istogramma, considerando tutti i colori possibili (224 per immagini RGB
con 8 bit per componente) oppure solamente un sottoinsieme significativo (quantizzazione
vettoriale dello spazio cromatico)
8.4 Visualizzazione di immagini monobanda
L’istogramma viene utilizzato per ottenere la migliore visualizzazione possibile delle immagini
monobanda. Tali immagini vengono solitamente visualizzate usando una scala di grigi. Le
sfumature di grigio del monitor di solito vanno dal nero (valore 0) al bianco (valore 255). Quando si
applicano le sfumature di grigio, lo stesso segnale viene dato in ingresso a ciascuno dei tre canali
RGB del monitor del computer.
Se si utilizzano i valori originali dell’immagine per controllare i valori del monitor in genere si
ottiene un’immagine con un contrasto leggero dato che vengono utilizzati solo un numero limitato
di valori di grigio. Nell’esempio introdotto nella sezione precedente venivano utilizzati solo 17314=159 livelli di grigio. Per ottimizzare il numero di livelli di grigio, una funzione di trasferimento
mappa i valori di DN in sfumature di grigio del monitor. La funzione di trasferimento può essere
scelta in un certo numero di modi: lo stiramento per contrasto lineare viene ottenuto trovando i
valori di DN dove l’istogramma cumulativo dell’immagine passa tra l’1% e il 99%. I DNs sotto
l’1% diventano neri (0), mentre i DN al di sopra del 99% diventano bianchi (255), e i livelli di
grigio per i valori intermedi vengono trovati per interpolazione lineare. L’equalizzazione
dell’istogramma, o stiramento dell’istogramma, modella la funzione di trasferimento tenendo conto
dell’istogramma cumulativo. Come risultato di questa operazione, i DNs nell’immagine vengono
distribuiti più uniformemente possibile su tutti i toni di grigio.
197
Fig. 8.7 – Immagine multibanda visualizzata su un monitor usando I canali di input al monitor rosso, verde e blu
Un modo alternativo per visualizzare i dati in singola banda è quello di usare una tavola di
miglioramento in pseudo-colori. L’uso degli pseudo-colori è utile specialmente per visualizzare i
dati che non sono misurazioni di riflettività. Con i dati dell’infrarosso termico, per esempio,
l’associazione di freddo-caldo con blu-rosso è più intuitivo che con la luce scura.
8.4.1 I colori compositi
Quando si ha a che fare con immagini multibanda ogni combinazione di tre bande può, in principio,
essere usata come ingresso per i canali RGB del monitor. Per aumentare il contrasto, le tre bande
possono essere soggette allo stiramento lineare del contrasto o all’equalizzazione dell’istogramma.
Talvolta si usa fare una composizione a colori veri, quando i canali RGB si riferiscono a bande con
lunghezze d’onda centrali vicine a quelle del rosso, del verde e del blu rispettivamente. Una scelta
abbastanza comune è quella di collegare i canali RGB alle bande del vicino infrarosso, del rosso e
del verde rispettivamente, per ottenere una composizione in falsi colori. La caratteristica più
impressionante della composizione in falsi colori è che la vegetazione appare di un colore rosso
purpureo. Nella parte visibile dello spettro, le piante riflettono soprattutto la luce verde (questa è la
ragione per cui le piante appaiono verdi), ma la loro riflessione nell’infrarosso è anche più alta.
Quindi la vegetazione in una composizione in falsi colori viene mostrata come una combinazione di
vari blu ancora più che di rossi, che risultano in una più rossa tonalità di porpora.
A seconda delle applicazioni, si possono usare delle combinazioni di bande diverse. Le categorie
per l’uso del suolo possono essere distinte abbastanza bene assegnando una combinazione di bande
TM del Landsat (5-4-3 o 4-5-3). Le combinazioni che mostrano il vicino infrarosso come verde
mostrano la vegetazione di un colore verde e sono chiamate composizioni in colori pseudo-naturali.
Fig. 8.8 – Imagine Landsat di Pavia e dintorni visualizzata in due modi diversi; a sinistra (Bande 4-3-2) si nota che gli
edifici risultano più evidenti, a destra (Bande 4-5-2) invece si notano due coperture vegetali diverse
198
Fig. 8.9 – Composizione di un’immagine Landsat in tre diversi modi: colori naturali, pseudo naturali e falsi colori; sono
possibili anche altre combinazioni
8.5 Tecniche di enfatizzazione delle immagini
L’enfatizzazione o enhancement delle immagini è un insieme di tecniche che vengono utilizzate per
migliorare l’aspetto delle immagini al solo scopo di facilitarne l’interpretazione visiva. Queste
tecniche vengono divise in due gruppi:
- Quelle che non modificano i valori dei pixel dell’immagine originale, tra cui ricordiamo la
visualizzazione in pseudocolori e la composizione in falsi colori;
- Quelle che agiscono sui DN, modificandone i valori e inficiandone quindi il significato
radiometrico, tra cui ricordiamo lo stiramento (stretch) e i filtri.
La visualizzazione in pseudocolori si applica ad una sola banda e si basa su delle modifiche nella
forma delle funzioni di trasferimento relative ai tre colori primari.
Fig. 8.10 – Funzioni di trasferimento relative ai tre colori primari
199
La composizione in falsi colori crea una nuova immagine dove ai tre canali RGB associa tre diverse
immagini ognuna delle quali acquisita in una differente banda spettrale:
Fig. 8.11 – Composizione in falsi colori
Ai tre colori possono essere associate diverse bande; una delle composizioni più usate è quella con
le seguenti associazioni:
NIR -> rosso
Rosso -> verde
Verde -> blu
Esiste anche una composizione detta in colori reali, dove ai tre colori sintetici vengono associate le
tre bande relative alle stesse lunghezze d’onda dei colori.
8.5.1 Lo stiramento (stretch)
In molte scene, i valori dei pixel occupano solo una piccola porzione dell'intervallo dei valori
possibili. Se queste venissero visualizzate nella forma originale, si otterrebbero delle immagini
molto poco contrastate, dove oggetti simili radiometricamente risulterebbero non distinguibili. La
tecnica utilizzata per il miglioramento del contrasto consiste nell'applicazione di un algoritmo di
trasformazione che permette di espandere l'intervallo dei livelli di grigio registrati nell'immagine
originale, fino a coprire tutto l'intervallo dei valori possibili.
200
Fig. 8.12 – Equalizzazione dell’istogramma
201
8.5.1.1 L’enfatizzazione del contrasto lineare
Un’espansione lineare coinvolge il calcolo del limite inferiore e superiore dell’istogramma
(normalmente, il minimo e il massimo valore di luminosità dell’immagine) e porta a trasformare
questo intervallo di valori nel pieno intervallo dei possibili valori d’immagine.
Fig. 8.13 – Espansione lineare
L’equazione dell’espansione lineare è:
y = f ( x) = ax + b
(8.1)
Fig. 8.14 - L’espansione lineare dell’istogramma
Tale enfatizzazione non provoca variazioni della forma dell’istogramma preservando così i valori di
riflettanza originale.
202
DN ' =
DN − MIN
⋅ 255
MAX − MIN
(8.2)
8.5.1.2 L’enfatizzazione del contrasto logaritmica ed esponenziale
Fig. 8.15 – Diagrammi dell’enfatizzazione logaritmica ed esponenziale del contrasto
Si nota chiaramente dai grafici come l’enfatizzazione logaritmica sia idonea per evidenziare i bassi
livelli di grigio (zone d’ombra), mentre quella esponenziale enfatizza i livelli di grigio più alti.
8.5.2 L’equalizzazione
Se l’intervallo dei valori di grigio non è uniformemente distribuito, si può usare un’equalizzazione.
Equalizzare l’istogramma significa cercare una trasformazione tale da rendere la distribuzione del
nuovo istogramma il più possibile vicina ad una distribuzione uniforme. Si assegna un intervallo di
più valori alle porzioni dell’istogramma che si presentano con maggior frequenza in ingresso,
riducendone perciò la frequenza in uscita. In questo modo, il dettaglio in queste aree sarà reso più
visibile rispetto a quelle aree dell’istogramma originale i cui valori ricorrono meno frequentemente.
Il risultato dell’equalizzazione è ben diverso da quello dell’espansione lineare. Alcune cose si
vedono meglio, ma altre sono meno chiare. In pratica con tale intervento si tende a normalizzare
l’istogramma dell’immagine o della porzione dell’immagine sulla quale si intende operare; il
risultato ultimo è un’immagine con istogramma quasi uniforme in cui si ha una densità di pixel
quasi uniforme lungo l’asse dei DN (cioè lungo l’asse delle ascisse). Se quindi l’immagine contiene
N pixel e i valori di luminosità sono pari ad L, l’equalizzazione tende ad assegnare N/L pixel a
ciascun livello di grigio. Indicando con h(y) l’altezza di una barra dell’istogramma dell’immagine
finale in funzione del DN ad essa riferito, si ha che la variazione di tali altezze lungo l’asse dei DN
(ascisse) è, nel caso di un’equalizzazione :
ho ( y )dy = N L
ma
dy =
L −1
L
(8.3)
(8.4)
di conseguenza:
N
(8.5)
L −1
Poichè il numero di pixel nell’intervallo da y a y+dy dell’immagine di output è uguale a quello nel
range da x a x + dx, è lecito scrivere:
ho ( y ) =
ho ( y ) = hi ( x)dx
203
(8.6)
Segue
L −1
hi ( x)dx
N ∫
che rappresenta l’algoritmo utilizzato durante l’equalizzazione.
y = f ( x) =
(8.7)
Fig. 8.16 – Equalizzazione dell’istogramma
Sostanzialmente, da un dato valore x1 (livello di grigio di input) nelle ascisse del diagramma
cumulativo si legge il corrispondente y nelle ordinate per poi moltiplicarlo per il fattore di scala; il
risultato è il valore di grigio yo nell’immagine di output. Poichè il risultato di tale operazione spesso
non porta a numeri interi, si assegna la barra dell’istogramma relativa al valore x1 di input al DN
intero più prossimo al risultato yo, e ciò comporta una non perfetta normalizzazione del grafico
originario. Una maggiore normalizzazione si ha assegnando un L minore rispetto ai livelli di grigio
del dato di input.
L’equalizzazione non provoca perdita di informazione perché non si ha il taglio dell’istogramma
iniziale come nel caso del contrast stretch; essa determina, invece, una dispersione dei valori di
picco dell’istogramma originario in un range più ampio. Non è possibile utilizzarla su distribuzioni
bimodali con un picco marginale molto accentuato (ad esempio immagine nell’infrarosso NIR e
SWIR comprendente un’ampia porzione di mare).
8.5.3 Histogram Matching
Con questa operazione si cerca di rendere un’immagine radiometricamente simile ad un’altra. Il
processo consiste nel normalizzare l’istogramma iniziale e trasformarlo successivamente
nell’istogramma finale di forma desiderata, secondo l’espressione:
y = g −1 ( f ( x) )
(8.8)
dove f(x) è la funzione di normalizzazione dell’istogramma di input e g-1 è l’inverso della funzione
di normalizzazione dell’istogramma che si vuole ottenere. Il fattore di scala tipico
dell’equalizzazione viene ad elidersi qualora i grafici di input e di output presentino lo stesso
numero di pixel: in caso contrario esso diventa N2/N1 dove N2 è il numero di pixel dell’immagine
iniziale e N1 è il numero di pixel dell’immagine finale.
204
Fig. 8.17 – Le fasi dell’Histogram Matching
I passi necessari per effettuare l’Histogram Matching sono:
a. Viene creato il diagramma cumulativo di entrambe le immagini;
b. Si estrae dal diagramma cumulativo dell’immagine iniziale il valore delle ordinate relativo
ad un dato DN;
c. Questo valore viene letto nelle ordinate del diagramma cumulativo dell’immagine di
riferimento e si ricava il corrispondente DN’ dell’immagine finale.
Nel caso di immagini con numero di pixel differente si deve moltiplicare il valore ricavato in b per
N2/N1 prima di passare alla fase c.
8.5.4 Operazioni coi filtri
Sono operatori di convoluzione che agiscono su finestre (di solito 3×3 o 5×5) centrate su ogni pixel
dell’immagine. In un’operazione di convoluzione, il valore di ogni pixel viene sostituito con il
risultato di una o più operazioni aritmetiche, eseguite sull’elemento stesso e su quelli del suo
intorno.
Le operazioni di filtraggio sono trasformazioni locali dell’immagine: una nuova immagine viene
calcolata e il valore dei pixel dipende dai valori dei suoi vicini più prossimi. Le operazioni di
filtraggio vengono di solito effettuate su una banda singola. I filtri vengono usati per il
miglioramento spaziale delle immagini, per esempio per ridurre il rumore o per rendere nitide le
immagini confuse.
Fig. 8.18 – Ingresso e uscita di un’operazione di filtraggio: l’intorno di un pixel dell’immagine determina il valore di
uscita
Per definire un filtro viene utilizzato un kernel. Il kernel definisce i valori dei pixel di uscita come
una combinazione lineare dei valori dei pixel in un intorno della posizione corrispondente
nell’immagine di ingresso. Per un kernel specifico, il guadagno può essere calcolato come segue:
guadagno =
205
1
∑ ki
(8.9)
il guadagno è ottenuto come somma di tutti i coefficienti di kernel (ki); in generale la somma di tali
coefficienti, dopo la moltiplicazione per il guadagno, dovrebbe essere pari a 1 per dare luogo ad
un’immagine con approssimativamente lo stesso intervallo di valori di grigio. L’effetto provocato
dall’uso del kernel è mostrato in Fig. 8.18, che mostra come il valore di uscita sia calcolato in
termini di filtraggio medio.
Negli esempi riportati qui di seguito viene utilizzato un kernel 3×3, anche se in realtà possono
essere utilizzati kernel di altre dimensioni.
8.5.4.1 I filtri passa basso
Hanno come effetto la riduzione del contrasto, attenuando le variazioni di valore tra pixel contigui.
Ne esistono vari tipi ma il più comune è il filtro a media viaggiante, che sostituisce il valore di ogni
pixel con la media aritmetica di quelli contenuti nella finestra:
1/9 1/9 1/9
1/9 1/9 1/9
1/9 1/9 1/9
Fig. 8.19 – Kernel di un filtro passa basso
Questo tipo di filtro si chiama cosi perché dato che ogni segnale si può pensare come la
sovrapposizione di tante componenti, da quelle variabili lentissimamente a quelle che variano
rapidissimamente, un blocco (il filtro) che cancella le componenti rapide (mantenendo invece quelle
lente) può essere pensato come un oggetto che fa “passare” solo le componenti con una bassa
variabilità. Il filtro passabasso è fatto per enfatizzare le aree grandi ed omogenee nell’immagine e
ridurre i dettagli più fini. Perciò, questo filtro normalmente serve a smussare l’aspetto di una
immagine.
8.5.4.2 Il filtro passa alto
Al contrario del precedente, esalta le zone dove i valori subiscono bruschi cambiamenti. Anche per
questa famiglia di filtri esistono vari tipi; uno di questi applica una finestra come la seguente:
-1/9 -1/9 -1/9
-1/9 8/9 -1/9
-1/9 -1/9 -1/9
Fig. 8.20 – Kernel di un filtro passa alto
Un filtro passa alto lavora al contrario rispetto ad un filtro passa basso, permettendo solo alle
componenti ad alta variabilità di mantenersi. In questo modo, il filtro esalta le variazioni, i
cambiamenti, i contorni tra le diverse aree (che normalmente corrispondono a toni di grigio, cioè
valori, differenti).
8.5.4.3 Filtro direzionale
Si può pensare di produrre risultati in cui si rendono evidenti solo i dettagli fini relativi a
cambiamenti in una ben determinata direzione
-1 +2 -1
-1 +2 -1
-1 +2 -1
Fig. 8.21 – Kernel di un filtro direzionale
Va detto che ci sono infinite direzioni ed infinite possibilità. Le combinazioni possono portare a
filtri per la definizione dei dettagli verticali ed orizzontali insieme, il che normalmente porta ad una
maggiore visibilità dei contorni (utile, ad es., in ambito geologico).
206
8.5.5 Riduzione del rumore
Consideriamo il kernel mostrato sotto in cui tutti i coefficienti sono pari ad 1. Questo significa che i
valori dei nove pixel nell’intorno vengono sommati; successivamente, il risultato viene diviso per 9
per ottenere che i valori complessivi dei pixel nell’immagine di uscita siano nello stesso intervallo
di quelli dell’immagine di ingresso.
1 1 1
1 1 1
1 1 1
Fig. 8.22 – Kernel di un filtro per la riduzione del rumore
Ricordando che guadagno =
1
, si vede che per il filtro riportato sopra si ha un guadagno pari a
∑ ki
1 9 = 0,11 . L’effetto prodotto applicando questo filtro di media è che l’immagine diventa più
confusa o liscia. Quando si ha a che fare con gli effetti del rumore speckle delle immagini radar il
risultato che si ottiene applicando questo filtro è quello di ridurre lo speckle. Nel kernel riportato
sopra, tutti i pixel hanno uguale contributo nel calcolo del risultato. È anche possibile definire una
media pesata; per enfatizzare il valore del pixel centrale, si può mettere un valore maggiore nel
centro del kernel. Come risultato, si ha che avviene un offuscamento meno drastico. In più, è
necessario tenere in considerazione che i vicini orizzontali e verticali influenzano il risultato in
maniera più forte rispetto a quelli diagonali. Il kernel risultante, per cui il guadagno è 1/16=0,0625 è
mostrato sotto:
1 2 1
2 4 2
1 2 1
Fig. 8.23 – Kernel di un filtro che tiene maggiormente conto (tra i pixel dell’intorno del pixel considerato) dei pixel
orizzontali e verticali piuttosto che di quelli diagonali; questo tipo di appianamento è detto pesato
8.5.6 Miglioramento dei bordi
Un’altra applicazione del filtraggio è l’enfatizzazione delle differenze locali nei valori di grigio, per
esempio legati alle caratteristiche lineari come strade, canali, faglie geologiche, eccetera. Questo
viene fatto usando un filtro di enfatizzazione dei bordi, che calcola la differenza tra il pixel centrale
e i suoi vicini; ciò viene realizzato usando dei valori negativi per i coefficienti non centrali del
kernel.
-1 -1 -1
-1 16 -1
-1 -1 -1
Fig. 8.24 – Filtro per l’enfatizzazione dei contorni
Il guadagno è calcolato come segue: 1/(16-8)=1/8=0,125
L’effetto di miglioramento dei bordi può essere reso più intenso usando valori più piccoli per il
pixel centrale (con un minimo di 9). In Fig. 8.25 viene riportato un esempio degli effetti che si
ottengono.
207
Fig. 8.25 – Immagine originale (al centro), immagine migliorata (a sinistra) e smussata (a destra)
8.6 Le tessiture
Per un’immagine telerilevata, si possono definire tre tipi di caratteristiche:
- Le caratteristiche spettrali, che danno informazioni sulla quantità di onda elettromagnetica
irradiata o riflessa alle diverse frequenze;
- Le caratteristiche tessiturali, che portano informazioni sulla distribuzione spaziale delle
variazioni di tono entro una banda;
- Le caratteristiche contestuali, che tengono conto delle relazioni che esistono in
un’immagine (ad esempio, una piazza contiene almeno una strada).
Similmente, per l’analisi di immagini telerilevate si ricorre a metodi di classificazione, cioè a delle
procedure che associano ogni singolo punto dell’immagine a una delle “classi tematiche” (edifici,
vegetazione, zone coperte d’acqua) che sono presenti nell’ambiente studiato. Anche in questo caso
sono possibili diversi metodi, tra cui quello spettrale e quello spaziale. L’analisi spettrale si basa
unicamente sull’informazione portata dal singolo pixel e sul fatto che zone di diversa struttura fisica
e/o materiale riflettono la radiazione elettromagnetica proveniente dal sensore in modo diverso.
Un’area urbana è solitamente molto complessa dal punto di vista della sua composizione, ragion per
cui l’analisi spettrale fornisce in genere dei risultati poco soddisfacenti. Un metodo che permette di
ottenere risultati ben più accurati è la classificazione spaziale, che classifica ogni pixel tenendo
conto del suo intorno, cioè sfruttando la correlazione spaziale dell’immagine.
Nel telerilevamento la tessitura costituisce una delle più importanti caratteristiche nel
riconoscimento di oggetti o regioni in quanto contiene informazioni importantissime sulla
disposizione strutturale delle superfici e sulla loro relazione con l’ambiente circostante. La tessitura
è una proprietà intrinseca delle superfici, e può essere fine, grezza, increspata, liscia, irregolare,
distesa o rigata. Nell’estrarre tali caratteristiche si deve tenere presente che l’informazione sulla
tessitura in un’immagine è contenuta nella relazione spaziale che i pixel hanno con i vicini in un
intorno più o meno esteso denominato finestra. Le tessiture vengono estratte a partire dal calcolo
della matrice delle co-occorrenze.
8.6.1 La matrice delle co-occorrenze
Ogni immagine può essere pensata come una matrice i cui elementi sono i pixel dell’immagine
stessa. Ciascun pixel può assumere uno tra gli N valori di tono di grigio possibili, dove N = 2 n , e n
è il numero di bit di quantizzazione. Per esempio nel caso di immagini bitmap n=8, quindi ciascun
elemento della matrice assume un valore compreso tra 0 e 255.
208
Valore del tono di
grigio assunto
dal pixel
17
200
22
……………..
12
34
67
65
……………..
3
8
12
43
……………..
255
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
………………
………………
………………
.
.
.
.
.
.
.
.
.
3
90
86
………………
7
Fig. 8.26 - Valori dei toni di grigio dei pixel di un’immagine N x N
La matrice delle co-occorrenze ha dimensioni N × N ed è costituita da 2 n × 2 n numeri compresi tra
0 ed 1. Infatti è una matrice normalizzata ed i suoi valori rispecchiano la periodicità relativa con cui
un pixel di valore x e un altro di valore y, legati da una certa relazione spaziale tramite il vettore di
scostamento spaziale, sono presenti in un sottospazio dell’immagine detto finestra scorrevole.
Per la costruzione della matrice delle co-occorrenze bisogna fissare tre parametri importanti:
- il numero dei livelli di grigio
- la dimensione della finestra scorrevole di osservazione
- il vettore di scostamento spaziale
Tali parametri devono essere dimensionati in funzione della risoluzione spaziale e spettrale
dell’immagine, e delle caratteristiche spaziali, quali dimensione e forma delle varie classi da
riconoscere.
Esistono tre tipi di matrice delle co-occorrenze: orizzontale, verticale e diagonale. La distinzione
dipende dalla direzione secondo la quale vengono confrontati i pixel all’interno della finestra.
Una volta definita la matrice delle co-occorrenze (P[i,j]), i suoi elementi vengono posti inizialmente
uguali a zero e successivamente incrementati di una unità tutte le volte che la coppia di pixel ( x, y )
è presente in un intorno (finestra) di qualsiasi pixel che si sta considerando.
Per ogni pixel dell’immagine originale si costruisce cioè una finestra attorno ad esso e si eseguono
tutti i confronti possibili con i pixel all’interno della finestra stessa secondo la direzione prestabilita
(vettore di scostamento orizzontale, verticale o diagonale).
Si consideri per esempio un’immagine di dimensioni 4 × 4, in cui ogni elemento rappresenta un
pixel ed il suo valore indica il tono di grigio, ed una finestra scorrevole 3 × 3 attorno al pixel di
posizione (3,3) di valore 23. Nel caso di vettore di scostamento orizzontale di valore unitario
orizzontale, il primo confronto sarà tra il pixel (2,2) di valore 23 e il pixel (2,3) di valore 36. Si
andrà perciò a considerare il pixel che occupa la posizione (23,36) nella matrice delle co-occorrenze
e lo si incrementerà di una unità. Si procede poi analizzando la successiva coppia di punti, ovvero il
pixel (2,3) di valore 36 e il pixel (2,4) di valore 7 e andando ad incrementare il pixel (36,7) della
matrice delle co-occorrenze.
209
Fig. 8.27 - Finestra 3 × 3 in una matrice di dimensioni 4 × 4
Considerando inoltre le coppie a ritroso, si incrementano anche i pixel (36,23) e (7,36) della matrice
che si vuole costruire. Passando poi alla seconda riga della finestra si vanno ad incrementare gli
elementi P[23,143], P[143,23], P[164,23], P[23,164]. Si considera infine la terza riga e si
incrementano gli elementi corrispondenti di P[i,j]. La matrice delle co-occorrenze dunque non è
altro che una misurazione statistica delle occorrenze delle varie coppie di pixel; essa indica, in
pratica, quante volte si presenta una certa coppia di pixel adiacenti in un intorno del pixel
considerato la cui dimensione viene determinata dalla finestra scelta. Per ogni pixel dell’immagine
di partenza, il risultato dei confronti coi pixel adiacenti nell’ambito della finestra scelta è dato da
una matrice di dimensione 256×256 in cui i pixel con valori diversi da zero sono solo quelli
corrispondenti alle posizioni relative alle coppie di pixel che si sono presentate nell’intorno
considerato; per esempio, riferendoci al calcolo delle co-occorrenze nell’intorno del pixel di valore
23 potremo dire che i pixel diversi da zero della matrice corrispondente saranno quelli che si
trovano in posizione (23,36), (36,7), (143,23), (23,164), (146,12), (12,11); dato che queste coppie di
pixel si presentano ciascuna una sola volta, i pixel corrispondenti nella relativa matrice delle cooccorrenze avranno valore 1, e dopo la normalizzazione 1/12, dato che 12 sono i confronti effettuati
(6 se si considerano solo i confronti in avanti).
Nel caso in cui il pixel in esame appartenga alla zona perimetrale dell’immagine, la finestra
scorrevole avrebbe degli elementi non appartenenti alla matrice dell’immagine e ai quali non può
essere assegnato un valore; per questo motivo tali elementi non vengono considerati durante la fase
di confronto.
Finestra 3 x 3
intorno a pixel
di posizione
(0,0)
76
255
32
23
Fig. 8.28 - Finestra 3 x 3 intorno al pixel di posizione (0,0)
210
Nel caso di Fig. 8.28 verranno incrementati solo gli elementi P[76,255], P[255,76], P[32,23],
P[23,32] della matrice delle co-occorrenze, e in questo caso il fattore di normalizzazione sarà pari a
quattro.
Una volta ottenuta la matrice delle co-occorrenze si possono estrarre le caratteristiche tessiturali
effettuando dei calcoli sugli elementi della matrice. Di seguito ne riportiamo alcuni.
Ng Ng
- Entropia
f1 [x, y ] = ∑∑ p[i, j ]log{ p[i, j ]}
(8.10)
i =0 j =0
Ng Ng
- Contrasto
f 2 [x, y ] = ∑∑ (i − j ) 2 p 2 [i, j ]
(8.11)
i = 0 j =0
Ng Ng
- Media
f 3 [x, y ] = ∑∑ ip[i, j ]
(8.12)
i =0 j =0
Ng Ng
- Varianza
f 4 [x, y ] = ∑∑{i − f 3[ x, y ]} p[i, j ]
(8.13)
i =0 j =0
Ng Ng
∑∑ (ij) p[i, j ] − { f [ x, y ]}
2
3
- Correlazione
f 5 [x , y ] =
- Momento secondo
f 6 [x, y ] = ∑∑{ p[i, j ]}2
i =0 j =0
f 4 [ x, y ]
(8.14)
Ng Ng
(8.15)
i =0 j =0
Ng Ng
f 7 [ x, y ] = ∑∑ (i − j ) p[i, j ]
- Dissomiglianza
i =0 j =0
(8.16)
Ng Ng
- Omogeneità
1
p[i, j ]
j = 0 1 + (i − j )
f8[ x, y ] = ∑∑
i =0
(8.17)
Nelle formule p[i,j] è il valore assunto dalla matrice delle co-occorrenze normalizzata nella
posizione [i,j]; [i,j] rappresenta la posizione del pixel attorno al quale è stata calcolata la
caratteristica; infine Ng è il valore massimo del tono di grigio assunto dal pixel nell’immagine.
L’entropia
L’entropia misura il disordine di un’immagine. Quando un’immagine non è tessituralmente
uniforme, l’entropia è poco elevata e l’immagine risulta scura; al contrario, se l’immagine ha
tessitura uniforme, cioè ha tutti i pixel con lo stesso valore del tono di grigio, l’entropia è massima e
l’immagine risulta bianca.
Il contrasto
Il contrasto misura la quantità di variazioni locali presenti nell’immagine. Questa caratteristica
riporta delle macchie bianche in corrispondenza di grandi variazioni locali del tono di grigio dei
pixel.
211
La correlazione
La correlazione rappresenta una misura delle dipendenze lineari fra i toni di grigio dell’immagine.
Un alto valore di correlazione (prossimo a 1) implica un’elevata relazione tra il valore di un pixel e
quello dei pixel circostanti.
La media
L’immagine di questa caratteristica è costituita da pixel il cui valore corrisponde al valore medio
della matrice delle co-occorrenze relativa. Proprio per questo motivo l’immagine risulta molto
simile all’originale, perché ogni pixel è la media dell’informazione che gli sta intorno. Va detto che
l’immagine risulta tanto più sfumata quanto più è grande la finestra usata per il calcolo della matrice
delle co-occorrenze.
La dissimilarità
Questa caratteristica fornisce un’immagine in cui le parti bianche rappresentano le zone dove i pixel
subiscono variazioni e quindi sono dissimili, mentre le parti scure indicano le zone dove i pixel
rimangono simili tra loro.
Il momento secondo
Il momento secondo è una misura dell’omogeneità: le zone in cui i valori dei toni di grigio sono
uniformi nell’immagine originale, qui sono riportate con una tonalità di grigio, mentre i pixel
bianchi si hanno in corrispondenza di salti di tono.
L’omogeneità
Questa caratteristica rappresenta le transizioni dei toni di grigio. In un’immagine omogenea ci sono
poche variazioni del tono di grigio e l’immagine risulta scura. Dove invece ci sono salti del valore
del tono di grigio l’immagine risulta bianca, come per il momento secondo.
La varianza
Questa caratteristica rappresenta una misura di eterogeneità ed è strettamente correlata alle variabili
statistiche del secondo ordine e, in particolare, alla deviazione standard. La varianza ha valori alti
(bianco) se esiste una elevata variazione dei toni di grigio all’interno di una piccola porzione
dell’immagine.
Va inoltre ricordata l’esistenza della matrice delle occorrenze, che permette di estrarre cinque
tessiture, ossia il data range, la media, la varianza, l’entropia e l’obliquità (skewness).
Le definizioni di media, entropia e varianza sono state già viste sopra; per cui restano da definire il
data range e la skewness.
Il data range (intervallo dei dati)
Considerando un certo insieme di dati, esso rappresenta il valore massimo – il valore minimo.
L’ obliquità (skewness)
È un parametro che descrive l’asimmetria della distribuzione della probabilità di una variabile
casuale, ed è definito come:
E( X − µ )3
skew( X ) =
(8.18)
3
σ
dove µ e σ sono rispettivamente la media e la deviazione standard di X.
212
Fig. 8.29 – Immagine SAR di Pavia e dintorni del 13 agosto 1992 e sue tessiture: procedendo dall’alto in basso e da
sinistra a destra abbiamo:media, contrasto, correlazione, dissomiglianza, data range, entropia, omogeneità, momento
secondo, skewness e varianza. Tutte le tessiture sono state ottenute usando una finestra 21×21 e un vettore di
scostamento spaziale di dimensioni x = 1, y = 1
213
8.7 Gli operatori morfologici
La morfologia matematica si riferisce ad una branca dell’elaborazione e dell’analisi non lineare
delle immagini inizialmente sviluppata da George Matheron e Jean Serra riguardante
principlamente le strutture geometriche all’interno di un’immagine. La teoria originale si applicava
solo alle immagini binarie, e fu estesa alla morfologia in scala di grigio in un secondo momento, da
Sternberg, Nakagawa e Rosenfeld.
I campi di applicazione dei metodi morfologici sono numerosi, e includono il miglioramento delle
immagini, la segmentazione, l’individuazione dei contorni, l’analisi tessiturale, la generazione di
caratteristiche, la scheletonizzazione, l’analisi delle forme, la compressione, l’analisi delle
componenti.
I metodi morfologici hanno prodotto risultati notevoli per l’estrazione di caratteristiche e la
segmentazione di immagini in molti campi, come la biologia, la robotica, la microscopia, la
metallurgia e il telerilevamento.
Il filtraggio morfologico è inteso in termini di filtraggio delle caratteristiche geometriche. L’idea di
base è di analizzare un’immagine con un elemento strutturante (structuring) SE e quantificare il
modo in cui l’elemento strutturante si adatta (o non si adatta) all’interno dell’immagine.
L’informazione trovata dipende dalla dimensione e dalla forma dell’elemento strutturante. Se la
dimensione della caratteristica è più piccola dell’elemento strutturante o se la forma è diversa da
quella dell’elemento strutturante, la caratteristica sarà eliminata. Di conseguenza la natura
dell’informazione ottenuta dipende dalla scelta dell’elemento strutturante. I filtri morfologici
vengono utilizzati anche nell’individuazione dei contorni. Le caratteristiche di estrazione dei
contorni possono essere calcolate dalla differenza di due diversi filtri morfologici, ossia la
dilatazione e l’erosione.
8.7.1 Definizione di filtro morfologico
Un oggetto F costituente un’immagine viene rappresentato nella terminologia della morfologia
matematica come un insieme all’interno dello spazio euclideo n-dimensionale Rn. Un’immagine
binaria A in 2D viene indicata in R2 come:
A = a : f (a) = 1, a = (a x , a y ) ∈ R 2
(8.19)
Indichiamo con z = (x,y) il punto di coordinate (x,y) di un insieme.
{
}
8.7.2 Definizioni binarie di base e operatori
Per introdurre i concetti di erosione e dilatazione, abbiamo bisogno di alcune nozioni di base. Siano
A e B degli insiemi in R2, dove a = (ax,ay) e b = (bx,by); definiamo la traslazione, la riflessione e il
complemento.
Traslazione
La traslazione di A attraverso z = (x,y) consiste nel traslare A lungo il vettore z. Il risultato di questa
operazione viene indicato con (A)z ed è definito come:
( A) z = {c | c = a + z, per ogni a ∈ A}
(8.20)
Il complemento di riflessione
La riflessione di B è definita come:
Complemento
Il complemento dell’insieme A è:
Bˆ = {z | z = −b, per ogni b ∈ B}
(8.21)
A c = {z | z ∉ A}
(8.22)
214
8.7.3 Dilatazione binaria
La dilatazione è una traslazione morfologica che combina due insiemi usando l’addizione degli
elementi dei vettori dell’insieme. La dilatazione binaria fu usata per la prima volta da Minkowki e
nella letteratura matematica è chiamata addizione Minkowki. Se A e B sono due insiemi nello
spazio bidimensionale (R2) con elementi a e b rispettivamente, dove a = (ax,ay) e b = (bx,by) sono
due 2-tuple di coordinate degli elementi, allora la dilatazione di A attarverso B è l’insieme di tutti i
possibili vettori somma delle coppie di elementi, uno proveniente da A, l’altro da B. B è detto
elemento strutturante (structuring element, SE), che definisce la forma geometrica per il filtraggio.
Con A e B insiemi in R2, la dilatazione di A attraverso B, indicata con A ⊕ B è definita come:
{
}
A ⊕ B = c ∈ R 2 | c = a + b, per qualche a ∈ A, b ∈ B
(8.23)
L’operazione di dilatazione può essere rappresentata anche come unione di traslazioni
dell’elemento strutturante come mostrato nell’equazione successiva:
A ⊕ B = U Ba = U Ab
(8.24)
a∈A
b∈B
8.7.4 Erosione binaria
L’erosione di un insieme A per mezzo di un elemento strutturante B viene indicata con AΘB ed è
definito da:
{
}
A Θ B = z ∈ R 2 | b + z ⊂ A per ogni b ∈ B
(8.25)
L’erosione consiste di tutti i punti z per cui la traslazione di B attraverso z cade all’interno di A.
L’erosione binaria può essere usata per segmentare oggetti e rimuovere il rumore.
8.7.5 Dilatazione ed erosione in scala di grigio
La dilatazione e l’erosione sono delle estensioni del concetto di dilatazione ed erosione binarie.
Invece di usare gli operatori logici AND e OR la dilatazione e l’erosione in scala di grigio usano gli
operatori di max e min.
Sia F=f(x,y) l’immagine in scala di grigi di dominio Df, e sia B=b(x,y) l’elemento strutturante di
dominio Db, dove x e y sono gli indici dei pixel. L’immagine in scala di grigio dilatata fd(x,y) e
l’immagine erosa fe(x,y) sono il risultato delle operazioni di base del filtraggio morfologico in scala
di grigio.
f d ( x, y, B ) = max{f ( x − i, y − j ) + b(i, j ) | ( x − i ), ( y − j ) ∈ D f ; (i, j ) ∈ Db }
(8.26)
f e ( x, y, B ) = min{f (i + x, j + y ) − b(i, j ) | (i + x), ( j + y ) ∈ D f ; (i, j ) ∈ Db }
(8.27)
Per quanto riguarda la dilatazione, la richiesta che i parametri (x-i) e (y-j) debbano essere contenuti
nel dominio di F è analoga alla condizione presente nella definizione di dilatazione binaria che i due
insiemi di sovrappongano almeno per un elemento.
Per quanto riguarda l’erosione invece, la richiesta che i parametri (x+i) e (y+j) devono essere
contenuti nel dominio di F è analoga alla condizione presente nella definizione di erosione binaria,
in cui l’elemento strutturante doveva essere completamenre contenuto nell’insieme che doveva
essere eroso.
Dal momento che la dilatazione in scala di grigio è basata sulla scelta del valore massimo di F+B in
un intorno definto dalla forma dell’elemento strutturante l’effetto generale che si ottiene
dall’effettuare una dilatazione è duplice:
1) Se tutti i valori dell’elemento strutturante sono positivi, l’immagine ottenuta tende ad essere
più luminosa di quella in ingresso;
215
2) I dettagli neri sono eliminati o ridotti, in base a come i loro valori e la loro forma sono
correlati all’elemento strutturante usato per la dilatazione.
In maniera opposta, l’erosione in livelli di grigio fa si che le aree più luminose si riducano mentre le
aree scure si espandano.
(a)
(b)
valore 0
valore 1
influenzato dal pixel centrale
..non inflenzato dal pixel centrale
Fig.
Esempio di dilatazione (a) ed erosione (b) in un’immagine in scala di grigi e relativa legenda
8.7.6 Operazioni di apertura (opening) e chiusura (closing)
L’apertura è costituita da una erosione seguita da una dilatazione.
La chiusura è invece costituita da una dilatazione seguita da un’erosione.
Data un’immagine di partenza
possiamo dire che il risultato delle operazioni di dilatazione ed erosione è dato rispettivamente da:
mentre il risultato delle operazioni di apertura e chiusura è rappresentato ripettivamente da:
216
8.8 Il miglioramento della risoluzione e la rilevazione dei cambiamenti
Per molti sensori ci sono dati pancromatici ad alta risoluzione e dati multispettrali a risoluzione
ridotta. Ci piacerebbe avere il meglio dei due mondi, cioè prodotti ad alta risoluzione ma ancora
multispettrali. In effetti, l’uso di ambedue le informazioni è necessario per comprendere le diverse
classi di copertura del terreno (ad es., diversa vegetazione, o diversi materiali urbani).
E’ stato dimostrato che l’uso di combinazioni di questi dati fornisce dati più facilmente traducibili
in mappe accurate di classificazione.
Per migliorare la risoluzione, abbiamo numerosi metodi, tra i quali ricordiamo:
- Aggiunta dell’alta risoluzione come una banda aggiuntiva
- Trasformazione IHS
- Trasformazione nel dominio delle frequenze
- Metodo ARSIS
8.8.1 La trasformazione IHS
La Procedura per la trasformazione Intensity /Hue / Saturation è la seguente:
- I dati a bassa risoluzione sono ricampionati ad alta risoluzione;
- Si applica la trasformazione IHS;
- L’intensità è rimpiazzata con quella della alta risoluzione;
- Si torna indietro alla rappresentazione in RGB.
Fig. 8.30 Trasformazione IHS
Funziona solo con 3 bande multispettrali che coprono lo stesso intervallo di lunghezze d’onda della
banda pancromatica.
217
cosθ 1 = ( S1 ) Intensità
(8.28)
cos θ 2 = ( S 2 ) Intensità
(8.29)
La procedura è la seguente:
- Si calcolano i coseni per tutte le bande.
- Si torna a RGB considerando la banda pancromatica come parte dell’intensità delle
immagini multispettrali.
RGBi = cos(θ i ) S IR2 + 2( Pan 2 )
Fig. 8.31– Scena SPOT multispettrale e pancromatica
Fig. 8.32– Immagine originale (a sinistra) e dopo l’applicazione della trasformazione IHS
218
(8.30)
Fig. 8.33– Scena SPOT multispettrale (a sinistra) e stessa scena dopo l’applicazione dello spectral merge
8.8.2 La Trasformazione Spectral Merge
È simile alla trasformazione IHS ma mantiene intatti i valori spettrali, cioè i coseni degli angoli tra
il vettore del pixel e le bande.
cos(θ i ) =
Si
(8.31)
n
∑S
2
j
j
I vantaggi dello spectral merge
-
Algoritmo semplice e veloce;
L’informazione spettrale è preservata;
Quindi, si possono utilizzare algoritmi di classificazione.
8.8.3 Il “change detection” o rilevazione dei cambiamenti
Spesso siamo interessati ai cambiamenti nell’ambiente più che alle sue caratteristiche di per esse.
Per esempio, possiamo voler sapere quanto terreno agricolo è stato urbanizzato, oppure quanta
foresta è stata abbattuta per far posto ai campi, oppure ancora possiamo voler determinare
l’estensione delle aree allagate.
Per fare ciò è necessario che le immagini siano perfettamente coregistrate tra loro, entro meno di un
pixel. In più, c’è il rischio di includere tra le variazioni rilevate anche i cambiamenti accidentali.
Per rilevare i cambiamenti esistono numerose tecniche, tra cui ricordiamo:
- Comparazione Postclassificazione
219
-
Classificazione di Dati Multitemporali
Analisi delle Componenti Principali
Differenze Temporali
Rapporti Temporali
Change Vector Analysis
Mascheratura Binaria
Trasformazione Delta
Fig. 8.34– Immagine del 1986 (a sinistra) e stessa immagine ripresa nel 1994 (a destra)
La comparazione postclassificazione
Si fa una classificazione di ogni scena separatamente. Poi si comparano le classificazioni pixel a
pixel.
Vantaggi: Possiamo generare delle statistiche sui cambi di classe: ad es., possiamo stabilire quale è
stata la percentuale di cambiamento tra una data classe di uso del suolo e un’altra.
Problemi: Gli errori in ambedue le classificazioni si sommano. Se le classificazioni hanno una
precisione dell’80%, la classificazione finale non avrà una precisione migliore del 64%.
Classificazione di dati multitemporali
Si combinano due scene rilevate in tempi diversi in un unico insieme che contiene le bande delle
due immagini come bande di una terza immagine e si classifica tutta quest’ultima immagine.
Problemi:
Il metodo diventa rapidamente complicato con molte date e molte bande. Ad es., 3 scene Landsat
portano già il numero di bande a 18.
Analisi delle componenti principali
Le tecniche multispettrali forniscono diverse immagini della stessa scena, dove ogni immagine
rappresenta la distribuzione spaziale dell'energia riflessa o emessa ad una diversa lunghezza d'onda.
Spesso però si osserva che esiste un alto grado di correlazione tra diverse immagini di uno stesso
bersaglio e ciò dipende dalla natura fisica dell'oggetto, dalla larghezza della banda e dal rumore
presente nei dati. Questo può essere superato o scegliendo le bande meno correlate, oppure
costruendo mediante certe combinazioni lineari di dati originali, che possano contenere la maggior
parte delle informazioni in un insieme (set) ridotto di dati. Attraverso questa trasformazione,
l'informazione dell'immagine multispettrale viene ridistribuita in modo da essere contenuta per la
maggior parte nelle prime componenti principali, mentre la parte contenuta nelle successive può
essere interpretata come solo rumore.
L’utilizzo delle componenti principali ha dunque il vantaggio di comprimere l’informazione in un
minor numero di immagini garantendo un maggior contributo informativo rispetto alle immagini
originarie. Inoltre, le PC sono dati che forniscono una valutazione dell’indice di correlazione tra le
220
bande originarie. Per contro, va detto che il principale svantaggio delle PC è che i livelli di grigio
delle stesse non sono ovviamente indicazione di diversa riflettanza per determinate lunghezze
d’onda dello spettro.
Il cambio del sistema di riferimento
La trasformazione dalle coordinate basate sulle bande spettrali a quelle che utilizzano come sistema
di riferimento gli assi delle componenti principali viene effettuata con una semplice equazione di
trasformazione del tipo:
y = Mx
(8.32)
Dal momento che le componenti principali sono assi a massima varianza che definiscono uno
spazio a covarianza minima (le PC hanno covarianza bassa o nulla), la matrice di trasformazione
viene scelta in modo tale che la matrice di covarianza della distribuzione dei pixel riferita ai nuovi
assi sia del tipo
Riassumendo, si può dire che:
- i dati sono trasformati lungo direzioni ortogonali, che sono dipendenti da come sono
distribuiti i valori dei dati nelle immagini.
- Il primo componente principale definisce la direzione di massima variabilità dei dati.
- Ogni direzione successiva ha sempre meno variabilità.
Fig. 8.35– Il cambio del sistema di riferimento
Si combinano due scene in un insieme multitemporale e si realizza una trasformata a componenti
principali. Alcune delle bande componenti saranno molto probabilmente correlate con le aree di
cambiamento nell’immagine.
Problemi: Dato che le bande dei componenti principali non hanno più un significato diretto
collegato con lo spettro elettromagnetico, è difficile capire quale banda è collegata a quale
cambiamento.
Differenze temporali
Si sottrae un’immagine dall’altra, e dove ci sono differenze più alte, si avranno cambiamenti più
significativi. Poi si sceglie una soglia per decidere quali cambiamenti “interessano”.
221
Problemi:
Va bene solo per alcuni tipologie di cambiamenti. Non è utile ad es. per testare i cambiamenti di uso
del suolo, ma serve per situazioni particolari (il grano è stato raccolto?, il lago si è ghiacciato?).
Serve una coregistrazione praticamente perfetta.
Esempio
Scena 1986 (Banda 4 TM) – scena 1994 (Banda 4 TM)
Come si può vedere da Fig. 8.36, l’istogramma non ha un picco preciso a causa di un leggero errore
di coregistrazione.
Fig. 8.36– Istogramma e immagine corrispondente
Rapporti temporali
Si dividono i valori di un’immagine per quelli dell’altra, pixel per pixel. I rapporti vicini a 1
corrispondono ad aree invariate, mentre valori molto differenti corrispondono ad aree di
cambiamento in un senso o nell’altro.
Problemi: Gli stessi della differenza temporale.
Vantaggio rispetto alla differenza: L’effetto dell’angolo del sole e delle ombre (di conseguenza) è
almeno parzialmente ridotto.
222
Change Vector Analysis
E’ un passo in avanti rispetto alla differenza temporale. Infatti, si sottraggono i vettori spettrali
invece delle bande prese ad una ad una.
Vantaggi: L’informazione di cambiamento mantiene le informazioni spettrali, così che alla fine si
può dare un’interpretazione di quello che si è trovato.
Mascheratura binaria
Si realizza prima una differenza temporale o un rapporto temporale. Quindi si sceglie una soglia per
dividere i dati nelle due classi di cambiamento e non. Infine, si usa questa soglia per determinare i
pixel della seconda immagine che sono cambiati, e si riclassificano solo questi.
Vantaggio:
Classificando solo le aree con cambiamenti più grandi si riescono a distinguere i cambiamenti
dovuti alla vegetazione da quelli di nostro interesse.
Trasformazione Delta
Si basa su un’idea simile alla Principal Components Analysis nel senso che la maggioranza dei
cambiamenti nella scena dipendono dalla variabilità naturale del paesaggio, ma alcune varianze
rappresentano “veri” cambiamenti.
Procedura:
Si producono diagrammi di dispersione per ogni banda, con una data sull’asse x e l’altra sull’asse y.
Se non ci fosse alcun cambiamento, l’immagine sarebbe un’ellisse con un asse a 45°.
223
CAPITOLO 9
LA CLASSIFICAZIONE DELLE IMMAGINI DIGITALI
9.1 Introduzione
Nel processo di classificazione delle immagini un operatore umano istruisce il calcolatore ad
effettuare una interpretazione delle stesse immagini sulla base di certe condizioni definite
dall’operatore. La classificazione delle immagini è una di quelle tecniche che rientrano nell’ambito
dell’interpretazione delle immagini digitali. Altre tecniche sono quelle del riconoscimento
automatico di oggetti (come l’estrazione di strade, ad esempio), e la ricostruzione delle scene (come
la generazione di modelli in 3D).
In pratica si definisce classificazione l’assegnazione di ogni porzione di superficie terrestre nella
zona osservata ad una determinata classe, ossia una categoria omogenea, scelta tra un insieme
predefinito per quella specifica applicazione.
Nel caso delle immagini telerilevate, la classificazione di un’immagine significa decidere per ogni
pixel cosa esso rappresenta in termini di copertura o di uso del terreno.
9.2 Principi della classificazione di immagini
9.2.1 Spazio delle immagini
Un’immagine digitale è un vettore bidimensionale di elementi in cui ogni elemento corrisponde
all’energia riflessa o emessa dalla superficie della Terra. La disposizione spaziale delle misure
definisce l’immagine, detta anche spazio immagine. A seconda del sensore, i dati vengono registrati
in n bande; i dati delle immagini digitali vengono di solito immagazzinati in valori di DN a 8 bit,
con valori appartenenti all’intervallo compreso tra 0 e 255.
Fig. 9.1 – Struttura di un’immagine multibanda
9.2.2 Caratteristiche dello spazio
In un pixel, i valori che esso assume in (ad esempio) due bande possono essere considerati come le
componenti di un vettore bidimensionale, detto vettore delle caratteristiche. Un esempio di tale
vettore è (13,55) che dice che i valori di DN 13 e 55 sono imagazzinati rispettivamente per la banda
1 e la banda 2. Questo vettore può essere rappresentato in un grafico bidimensionale.
224
Fig.9.2 – Grafico dei valori di un’osservazione (cioè di un pixel) nello spazio delle caratteristiche per un’immagine a
due e a tre bande
Questo approccio può essere visualizzato allo stesso modo quando si hanno tre bande, utilizzando in
tal caso un grafico tridimensionale. Ovviamente tale tipo di visualizzazione diventa più complicata
per immagini con più di tre bande, in quanto in questa situazione si devono visualizzare tutte le
possibili combinazioni di due bande.
9.2.2.1 Distanze e gruppi nello spazio immagine
La distanza nello spazio delle caratteristiche è intesa come ‘distanza Euclidea’ e le unità sono i DN
(che sono le unità degli assi). In uno spazio delle caratteristiche bidimensionale la distanza si può
calcolare in base al Teorema di Pitagora. Nella situazione riportata in Fig. 9.3, la distanza tra
(10,10) e (40,30) è uguale alla radice quadrata di (40-10)2+(30-10)2; quando si hanno tre o più
dimensioni, la distanza si calcola in maniera simile.
Fig 9.3 – La distanza Euclidea tra due punti è calcolata per mezzo del teorema di Pitagora
225
9.2.3 Alcune definizioni
- Struttura o pattern: insieme di valori in scala di grigio di un singolo pixel sulle diverse
bande spettrali;
- Caratteristiche o features: sono gli attributi che caratterizzano il pattern, come ad esempio
l’intensità nelle diverse bande spettrali;
- Dimensionalità di un’immagine: il numero di bande dell’immagine stessa;
- Pixel misto (Mixel): pixel contenente informazioni spettrali da più di un tipo di copertura;
- Nuvola di dati: distribuzione di dati in una immagine in n dimensioni;
- Aggruppamento o cluster di dati: un gruppo di pixel con valori simili in senso statistico;
- Realtà a terra (Ground Truth): informazioni relative alla effettiva classe di appartenenza di
un insieme di pixel dell’immagine telerilevata; di solito si ottengono per conoscenza diretta
della zona, per sopralluogo o per interpretazione manuale, ove possibile senza ambiguità
relativamente alle classi predefinite.
- Classificazione: si basa sull’idea di ripartire la nuvola di dati in aree di una certa dimensione
che appartengono ad una certa copertura; in altre parole, si tratta di analizzare ogni pixel per
vedere a quale gruppo appartiene (usando varie statistiche);
- Classificazione non supervisionata (unsupervised): prescinde dalla conoscenza della realtà a
terra; si basa su algoritmi che analizzano tutti i pixel e li raggruppano in un certo numero di
classi chiamate aggruppamenti (cluster) in base ai soli valori di radianza; spesso l’operatore
può impostare alcune variabili quali il numero massimo di aggruppamenti o il numero
minimo di pixel necessari per formare un aggruppamento;
- Classificazione supervisionata (supervised): si basa sulla conoscenza di alcune aree
campione rappresentative delle classi di superficie (insieme di addestramento);
- Classificazione ibrida: si tratta dell’utilizzo di entrambi i precedenti metodi in modo che la
classificazione non supervisionata possa essere la guida per aiutare la definizione dei
training sites utili per la classificazione supervisionata;
- Classificazione rigida: non tiene conto dei pixel misti;
- Classificazione sfumata: tiene conto dei pixel misti.
9.2.4 La firma spettrale e la separabilità tra le classi
Riferiamoci, per semplicità, al caso di un sensore che operi su due classi spettrali. Le osservazioni
per ogni pixel determinano un vettore x, in questo caso con due elementi, che individua un punto in
piano. Per i diversi pixel appartenenti ad una determinata classe i processi radiativi determinano
osservazioni tra loro simili. Tuttavia, a causa delle inevitabili differenze tra elementi di una
medesima classe ed a causa delle fluttuazioni e degli errori strumentali, l’ osservazione x varia
aleatoriamente intorno ad un valore medio. Le proprietà di tale distribuzione aleatoria, ed in
particolare il suo valore medio, caratterizzano dal punto di vista della risposta spettrale la classe in
considerazione e costituiscono la cosiddetta “firma spettrale” della classe. Evidentemente diverse
classi hanno diverse firme spettrali. In Fig. 9.4 è riportato un esempio con tre classi per cui la
probabilità di coerenza dell’ osservazione è diversa da zero in una regione ellitica limitata.
Evidentemente è possibile separare gli elementi della classe 3 senza errore mentre si avrà una certa
“confusione” nel distinguere le classi 1 e 2. La separabilità tra classi cresce pertanto quanto più
sono diversi i valori medi e quanto più piccole sono le varianze delle distribuzioni intorno a tali
valori medi.
226
Fig. 9.4 – La separabilità tra le classi
9.3 Varianza e covarianza
Si definiscono:
- vettore del pixel medio (mean vector pixel)
m=
1
K
K
∑x
k =1
k
(9.1)
Dove xk sono i vettori dei pixel singoli (individual pixel vectors) per un numero totale di K
vettori; data una distribuzione di punti, il vettore del punto medio definisce l’ubicazione
dell’insieme di punti nello spazio.
- Varianza
1 K
(9.2)
σ x2 =
∑ ( x1k − m)
k − 1 k =1
La varianza indica la distribuzione della proiezione dei punti lungo un determinato asse (in
questo caso x1).
- Dalla varianza si ricava la deviazione standard che è la stima di quanto i punti si discostino
dal valore medio;
1 K
∑ ( x1k − m) 2
K − 1 k =1
- Per i pixel vettori ha più senso parlare di matrice varianza-covarianza
1 K
=
( x k − m)( x k − m) t
∑ x K −1 ∑
k =1
In pratica la covarianza definisce la forma dell’ellissoide di distribuzione dei pixel
σ x = σ x2 =
(9.3)
(9.4)
9.4 Basi geometriche della classificazione
- L’interpretazione visiva dei grafici riconosce:
I. Gli aggruppamenti in funzione della loro posizione, della caratteristica densità di punti
all’interno di ciascuna e degli spazi vuoti all’esterno;
II. La distanza tra le classi quale parametro di somiglianza o meglio di dissimilarità.
- La posizione delle classi è definita dal vettore che definisce la posizione del pixel centrale
(medio) della classe.
- La densità e la compattezza delle classi può essere definita dalla distanza media di ciascun
punto rispetto al punto centrale (medio) della classe.
227
- Il grado di separazione delle varie classi può essere definito come la distanza tra i centri
delle varie classi.
Si tratta quindi di un problema di distanze che possono essere calcolate facendo uso del
semplice Teorema di Pitagora. La distanza euclidea tra due punti
- In uno spazio bidimensionale è quindi d ab = ( x a − xb ) 2 + ( y a − y b ) 2
(9.5)
- In uno spazio tridimensionale è d ab = ( x a − xb ) 2 + ( y a − yb ) 2 + ( z a − z b ) 2
- E in uno spazio n-dimensionale è
(9.6)
d ab = ( x a − xb ) 2 + ( y a − y b ) 2 + ( z a − z b ) 2 + .... + ( p a − pb ) 2 =
p
∑ (x
t =1
ta
− xtb ) 2
(9.7)
9.5 Classificazione di immagini
La Fig. 9.5 mostra uno spazio delle caratteristiche in cui le osservazioni (i vettori delle
caratteristiche) sono state tracciate per sei classi di copertura del terreno specifiche (prati, acqua,
alberi, eccetera).
Fig. 9.5 – Spazio delle caratteristiche che mostra i rispettivi gruppi di appartenenza di sei classi; si noti come ogni
classe occupi una’area diversa nello spazio delle caratteristiche
Ogni gruppo di osservazione (classe) occupa la propria area nello spazio. In questa figura si vede
quindi l’assunzione principale che viene fatta nella classificazione delle immagini: una parte
specifica dello spazio delle caratteristiche corrisponde ad una classe specifica. Una volta che le
classi sono state definite nello spazio delle caratteristiche, ogni pixel dell’immagine osservata può
essere confrontato con quelle classi e assegnato alla classe corrispondente.
Perché siano distinte durante l’operazione di classificazione, le classi devono avere caratteristiche
spettrali differenti. Tale comportamento può essere verificato, ad esempio, paragonando le curve di
riflettanza spettrale. La Fig. 9.5 mostra però anche una limitazione della classificazione di
immagini: se le classi non hanno insiemi distinti nello spazio delle caratteristiche, la classificazione
non fornisce risultati attendibili.
Il principio della classificazione delle immagini è che ogni pixel è assegnato ad una classe che si
basa sul suo vettore delle caratteristiche confrontandolo con degli insiemi predefiniti nello spazio
delle caratteristiche. Il punto cruciale della classificazione delle immagini sta nel confrontare il
vettore delle caratteristiche con degli insiemi predefiniti, che richiedono quindi la definizione degli
insiemi e dei metodi per effettuare il confronto. La definizione degli insiemi è un metodo interattivo
228
effettuato durante il processo di training, o di allenamento. Il confronto delle osservazioni dei
singoli pixel con gli insiemi avviene usando gli algoritmi di classificazione.
9.6 Il processo della classificazione delle immagini
Il processo della classificazione delle immagini di solito prevede cinque passi:
1. la selezione e la preparazione dell’immagine. In base ai tipi di coperture che devono essere
classificate vengono scelti il tipo di sensore, le date (o i periodi) di acquisizione e le
lunghezze d’onda più appropriate.
2. la definizione degli insiemi nello spazio delle caratteristiche. Qui sono possibili due diversi
approcci: la classificazione supervisionata e quella non supervisionata. In una
classificazione supervisionata, l’operatore definisce gli insiemi (che costituiscono le classi)
durante il processo di addestramento; in una classificazione non supervisionata un algoritmo
di clustering (di ragguppamento) automaticamente trova e definisce un numero di insiemi
nello spazio delle caratteristiche.
3. la selezione dell’algoritmo di classificazione. Una volta che le classi spettrali sono state
definite nello spazio delle caratteristiche, l’operatore deve decidere in che modo i pixel (il
loro valore di DN) debbano essere assegnati alle varie classi. L’assegnamento può basarsi su
criteri diversi.
4. l’esecuzione della classificazione. Una volta stabiliti i dati di allenamento e scelto
l’algoritmo di classificazione, si può eseguire la classificazione. Questo significa che,
basandosi sul valore dei DN, ogni singolo pixel nell’immagine è assegnato ad una delle
classi definite.
5. la valutazione della classificazione (validation). Una volta che l’immagine classificata è
stata prodotta, la sua qualità viene determinata confrontandola con un dato di riferimento
detto verità a terra, o ground truth ; tale operazione richiede la scelta di un algoritmo di
campionamento, la generazione di una matrice di errore e il calcolo dei parametri di errore.
Per semplicità si è scelto di riferire la maggior parte degli esempi ad un caso bidimensionale, anche
se in linea di principio la classificazione può essere eseguita anche su insiemi di dati ndimensionali. L’interpretazione visuale delle immagini si ferma per ovvie ragioni al caso di tre
bande.
9.7 Preparazione per la classificazione delle immagini
La classificazione delle immagini ha come scopo primario quello di convertire le immagini che
contengono i dati in mappe tematiche. Dal punto di vista delle applicazioni, infatti, si è più
interessati alle caratteristiche tematiche di una certa area che non ai valori di riflessione della stessa.
La caratteristiche tematiche, come la copertura del territorio, l’uso del terreno, i tipi di suolo o di
minerali, possono essere usati per ulteriori analisi e come ingressi in modelli. In più, la
classificazione delle immagini può essere considerata come una riduzione di dati: le n bande
multispettrali in ingresso al classificatore forniscono in uscita un file raster singolo.
Le possibilità per la classificazione dei tipi di copertura del suolo dipendono dalla data in cui le
immagini sono state acquisite. Questo non è vero solo per le coltivazioni, che hanno un certo ciclo
di crescita, ma anche per altre applicazioni. Prima di cominciare il lavoro bisogna effettuare una
selezione delle bande spettrali disponibili. La ragione principale che spinge a non usare tutte le
bande disponibili (per esempio, le 7 bande del Landsat TM) sta nella correlazione tra bande, e,
qualche volta, nelle limitazioni dell’hardware e del software utilizzato. La correlazione tra bande si
verifica quando la riflessione spettrale è simile tra più bande. Un esempio è la correlazione tra le
bande corrispondenti alle lunghezze d’onda del verde e del rosso per la vegetazione: ad una bassa
riflettanza nel verde corrisponde una bassa riflettanza nel rosso. Per scopi di classificazione, le
bande correlate danno informazione ridondante e possono disturbare il processo di classificazione
stesso.
229
9.8 La classificazione non supervisionata
La classificazione supervisionata richiede la conoscenza dell’area che si tratta; se tale conoscenza
non è disponibile in modo sufficiente o le classi di interesse non sono state definite, si può applicare
una classificazione non supervisionata. Nella classificazione non supervisionata, gli algoritmi di
clustering vengono utilizzati per partizionare lo spazio delle caratteristiche in un certo numero di
cluster.
Fig. 9.6 – Sequenza dei risultati di un algoritmo di clustering applicato ad un insieme di dati campione
Vantaggi:
- non è richiesta nessuna conoscenza a priori;
- l’errore umano è ridotto;
- le classi sono spettralmente omogenee “per forza”;
- si possono identificare tutte le classi che hanno caratteristiche uniche.
Svantaggi:
- le classi ottenute non hanno necessariamente un significato;
- l’utente ha un controllo limitato sulla procedura e sui risultati.
Sono disponibili numerosi algoritmi di classificazione non supervisionata, il cui principale obiettivo
è quello di produrre dei raggruppamenti spettrali basati su certe caratteristiche comuni. Uno degli
approcci più diffusi è quello del Classificatore K-means.
9.8.1 Il Classificatore K-means
È un metodo iterativo, che aggiusta ripetutamente e progressivamente i centri degli aggruppamenti.
L’operatore deve definire il massimo numero di cluster all’interno dell’insieme dei dati. Sulla base
di questo, il computer alloca le medie arbitrarie dei vettori come punti centrali dei cluster. Ogni
230
pixel viene quindi assegnato ad un cluster attraverso la regola di decisione della minima distanza
dal centroide del cluster. Una volta che tutti i pixel sono stati etichettati vengono ricalcolati i centri
dei cluster e il processo viene ripetuto finchè non vengono trovati gli esatti centri dei cluster e i
pixel sono etichettati in modo appropriato. Le iterazioni si interrompono quando i centri dei cluster
non cambiano più. Ad ogni iterazione i cluster (le classi) con meno di un certo numero di pixel
prefissato vengono eliminati. Quando la ripartizione in classi è terminata, si effettua una analisi
della vicinanza e della separabilità dei cluster attraverso le misure di media e deviazione standard
delle distanze tra cluster. Per ridurre il numero di suddivisioni non necessarie si può effettuare la
fusione di quelle classi che non possono essere distinte; questo viene effettuato utilizzando un
valore di soglia predefinito. L’operatore deve definire il numero massimo di cluster/classi, la
distanza tra i centri dei due cluster, il raggio di un cluster, e il numero minimo di pixel come
numero soglia per l’eliminazione di una classe. L’analisi della compattezza del cluster attorno al
suo centro è realizzata per mezzo della deviazione standard definita dall’utente per ciascuna banda
spettrale. L’analisi della vicinanza dei cluster è realizzata invece misurando la distanza tra i centri
dei due cluster. Se tale distanza è minore di una soglia predefinita, avviene la fusione dei due
cluster. Ad ogni iterazione vengono eliminati quei cluster con un numero di pixel inferiori ad una
certa soglia. I cluster che rimangono dopo questo processo iterativo sono descritti attraverso le loro
statistiche. La Fig. 9.6 mostra il risultato dell’algoritmo di raggruppamento applicato ad un insieme
di dati. Come si può osservare i centri dei cluster coincidono con le aree ad alta densità nello spazio
delle caratteristiche. Le statistiche dei cluster ottenuti vengono utilizzate per classificare l’immagine
completa usando un algoritmo di classificazione prescelto.
Riassumendo si può dire che il classificatore K-means:
- trova raggruppamenti “naturali” di pixel entro un insieme di dati multispettrali;
- richiede all’utente pochi dati in ingresso;
- richiede che le classi trovate siano “etichettate” dopo l’estrazione.
9.8.2 Il Fuzzy C-means
Questo metodo aggiunge al K-means la possibilità di tenere conto anche degli elementi che non
fanno parte di una determinata classe, con peso differente. In questo modo si ha la possibilità di
arrivare ad un risultato tenendo fino alla fine il controllo su tutti i dati che si stanno analizzando. In
generale dà risultati più precisi e soprattutto permette di caratterizzare quantitativamente
l’affidabilità del risultato ottenuto attarverso la “defuzzificazione”.
9.8.3 Il Classificatore Isodata
Il classificatore Isodata calcola le medie delle classi uniformemente distribuite nello spazio dei dati
e dopo raggruppa iterativamente i pixel rimanenti utilizzando delle tecniche a minima distanza.
Ogni iterazione ricalcola le medie e riclassifica i pixel in base alle nuove medie. La divisione, la
fusione e la cancellazione iterativa delle classi viene fatta sulla base di alcuni parametri di soglia
che vengono assegnati in ingresso. Tutti i pixel vengono classificati come appartenenti alla classe
più vicina a meno che non sia specificata una soglia di deviazione standard o di distanza, nel qual
caso alcuni pixel potranno rimanere non classificati se non verificano le condizioni fissate. Tale
processo continua fino a che il numero di pixel in ogni classe cambia oppure fino a quando venga
raggiunto il numero massimo di iterazioni consentite.
9.9 La classificazione supervisionata
Uno dei passi principali nella classificazione delle immagini è la ripartizione dello spazio delle
caratteristiche. Nella classificazione supervisionata tale passo è realizzato da un operatore che
definisce le caratteristiche spettrali delle classe individuando delle aree campione dette aree di
addestramento (training areas). La classificazione supervisionata necessita quindi di una buona
conoscenza dell’area sotto osservazione da parte dell’operatore; egli deve infatti essere in grado di
individuare le aree di interesse nell’area coperta dall’immagine. Un campione di una classe
231
specifica, comprendente un certo numero dei pixel di addestramento, forma un insieme nello spazio
delle features. Questi insiemi, cosi come vengono scelti dall’operatore:
- devono formare un insieme di dati rappresentativo per una determinata classe; questo
significa che bisogna tenere conto della variabilità di una classe all’interno dell’immagine.
Inoltre, in senso assoluto, è richiesto anche un numero minimo di campioni per cluster.
Benchè esso dipenda dall’algoritmo del classificatore, una utile regola empirica è quella di
considerare 30 × n campioni, dove n è il numero di bande.
- devono non sovrapporsi oppure sovrapporsi solo in minima parte con gli altri cluster,
altrimenti non è possibile ottenere una separazione attendibile. Usando un insieme di dati
specifico, alcune classi possono avere delle significative sovrapposizioni spettrali, il che, in
linea di principio, significa che queste classi non possono essere discriminate dalla
classificazione. Soluzioni a questo problema possono essere l’aggiunta di bande ulteriori e/o
l’aggiunta di immagini di dati acquisite in altri momenti.
9.9.1 Siti di addestramento (o campioni di addestramento)
Durante la scelta dei training sites si decide il numero delle classi in base alle quali si vuole
classificare le immagini, le loro caratteristiche spettrali e la separabilità tra le medesime. Per fare
questo si possono effettuare le seguenti analisi:
- analisi degli istogrammi dei siti di addestramento di ogni classe per ciascuna banda spettrale:
si vede la correlazione tra bande per una stessa classe e se l’istogramma è unimodale o no;
- analisi del coincident spectral plot (risposta spettrale media di ogni classe): per valutare il
grado di sovrapposizione tra le varie classi sulle diverse bande;
- analisi della matrice di divergenza: per valutare la separabilità tra le varie classi;
- classificazione preliminare non supervisionata dei siti di addestramento: per vedere se
esistono pixel non puri all’interno delle classi e per valutare la coerenza stessa delle classi;
- classificazione preliminare interattiva (solo in alcuni software, non in Envi);
- classificazione preliminare di una parte della scena (sottoscena o subscene).
Dopo aver definito gli insiemi di addestramento possiamo effettuare la classificazione applicando
un algoritmo di, appunto, classificazione. Esistono numerosi algoritmi di classificazione; la scelta
dell’algoritmo dipende soprattutto dal motivo per cui si effettua la classificazione stessa e dalle
caratteristiche dell’immagine e dei dati di allenamento. L’operatore deve decidere anche se
permettere o impedire che nella classificazione vi siano pixel non classificati, cioè se permettere o
meno l’esistenza di una classe “sconosciuto”.
232
9.10 Gli algoritmi di classificazione supervisionata
9.10.1 Il classificatore Parallelepipedo
È il metodo di classificazione più semplice. Inizialmente vengono definiti i limiti superiore e
inferiore per ciascuna classe. Questi limiti possono essere basati sui valori di massimo e minimo, o
di media e deviazione standard per ogni classe. Quando si stabiliscono i limiti superiore e inferiore,
questi definiscono un’area simile ad un riquadro nello spazio delle caratteristiche, che è il motivo
per cui si è dato questo nome al classificatore. Il numero di riquadri dipende dal numero di classi.
Durante la classificazione, un pixel sconosciuto viene controllato per vedere se esso cada o meno in
uno dei riquadri. Se sì, esso viene etichettato con l’etichetta del riquadro in cui è contenuto. I pixel
che non cadono in nessuno dei riquadri vengono assegnati alla classe detta “sconosciuta”, in pratica
non vengono classificati. Lo svantaggio di questo classificatore è la sovrapposizione delle classi;
quando alcune classi si sovrappongono, i pixel che cadono nella zona di sovrapposizione (zona di
overlap) vengono assegnati in maniera arbitraria ad una delle classi che si sovrappongono, a meno
che non si assegni a ciascuna di queste classi un indice di priorità.
Fig.9.7 – Principio di funzionamento del classificatore Parallelepipedo in una situazione bidimensionale
9.10.2 Classificatore Minimum Distance to Mean (minima distanza dalla media)
La base di questo classificatore è costituita dai centri dei cluster. È quindi necessario sapere già
all’inizio del calcolo quante siano le classi e quale siano le coordinate del valore medio che ne
definisce la posizione; tali parametri vengono determinati sulla base dei siti di addestramento.
Durante la classificazione vengono calcolate le distanze euclidee di un pixel dai centri dei vari
cluster; il pixel sconosciuto viene assegnato alla classe a cui è più vicino, ossia alla classe del centro
da cui il pixel ha la distanza più piccola. La Fig. 9.8 mostra come uno spazio delle caratteristiche
viene partizionato sulla base dei centri dei cluster. Uno dei difetti di questo classificatore è che
anche pixel che hanno una distanza notevole dal centro di un cluster possono essere assegnati a quel
centro. Questo problema può essere superato definendo un valore di soglia che limiti la distanza in
cui si cerca. In genere i confini di decisione (decision boundary) tra una classe e l’altra sono scelti
come il luogo di punti equidistante rispetto al centro di ciascuna classe.
233
Fig.9.8 – Principio di funzionamento del classificatore Minimum Distance to Mean in una situazione bidimensionale. I
confini di decisione sono mostrati per un caso in cui non sono state stabilite distanze di soglia (in alto a destra) e per un
caso in cui tali vincoli sono stati definiti (in basso a destra)
Si possono dunque stabilire soglie oltre le quali il pixel non viene assegnato a nessuna classe; tali
soglie si basano sulla compattezza delle classi definite sulla base della deviazione standard calcolata
per i pixel del sample site che definisce la classe.
Un ulteriore svantaggio di questo classificatore è che esso non tiene conto della variabilità delle
classi; alcune classi sono piccole e dense mentre altre sono grandi e disperse. Il classificatore a
massima verosimiglianza tiene conto invece di questa caratteristica.
9.10.3 Il classificatore Maximum Likelihood (massima verosimiglianza)
Questo classificatore non considera solo il centro del cluster, ma anche la sua forma, dimensione e
orientazione. Tutto ciò è reso possibile dal calcolo di una distanza statistica basata sui valori di
media e sulla matrice di covarianza dei cluster.
In questo caso infatti dai training sites è necessario ricavare la posizione del pixel medio, la
varianza e la covarianza di ogni classe; tali parametri stabiliscono forma e posizione della nuvola
relativa alla data classe. Dai training sites si ricavano anche le funzioni di probabilità per ciascuna
classe che derivano dall’andamento della quantità di pixel presenti in una data classe all’allontanarsi
del punto medio della classe stessa. In sostanza si definiscono delle curve concentriche di
equiprobabilità che si allontanano dal punto medio della classe.
La distanza statistica è un valore di probabilità: la probabilità che un’osservazione x appartenga al
cluster specificato. Il pixel viene assegnato alla classe (cluster) a cui ha una probabilità di
appartenere più alta. L’assunzione di molti classificatori ML è che ogni classe sia caratterizzata da
una distribuzione unimodale e gaussiana. Per ogni cluster, possono essere disegnati attorno ai centri
dei cluster quelli che vengono chiamati i contorni di equiprobabilità. I classificatori ML permettono
anche all’operatore di definire una distanza di soglia definendo un valore di massima probabilità.
234
Una piccola ellisse centrata sulla media definisce i valori con la probabilità più alta di appartenere
ad una classe. Ellissi progressivamente più grandi circondanti il centro rappresentano i contorni di
probabilità di appartenenza ad una classe, con la probabilità che diminuisce via via che ci si
allontana dal centro. La Fig. 9.9 mostra i contorni di decisione per una situazione con e senza
distanza di soglia.
Fig.9.9 - Principio di funzionamento del classificatore Maximum Likelihood in una situazione bidimensionale. I confini
di decisione sono mostrati per un caso in cui non sono state stabilite distanze di soglia (in alto a destra) e per un caso in
cui tali vincoli sono stati definiti (in basso a destra)
Questo algoritmo calcola quindi la probabilità che un determinato pixel sia in una data classe e
assegna il pixel alla classe più verosimile (alto valore di probabilità). Le dimensioni delle classi
possono essere utili come peso relativo al calcolo delle probabilità. L’utente può determinare la
probabilità minima perché un pixel venga assegnato; se tale valore non viene raggiunto, il pixel non
viene classificato.
9.10.4 Il Classificatore di Mahalanobis
È un classificatore rispetto alla distanza che usa delle statistiche per ogni classe. È simile al
classificatore Maximum Likelihood ma assume che le covarianze di tutte le classi siano uguali, per
cui è un metodo più veloce. Tutti i pixel vengono classificati come appartenenti alla classe più
vicina a meno che non sia specificata una soglia di deviazione standard o di distanza, nel qual caso
alcuni pixel potranno rimanere non classificati se non verificano le condizioni fissate.
9.10.5 Il classificatore Spectral Angle Mapper (SAM)
È un classificatore spettrale che usa un angolo n-dimensionale per confrontare i pixel con uno
spettro di riferimento. L’algoritmo usato determina la somiglianza spettrale tra due spettri
calcolando l’angolo tra gli spettri, trattando questi ultimi come vettori in uno spazio con dimensione
235
pari al numero delle bande spettrali. Questa tecnica, se usata su dati di riflettanza calibrati, è
relativamente insensibile agli effetti dovuti all’illuminazione e agli albedo. Gli spettri usati dal
classificatore SAM possono provenire da file ASCII, da librerie spettrali, o possono essere estratti
direttamente dalle immagini. Questo classificatore confronta l’angolo tra il vettore relativo allo
spettro di riferimento e il vettore di ogni pixel in uno spazio n-dimensionale. Angoli piccoli
corrispondono a punti più vicini allo spettro di riferimento. I pixel che superano il valore di soglia
specificato per l’angolo massimo (in radianti) non vengono classificati.
9.10.6 Il classificatore Binary Encoding
La tecnica di classificazione Binary Encoding codifica i dati e gli spettri usati come riferimento in 0
e 1 basandosi sulla considerazione se una banda cada sotto o sopra la media dello spettro. Per
confrontare ogni spettro di riferimento codificato con gli spettri codificati dei dati si usa una
funzione di OR esclusivo, e viene quindi prodotta un’immagine classificata. Tutti i pixel vengono
assegnati allo spettro con il più alto numero di bande che coincidono, a meno che non sia stata
specificata una soglia minima di corrispondenza, nel qual caso i pixel che non corrispondono ai
criteri scelti non vengono classificati.
9.10.7 Valutazione dei risultati
La classificazione fornisce in uscita un’immagine raster in cui i singoli elementi sono etichettati
come appartenenti alle varie classi. Dato che la classificazione è basata sulla determinazione dei
campioni delle varie classi, la qualità della classificazione deve essere valutata e quantificata
successivamente. Per fare questo di solito si usa un approccio a campione in cui viene selezionato
un certo numero di elementi raster e si confrontano il risultato della classificazione e quelli delle
classi in cui si è diviso lo spazio delle caratteristiche. Per effettuare il confronto viene creata la
matrice di errore, detta anche di confusione, dalla quale possono essere misurate diverse misure di
accuratezza.
Per selezionare i pixel per effettuare il test sono stati proposti vari schemi di campionamento. Le
scelte che vanno fatte riguardano il numero di campioni richiesto, e l’area dei campioni. Strategie
raccomandate di campionamento nel campo della copertura del suolo sono il campionamento
semplice casuale e quello stratificato. Il numero di campioni può essere messo in relazione a due
fattori nella valutazione dell’accuratezza:
1. il numero di campioni deve essere scelto in modo da scartare gli insiemi di dati che risultano
inaccurati;
2. il numero di campioni richiesto per determinare la reale accuratezza, entro alcuni margini di
errore, per un insieme di dati.
La teoria del campionamento è usata per determinare il numero dei campioni richiesti. Il numero dei
campioni deve essere commisurato all’area coperta da un’unità campione. Un’unità campione può
essere un punto ma anche un’area di una certa dimensione; può essere un singolo elemento raster
ma può anche includere gli elementi raster circostanti. Tra le altre considerazioni che vanno fatte, la
dimensione ottima dell’area del campione dipende dall’eterogeneità della classe.
236
Fig.9.10 – La matrice di errore con gli errori derivati e le accuratezze espressi in percentuali; A, B, C e D si riferiscono
alle classi considerate, mentre a, b, c, d si riferiscono alle classi nel risultato della classificazione. L’accuratezza totale è
del 53%
Una volta effettuato il campionamento e raccolti i dati, viene costruita una matrice degli errori, detta
matrice di confusione o di contingenza. In questa matrice vengono elencate quattro classi (A,B,C,D)
per un totale di 163 campioni. Dalla tabella si può leggere che, per esempio, sono stati trovati nel
mondo reale 53 casi di ‘A’ (‘reference’) mentre il risultato della classificazione ha trovato 61 casi di
‘A’. In 35 casi i due risultati coincidono.
La prima e più comune misura di accuratezza della classificazione è l’accuratezza totale (Overall
Accuracy ), detta anche Proportion Correctly Classified (PCC). L’accuratezza totale è il numero di
pixel correttamente classificati (cioè, la somma delle celle diagonali nella matrice di confusione)
diviso per il numero totale di pixel analizzati. Nella tabella riportata sopra l’accuratezza totale è
(35+11+38+2)/163=53%.
Molte delle misure che vengono effettuate attraverso la matrice di confusione sono relative alle
singole classi:
- l’errore di omissione riguarda quei punti campione che sono stati omessi
nell’interpretazione del risultato. Consideriamo la classe ‘A’, per la quale sono stati presi 53
campioni; 18 di questi 53 campioni sono stati interpretati come b, c, o d. Questo produce un
errore di omissione pari a 18/53=34%; l’errore di omissione comincia con i dati di
riferimento e si legge nelle colonne della matrice di confusione.
- L’errore di inclusione comincia dall’interpretazione del risultato e si legge nelle righe della
matrice di confusione; tale errore riguarda i campioni classificati in maniera scorretta;
consideriamo la classe D: solo due campioni su 21 (10%) sono etichettati correttamente; gli
errori di commissione e di omissione sono conosciuti anche come errori di I e II tipo
rispettivamente;
- L’accuratezza dell’utente è il corollario dell’errore di commissione, mentre l’errore di
omissione è il corollario dell’accuratezza del produttore.
- L’accuratezza del produttore è la probabilità che un punto associato ad una classe nella
mappa appartenga veramente a quella classe.
Un’altra misura largamente usata è il coefficiente Kappa, il quale prende in considerazione il fatto
che anche assegnando etichette a caso si possa ottenere un buon grado di accuratezza. Il coefficiente
k può assumere valori compresi tra 0 ed 1, ed indica quanta dell’accuratezza ottenuta non è banale;
in altre parole, valori di k prossimi a zero significano che l’accuratezza ottenuta non si discosta
molto da quella che si sarebbe ottenuta “gratis” cioè assegnando ad ogni pixel una classe a caso,
237
mentre valori di k prossimi ad 1 indicano che il risultato della classificazione ha effettivamente un
alto contenuto d’informazione.
La formula per il calcolo del coefficiente k è la seguente:
N ∑ x kk − ∑ x k ∑ x ∑ k
k=
k
N 2 − ∑ xk ∑ x∑ k
(9.8)
k
dove N è il numero di pixel contenuto in tutte le classi della verità a terra, e xkk rappresenta i pixel
sulla diagonale nella matrice di confusione.
9.10.8 Problemi nella classificazione delle immagini
La classificazione delle immagini è una tecnica potente per ottenere delle classi tematiche da dei
dati multispettrali. I limiti principali della classificazione delle immagini basate sul pixel sono che
la classificazione fornisce classi spettrali e che ogni pixel è assegnato ad una classe soltanto. Le
classi spettrali sono classi direttamente legate alle bande spettrali usate nella classificazione. A loro
volta, queste sono collegate alle caratteristiche della superficie. In questo senso si può quindi dire
che le classi spettrali corrispondono alle classi di copertura del suolo. Nel processo di
classificazione una classe spettrale può essere rappresentata da più classi di addestramento; questo è
dovuto, tra le altre cose, alla variabilità all’interno di una classe spettrale. Consideriamo una classe
come l’erba; ci sono tipi differenti di erba, che hanno diverse caratteristiche spettrali. In più, lo
stesso tipo di erba può avere diverse caratteristiche spettrali se considerate su aree grandi, a causa,
ad esempio, delle diverse condizioni del terreno e del clima. Alle volte si è interessati alle classi di
uso del suolo piuttosto che a quelle di copertura del suolo. Certe volte una classe di uso del suolo
può comprendere numerose classi di copertura del suolo.
L’altro grosso problema è che ogni pixel è assegnato solo ad una classe. Quando si ha a che fare con
pixel relativamente piccoli, questo non è un problema, ma quando si ha a che fare con pixel
relativamente grandi più classi di copertura del terreno si presenteranno nello stesso pixel. Come
risultato, il valore spettrale del pixel è una media della riflettanza delle coperture del suolo presenti
all’interno del pixel. In una classificazione standard questi contributi non possono essere distinti e il
pixel verrà assegnato ad una piuttosto che ad un’altra delle classi presenti; questo fenomeno è noto
come fenomeno dei pixel misti o mixel. Questo problema dei pixel misti pone l’accento sulla
necessità di usare dati con una risoluzione spaziale appropriata.
9.11 L’approccio neurale
Una rete neurale è un insieme di unità di elaborazione semplici, detti nodi o neuroni, collegate da
una serie di connessioni detti pesi sinaptici. I nodi sono delle unità computazionali in grado di
compiere delle operazioni aritmetiche molto semplici, e sono organizzati in una serie di strati o
layer. Il numero di nodi e di strati determina la complessità della rete. Lo strato di input riceve i dati
da elaborare, lo strato intermedio (detto anche strato nascosto perché non è in diretto collegamento
con l’esterno) elabora i dati provenienti dallo strato precedente e li trasmette all’ultimo strato, che è
quello di output che fornisce il risultato alla rete.
238
STRA TO D’USCITA
(OUTPUT LAYER)
NEURONI
o
NODI
STRA TO NASCOS TO
(HIDDEN LAYER)
PESI
o
CONNESSIONI
STRA TO D’INGRESSO
(INPUT LAYER)
Fig. 9.11 -: architettura di una semplice rete neurale
Nel funzionamento di una rete neurale vengono distinte due fasi: apprendimento e riconoscimento.
Durante la fase di apprendimento la rete viene istruita grazie ad un campione di dati presi
dall’insieme di quelli che saranno elaborati in seguito, che sono immessi nella rete assieme alla loro
etichetta di classe affinché la rete possa “impararli”. Durante la fase di riconoscimento, che
costituisce poi il normale funzionamento della rete, essa viene usata per elaborare i dati di input in
base all’apprendimento effettuato. Le reti neurali sono rese estremamente interessanti dalle capacità
di cui godono. Innanzi tutto, tali reti imparano adattivamente da esempi di training senza chiedere
alcun tipo di assunzione a priori circa la distribuzione statistica delle classi nel set di dati, ed inoltre
sono capaci di autoorganizzarsi. Infine, tollerano informazioni incomplete, affette da rumore o
ridondanti.
9.11.1 La rete Fuzzy Artmap
La rete Fuzzy Artmap si basa sulla logica ART (Adaptive Resonance Theory), introdotta da
Grossberg nel 1976 e sviluppata successivamente insieme a Carpenter. Questa rete è ottenuta
combinando due moduli ART, denominati ARTa e ARTb, con un blocco centrale chiamato Map
Field.
Fig. 9.12 – Struttura delle rete Fuzzy Artmap
239
La struttura della rete Fuzzy Artmap utilizzata per la classificazione di immagini telerilevate è in
realtà più semplice di quella sopra esposta, in quanto il modulo ARTb è sostituito da uno strato di
neuroni denominato output layer.
OUTPUT LAYER
ONE TO ONE connection
ρ2
MAP FIELD LAYER
MAP FIELD WEIGHTS W2
ρ1
CATEGORY LAYER
CATEGORY LAYER WEIGHTS W1
INPUT LAYER
INPUT VECTOR A
Fig. 9.13 – Struttura di una rete semplice
Nell’ipotesi di classificare dati ad n dimensioni, possiamo dire che lo strato di ingresso (input layer)
è costituito da 2n neuroni. Lo strato di uscita (output layer) lavora in modalità bidirezionale, ossia
funziona da ingresso nella fase di addestramento e da uscita nella fase di classificazione. Tale strato
è costituito da m neuroni, dove m è il numero di classi che si desidera distinguere. Il secondo strato,
il category layer, cresce dinamicamente di dimensioni, essendo inizialmente costituito da un solo
neurone. I neuroni di questo strato, che si creano durante l’addestramento, vengono chiamati
categorie. Il mapfield layer è connesso neurone per neurone con l’output layer e ne ha la stessa
dimensione. Questo strato costituisce un controllo per minimizzare il numero di categorie create, in
modo da permettere un apprendimento rapido senza peggiorare l’errore di predizione.
9.11.2 Parametri ed operatori
I parametri utilizzati sono i seguenti:
parametro di scelta; il suo intervallo di valori è tra 0 e 1;
α
β1, β2 costanti per l’apprendimento della rete; 0 ≤ β ≤ 1
ρ1, ρ 2 costanti di vigilanza; 0 ≤ ρ ≤ 1
Si definiscono inoltre:
A
vettore di ingresso
B
vettore di uscita
W1n vettore dei pesi tra input layer e il nodo n del category layer
W2n vettore dei pesi tra map field layer e il nodo n del category layer
240
Gli operatori usati sono:
r
x = ∑ xi
Norma di un vettore x:
(9.9)
i
Fuzzy-AND:
( X ∧ Y ) i = min( x i , y i )
Indicando con j l’indice della categoria
A ∧ W1 j
Scelta di categoria Tj :
Tj =
α + W1 j
Match ratio al map field Rm:
Rm =
Match ratio al category layer Rc:
Rc =
Risonanza:
(
(9.10)
(9.11)
B ∧W 2 j
(9.12)
B
A ∧ W1 j
)
(9.13)
A
W 1NEW
= β 1 A ∧ W 1OLD
+ (1 − β 1 )W 1OLD
j
j
j
(
(9.14)
)
W 2 NEW
= β 2 B ∧ W 2 OLD
+ (1 − β 1 )W 2 OLD
j
j
j
si noti che per β = 1 le espressioni precedenti si riducono a:
W 1NEW
= A ∧ W 1OLD
j
j
W 2 NEW
= B ∧ W 2 OLD
j
j
in questo caso si parla di apprendimento rapido o fast learning.
(9.15)
(9.16)
(9.17)
9.11.3 Formato dei pattern di ingresso e uscita
Le componenti dei vettori di ingresso per Fuzzy Artmap sono numeri reali compresi tra 0 e 1. La
struttura d’ingresso è costituita da m vettori di n componenti, dove m è il numero di pixel delle
immagini da classificare e n è il numero di immagini. La figura seguente riassume quanto detto:
Immagine 1
Immagine 2
VETTORE DI INGRESSO
Immagine 3
Immagine 4
In realtà Fuzzy Artmap lavora con vettori di ingresso normalizzati per evitare il verificarsi del
fenomeno noto come proliferazione delle categorie, cioè di nodi del category layer. Per evitare di
perdere informazioni sul modulo dei vettori in ingresso, si esegue una codifica complementare degli
ingressi, ossia, dato un vettore di ingresso I costruito come sopra, si costruisce un vettore di
ingresso I’ così definito: I’=(I, 1-I).
I vettori di uscita invece sono vettori costituiti da elementi tutti nulli, ad eccezione di quello che
rappresenta la classe di appartenenza del pixel e che viene posto a uno.
241
1
0
0
classe 1
0
1
classe 2
0
0
0
1
classe 3
9.11.4 Algoritmo
Fase di addestramento
Si presenta il vettore di ingresso corrispondente al primo pixel all’input layer e la corrispondente
uscita all’output layer. Il primo ingresso viene associato al primo nodo del category layer,
dopodiché si esegue la risonanza.
Si procede con la successiva coppia di ingressi-uscite e per ogni nodo del category layer si calcola
la funzione di scelta Tj; si cerca quindi il nodo che presenta il valore massimo.
Si calcola il match ratio al map field Rm per questo nodo e si effettua il test di vigilanza, cioè si
verifica se Rm ≥ ρ2
Se questo test è superato si esegue la risonanza altrimenti entra in gioco una sottoprocedura per
cercare nuovi modi che soddisfino determinati vincoli; se ciò non accade si crea una nuova
categoria e si esegue sempre la risonanza. La fase di addestramento è molto importante in quanto è
responsabile della precisione della classificazione finale. Dopo la fase di training la rete sarà in
grado di distinguere le varie classi delle immagini presentate in ingresso.
Fase operativa
Si presenta il vettore d’ingresso e si calcola la funzione di scelta per ogni nodo del category layer,
individuando quello con valore massimo. Dopodiché viene inviato all’output layer il vettore di
uscita corrispondente al nodo scelto. Si procede quindi per ogni pixel dell’immagine da classificare.
I risultati forniti dalla rete sono influenzati dal valore dei parametri. Al parametro α viene di solito
assegnato il valore di 0,001, mentre il valore di β è il più delicato da scegliere. Se β = 1 si ottiene un
addestramento della rete più veloce ma non risultati vantaggiosi. La dinamica di questo parametro
prevede che con valori alti diminuiscano le classi e di conseguenza con valori bassi le classi
tendono ad aumentare. Il parametro ρ è quello che incide di più sulla scelta delle categorie, perché
influenza il criterio di risonanza. Per bassi valori di ρ il numero di classi rimane basso, mentre tende
ad aumentare al suo crescere. In conclusione si possono fare le seguenti considerazioni per la rete
Artmap:
- Ha un numero di parametri abbastanza limitato;
- Non è richiesta l’assegnazione di un valore iniziale per i vettori dei pesi;
- Il meccanismo di match tracking, assegnando il valore più opportuno per ρ1, consente al
sistema di creare il numero minimo di categorie;
- Possiede una discreta velocità di esecuzione dell’intero ciclo di classificazione;
- Il sistema è stabile perché i vettori dei pesi hanno un andamento non crescente.
9.12 Applicazioni alla vegetazione
9.12.1 Operazioni tra bande
Per enfatizzare o ridurre alcuni difetti propri dell’immagine e delle caratteristiche spettrali degli
oggetti in essa contenuti si possono effettuare le operazioni tra bande, o tra bande della stessa
immagine o tra bande di immagini diverse, acquisite cioè in momenti diversi, ma relative alla stessa
area. Tali operazioni, che vengono effettuate tra i DN delle varie bande, sono di solito la somma, la
differenza, il prodotto e il rapporto.
242
Somma e differenza
Sono operazioni poco usate direttamente, ma rientrano in molti calcoli più complessi, come il
calcolo degli indici di vegetazione.
La somma viene utilizzata per ricavare il valore medio di una scena ripresa in tempi diversi ma nella
stessa banda.
La differenza viene utilizzata per enfatizzare le variazioni di riflettanza tra due scene prese in tempi
diversi.
Prodotto
Si usa moltiplicando due bande o una banda per se stessa allo scopo di aumentare il contrasto ed
enfatizzare i pixel che hanno alti valori di riflettanza.
Rapporto
Si tratta del rapporto tra due bande preventivamente riscalate a 0-255 livelli di grigio secondo la
nota formula:
DN ' =
DN − MIN
⋅ 255
MAX − MIN
(9.18)
Si può anche riscalare usando come soglia il valore 1 del rapporto per poi assegnare un valore tra 0
e 127 per i risultati < 1 e da 127 a 255 per quelli > 1. Il suo utilizzo è molteplice perché è il migliore
strumento per confrontare risposte spettrali diverse su bande differenti. In sostanza, utilizzando il
rapporto si mettono in relazione picchi e minimi appartenenti alla firma spettrale di uno stesso
oggetto (tipo di roccia, vegetazione, suolo). Il rapporto permette di ridurre l’effetto topografico
(ombre e zone con maggiore illuminazione), ma se effettuato tra due bande, tende ad enfatizzare il
rumore.
Come la somma è utilizzato all’interno di operazioni più complesse; viene usato per attenuare i
problemi dovuti alla diversa illuminazione della scena a causa dell’orografia del terreno.
9.12.2 Gli indici di vegetazione
Sono il mezzo più efficace per l’osservazione della vegetazione e si basano su combinazioni
algebriche di misure di riflettanza in due o più canali spettrali. Questi indici sono altamente correlati
con i parametri relativi allo stato di salute delle piante e alla produttività come densità e copertura,
biomassa verde, indice di area fogliare, clorofilla e condizione delle colture. Possono essere divisi
in tre categorie:
- Indici intrinseci: considerano solo la riflettanza;
- Indici legati alla linea dei suoli: riducono l’effetto del terreno;
- Indici corretti contro gli effetti atmosferici.
9.12.2.1 Gli indici intrinseci
I due indici intrinseci più conosciuti sono il Simple Ratio (SR) e il Normalized Difference
Vegetation Index (NDVI);
SR
È il più semplice indice di vegetazione; assume valori compresi tra 0 e infinito, generalmente tra 0 e
1 per i suoli e tra 1 e 6 per la vegetazione verde.
SR =
ρ nir
ρr
(9.19)
Per studi multitemporali questo rapporto ha lo svantaggio di dipendere dal valore assoluto di NIR e
IR e quindi di essere affetto in buona misura dalla condizioni atmosferiche di ripresa.
243
NDVI
È il più usato e comune; assume valori tra –1 e 1, in particolare inferiori a 0 per l’acqua, poco
superiori a 0 per i suoli, e tra 0,4 e 0,7 per la vegetazione. Solo vegetazioni molto dense arrivano a
0,8.
NDVI =
ρ nir − ρ r
ρ nir + ρ r
(9.20)
Questo indice viene determinato in maniera diversa per diversi sensori multispettrali, ma può essere
sintenticamente assimilato ad una combinazione delle radianze in un canale visibile
(particolarmente nel rosso) e nel vicino infrarosso, attraverso opportuni coefficienti e formule simili
a quella riportata sopra. È intuitivo come una maggiore presenza di pigmenti accresca il numeratore,
mentre il rapporto genera una quantità relativamente indipendente da fattori moltiplicativi o additivi
sulle radianze (dovuti, ad esempio, a cambiamenti nella calibrazione del sensore). I profili temporali
di tale indice durante l’anno sono correlati alle variazioni nella quantità e nella funzionalità
dell’apparato fotosintetizzante. Ciò può essere utilizzato per stimare, con opportuni modelli, le rese
di una coltura e contribuire alla previsione della produzione allorchè sia nota l’area di territorio
interessata da tale coltura.
Questo indice ha il vantaggio di risentire in maniera minore delle condizioni atmosferiche rispetto
agli indici SR e DVI (Differenced Vegetation Index; DVI = ρnir - ρr).
Un indice di vegetazione equivalente (TVI: Transformed vegetation index) è stato calcolato per il
sensore LandSat TM
 TM 4 − TM 3

TVI = 
+ 0,5  ⋅ 100
 TM 4 + TM 3

(9.21)
9.12.2.2 Indici legati alla linea dei suoli
Spesso la vegetazione non è tanto densa da coprire il 100% il terreno su cui cresce, per cui la
risposta rimane influenzata dalle caratteristiche di colore dei suoli e dal loro contenuto di umidità.
In generale per i suoli si hanno valori più alti di riflettanza spettrale nell'infrarosso vicino rispetto al
rosso. Sperimentalmente si osserva una relazione di tipo lineare: nello spazio spettrale "rossoinfrarosso vicino" infatti, i punti rappresentativi dei suoli S tendono a disporsi lungo una linea detta
"linea dei suoli":
ρ Snir = aρ Sr + b
(9.22)
PVI (Perpendicular Vegetation Index)
Questo indice vale zero sulla linea dei suoli (Indice di Area Fogliare=0) e cresce linearmente man
mano che ci si sposta perpendicolarmente ad essa.
PVI =
ρ nir − aρ r − b
a2 +1
244
(9.23)
SAVI (Soil Adjusted Vegetation Index)
Questo indice si presta bene nel caso di vegetazione con scarsa copertura ed inoltre tale indice può
essere adattato a diverse tipologie di suolo.
SAVI =
ρ nir − ρ r
× (1 + L)
ρ nir + ρ r + L
(9.24)
9.12.2.3 Indici corretti per effetti atmosferici
ARVI (Atmospherically Resistant Vegetation Index)
In esso il termine ρrb è dato dalla combinazione delle riflettanze nelle bande spettrali del blu e del
rosso, ed il parametro γ dipende dal tipo di aerosol. In genere γ= 1 .
ARVI =
ρ nir − ρ rb
ρ nir + ρ rb
ρ rb = ρ r − γ ( ρ b − ρ r )
(9.25)
(9.26)
GEMI (Global Environment Monitoring Index)
GEMI = η × (1 − 0.25η ) −
ρ r − 0.125
1 − ρr
2
2( ρ nir
− ρ r2 ) + 1.5 ρ nir + 0.5 ρ s
η =
ρ nir + ρ r + 0.5
(9.27)
(9.28)
9.13 I dati iperspettrali
Mentre multispettrale significa con più bande, iperspettrale significa con molte bande (più di 100);
ciò significa che il telerilevamento iperspettrale fornisce una traccia praticamente completa di
misure alle diverse lunghezze d’onda delle risposte spettrali di diversi materiali.
Analisi di dati iperspettrali
L’approccio generale prevede :
- Sviluppo di una “Libreria Spettrale”, ovvero di un archivio di risposte spettrali di diversi tipi
di materiali.
- Costruzione di curve di risposta spettrale per materiali abbastanza “puri”
- Da queste curve si possono estrarre i picchi specifici di riflettanza e di assorbimento.
- Quindi i dati sono confrontati con gli spettri ottenuti in laboratorio (mixture analysis)
- Misture di due o anche tre materiali possono essere riconosciuti in un singolo pixel
attraverso metodologie di “demissaggio”
Librerie spettrali
Va tenuta in conto sia la diversità di materiali recuperabili nella immagine di interesse, sia la loro
diversa risposta a seconda della loro posizione rispetto al sensore (BRTF: bidirectional radiative
transfer function).
245
Analisi dei dati iperspettrali
Ricerca dei pixel “puri”:
- Bisogna trovare prima di tutto questi pixel, utilizzando un indice, detto Pixel Purity Index
(PPI).
- A cosa servono? I pixel “puri” forniscono spettri che possono essere utilizzati per separare i
contributi dei diversi materiali in aree che sono invece di commistione.
- Se si suppone di avere una combinazione lineare, è possibile estrarre le componenti di
ciascun pixel risolvendo una serie di equazioni lineari, o meglio minimizzando un
funzionale attraverso tecniche dei minimi quadrati.
Problemi dei dati iperspettrali
Il volume enorme di dati richiede una riduzione delle informazioni da elaborare (feature reduction)
o metodi di calcolo molto efficienti. Il costo di questi dati li rende proibitivi per la maggior parte
delle applicazioni. La necessità di correzioni geometriche e atmosferiche di alto livello richiede un
certo numero di dati di supporto, non alla portata di chiunque. Non ultimo, la complessità della loro
analisi ne rende difficile l’utilizzabilità immediata.
9.14 Il sensore AVIRIS
AVIRIS sta per Airborne Visible/infrared Imaging Spectrometer; è un sensore di tipo passivo che
rileva la riflettanza degli obiettivi presi in esame. Esso acquisisce dati in 224 bande di frequenza che
coprono l’intervallo da 400 nm a 2450 nm; la frequenza di scansione è di 12 scans / sec .Ogni banda
ha una larghezza di circa 10 nm. La risoluzione spaziale di un pixel, che è rappresentato da due byte
per banda, è 20 m × 20 m.
Fig. 9.14 - Metodo di funzionamento del sensore AVIRIS
Le specifiche tecniche
- La larghezza tipica della strisciata è di 11 km.
- La dispersione dello spettro in fase di acquisizione di dati viene ottenuta attraverso una
griglia ottica di diffrazione.
246
- L’intervallo totale di frequenze va da 380 a 2500 nanometri (all’incirca lo stesso delle bande
del TM su LANDSAT).
- L’immagine è costruita, con scansione longitudinale, come una successione di linee di 644
pixel.
- Ultimamente, è stato fatto volare più in basso, grazie a miglioramenti nell’elettronica, con
risoluzione di 5/10 metri.
•
Procedura utilizzata
9.15 Il Dais
DAIS sta per Digital Airborne Imaging Spectrometer. È un sensore iperspettrale con:
- 79 Bande spettrali tra 0,4 e 12,3 µm
- Dati di temperatura nel canale 80
247
-
Risoluzione a terra fino a 2,6 metri
É utilizzato principalmente per:
- L’investigazione sullo stato della vegetazione
- La mappatura risorse agricole e forestali
- Il reperimento di dati geografici
- Il monitoraggio ambientale
Prima di operare con questi dati, essi necessitano di alcune operazioni preliminari, soprattutto della
correzione geometrica e a maggior ragione di quella atmosferica.
Durante l’elaborazione di questi dati vengono usati dei dati ausiliari; per esempio, in contemporanea
al volo per HySens sono stati utilizzati:
- Misure dell’intensità di radiazione solare per le correzioni atmosferiche
- Misure di firme spettrali di alcuni materiali
- Misure GPS ad alta precisione per le correzioni
In più:
- Misure di firme spettrali dal CNR
9.16 Sensori iperspettrali da satellite
Hyperion è un sensore montato sul satellite EO-1 (lanciato nel Dicembre 2000). Esso ha:
- La stessa orbita del Landsat 7
- 220 canali da 400 a 2500 nm
- Una risoluzione a terra di 30 metri.
248