III anno - Università degli studi di Genova

Transcript

III anno - Università degli studi di Genova
Università degli Studi di Genova
DIBE - Dipartimento di Ingegneria Biofisica ed Elettronica
Dottorato di Ricerca in
Scienze e Ingegneria dello Spazio
- XIV Ciclo -
Relazione Finale
sull'attività svolta durante
il triennio
Dottorando: Ing. Giancarlo Bo
Tutor: Prof. Silvana Dellepiane
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
Indice
1
ATTIVITÀ DI RICERCA SVOLTA ......................................................................3
1.1
Interferometria SAR: sviluppo di una metodologia integrata per il filtraggio
dell'interferogramma e il phase-unwrapping...................................................................................... 4
1.1.1
Introduzione............................................................................................................................................................... 4
1.1.2
Il Filtraggio ................................................................................................................................................................. 5
1.1.3
Il Phase Unwrapping ................................................................................................................................................. 6
1.1.4
Approccio Integrato Filtraggio/Phase Unwrapping .................................................................................................... 7
1.1.5
Risultati Sperimentali................................................................................................................................................. 7
1.1.6
Bibliografia................................................................................................................................................................. 9
1.2
Il telerilevamento per il monitoraggio dell'ambiente costiero: identificazione della linea di
costa su immagini telerilevate mediante analisi di tessitura e analisi del contesto spaziale..... 10
1.2.1
Introduzione............................................................................................................................................................. 10
1.2.2
Il metodo proposto................................................................................................................................................... 10
1.2.3
Risultati Sperimentali............................................................................................................................................... 11
1.2.4
1.3
Bibliografia............................................................................................................................................................... 15
Valutazione dei danni da alluvione tramite interferometria SAR......................................... 16
1.3.1
Introduzione............................................................................................................................................................. 16
1.3.2
Descrizione dell'approccio proposto e risultati ottenuti............................................................................................ 16
1.3.3
Valutazione quantitativa dei risultati ........................................................................................................................ 18
1.3.4
Bibliografia............................................................................................................................................................... 20
1.4
Impiego dell’interferometria differenziale per il monitoraggio di movimenti del suolo su
media e grande scala .......................................................................................................................... 21
1.4.1
Introduzione............................................................................................................................................................. 21
1.4.2
Il problema............................................................................................................................................................... 21
1.4.3
L’Interferometria Differenziale SAR ......................................................................................................................... 22
1.4.4
I siti pilota e i dati SAR disponibili............................................................................................................................ 23
1.4.5
Risultati preliminari ottenuti ..................................................................................................................................... 24
1.4.6
Conclusioni .............................................................................................................................................................. 24
1.4.7
Bibliografia............................................................................................................................................................... 25
1.5
Introduzione............................................................................................................................................................. 26
1.5.2
Metodologia ............................................................................................................................................................. 27
1.5.3
Gestione di un archivio di immagini METEOSAT .................................................................................................... 28
1.5.4
Risultati Sperimentali............................................................................................................................................... 30
1.5.5
1.6
2
3
4
5
6
Estrazione di feature per l’indicizzazione di database di immagini telerilevate ................ 26
1.5.1
Bibliografia............................................................................................................................................................... 31
Valutazione della qualità dell’informazione geospaziale estratta da dati telerilevati........ 32
1.6.1
Introduzione............................................................................................................................................................. 32
1.6.2
Metodo proposto per la valutazione della qualità .................................................................................................... 32
1.6.3
Sistemi per l’Elaborazione, Gestione e Diffusione di Informazione Telerilevata ..................................................... 36
1.6.4
Bibliografia............................................................................................................................................................... 37
ATTIVITÀ DIDATTICA SVOLTA .....................................................................39
PARTECIPAZIONE A CORSI E/O SCUOLE...................................................39
PARTECIPAZIONE A CONVEGNI E/O CONGRESSI.....................................39
APPARTENENZA AD ASSOCIAZIONI ...........................................................39
PUBBLICAZIONI .............................................................................................40
2
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
1 Attività di ricerca svolta
La presente relazione costituisce una sintesi delle attività svolte e dei risultati ottenuti
durante i tre anni del corso di Dottorato in Scienze e Ingegneria dello Spazio.
Fin da subito l’attenzione è stata rivolta all’analisi di alcune problematiche particolarmente
attuali nell’ambito del monitoraggio ambientale, specie per quanto riguarda la Regione
Liguria. In particolare, si sono presi in considerazione:
•
•
•
l’evoluzione della morfologia costiera
il monitoraggio dei fenomeni alluvionali
il monitoraggio dei movimenti lenti del terreno e delle frane.
In seguito ad uno studio dettagliato della genesi ed evoluzione dei suddetti fenomeni sono
stati individuati i dati e le metodologie di analisi più idonei al loro monitoraggio. In particolare
sono stati sviluppati ed implementati algoritmi innovativi per l’estrazione, in particolare da dati
Radar ad Apertura Sintetica (SAR), di tutte quelle informazioni che possono essere ritenute
significative negli ambiti considerati.
Nel corso della ricerca è emersa chiaramente l’esigenza di strumenti che, oltre ad una
agevole analisi ed elaborazione dei dati, permettano anche la gestione integrata della
archiviazione dei dati telerilevati, la loro distribuzione mediante le attuali tecnologie di
comunicazione, nonchè la circolazione dell’informazione da essi estratta nel rispetto degli
standard e dei criteri di qualità attualmente riconosciuti. Pertanto, nel corso del Dottorato,
sono stati effettuati studi orientati non solo allo sviluppo di metodologie avanzate per
l’elaborazione dei dati satellitari ma anche alla definizione di specifiche e linee guida per la
progettazione di sistemi idonei ad uno sfruttamento applicativo e commerciale del
telerilevamento.
Nei paragrafi che seguono viene offerta una descrizione più dettagliata, seppure
informale, delle attività realizzate e dei risultati conseguiti in ognuno dei filoni di ricerca
affrontati. Maggiori e più dettagliate informazioni sulle ricerche sviluppate possono essere
ritrovate nelle pubblicazioni indicate nella sezione 5 della presente relazione, nonchè nella
tesi finale dal titolo: “Remote Sensing and Synthetic Aperture Radar for Environment
Monitoring: Data Processing and Analysis”.
3
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
1.1 Interferometria SAR: sviluppo di una metodologia integrata per
il filtraggio dell'interferogramma e il phase-unwrapping
1.1.1 Introduzione
Il phase-unwrapping è uno dei passaggi più importanti nella catena di elaborazione che
permette di generare modelli di elevazione digitale del suolo mediante la tecnica
interferometrica applicata a dati SAR (Synthetic Aperture Radar). A causa della presenza di
rumore, un operazione di filtraggio deve essere effettuata prima di procedere alla soluzione
delle ambiguità di fase, in modo da ottenere una migliore stima delle fasi reali e, di
conseguenza, un modello topografico più preciso. Per risolvere tale problema è stato
sviluppato un processo in due passi che integra un approccio innovativo per il filtraggio nel
dominio spaziale ed un metodo di phase-unwrapping multi-risoluzione che ha dimostrato di
essere meno sensibile al rumore rispetto alle tecniche classiche presenti in letteratura.
Il filtro è stato concepito con l'obiettivo di preservare i dettagli fini presenti
nell'interferogramma e direttamente legati alla topografia del suolo. In particolare, le
discontinuità associate alle frange interferometriche devono rimanere nella corretta
posizione e la distribuzione dei valori di fase deve essere mantenuta. Un semplice filtro
passa-basso in una finestra quadrata non è adatto in questo caso poiché, pur presentando
un buon comportamento in regioni omogenee dell'immagine, introduce un eccessivo
degrado dell'informazione utile in prossimità delle frange. Dal momento che il contrasto
locale e la disposizione delle frange devono essere conservati, la riduzione del rumore
dovrebbe essere realizzata impiegando una tecnica adattiva che tenga conto dell'aspetto e
delle statistiche locali dell'immagine interferometrica. Si è pensato quindi di realizzare un
metodo di filtraggio edge-preserving che sfrutti l'informazione spaziale locale allo scopo di
identificare, per ogni pixel, la miglior maschera di filtraggio, scegliendola in un ampio set di
sistemi di vicinanza. Una volta che la finestra migliore è stata selezionata, deve essere
applicata una opportuna funzione di filtraggio. Si assume che il rumore di fase sia
caratterizzato da un modello additivo gaussiano a media nulla e che la funzione di filtraggio
tenga conto di questa distribuzione. Si è quindi adottato un criterio adattivo non-lineare,
basato sulla stima locale del rumore e della deviazione standard del segnale (i.e. le frange
interferometriche). La funzione risultante si comporta come un filtro mediano in presenza di
fini dettagli, come un filtro medio in aree omogenee dell'immagine e come una
combinazione dei due in aree con caratteristiche intermedie. Operando in questo modo
l'algoritmo offre due livelli di adattività: si adatta alle caratteristiche contestuali spaziali per la
selezione della maschera migliore e alle statistiche locali durante il filtraggio vero e proprio.
L'efficacia del metodo può essere valutata osservando come il rumore viene ridotto
drasticamente mentre l'integrità dei gradienti di fase è conservata.
Una volta che il rumore interferometrico è stato rimosso, le fasi dell'interferogramma
devono essere "srotolate". A tale scopo è stato messo a punto un metodo innovativo che
permette la valutazione del valore reale della fase per ogni pixel attraverso lo sviluppo
iterativo di un modello tridimensionale della funzione di fase corrispondente alle variazioni di
pendenza del suolo.
I risultati sperimentali, ottenuti applicando a dati sintetici e reali la metodologia descritta,
hanno dimostrato che l'integrazione di un filtraggio adattivo detail preserving con un
algoritmo di phase-unwrapping poco sensibile al rumore costituisce un buon mezzo per
ridurre gli effetti dovuti a rumore termico e bassa coerenza sull'interferogramma nella
determinazione di un modello digitale di elevazione del suolo.
4
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
1.1.2 Il Filtraggio
La soluzione proposta consiste nell'uso di un set di maschere anisotrope, ognuna in grado
di adattarsi alle particolari caratteristiche locali della distribuzione dei valori di fase
nell'immagine interferometrica. Su ogni maschera viene definita una funzione di filtraggio non
lineare che varia in dipendenza dal comportamento statistico locale del segnale e del
rumore. Applicando tale approccio è possibile conservare i dettagli e mantenere la corretta
distribuzione dei valori di fase, informazioni indispensabili per le successive elaborazioni
quali il phase unwrapping. In pratica, l'algoritmo di filtraggio proposto opera attraverso due
passi principali:
•
•
selezione della maschera che meglio si adatta alle caratteristiche locali dei dati;
filtraggio non lineare adattivo del rumore di fase sulla maschera precedentemente
selezionata.
E' stato creato un vasto insieme composto da svariate decine di maschere adattive, che
differiscono fra di loro per "spessore" e direzione (in Fig. 1 alcuni esempi). L'utilizzo di
finestre di elaborazione non quadrate per l'estrazione dell'informazione direzionale contenuta
nell'interferogramma, permette di ridurre il rumore limitando l'insorgenza di effetti di blurring
come normalmente avviene se si sfruttano maschere quadrate. Allo scopo di selezionare la
maschera migliore per ogni pixel, la varianza dei dati viene calcolata su tutte le maschere
contenute nell'insieme: per filtrare si utilizzerà quella corrispondente alla varianza minore.
Tale criterio implica la ricerca della direzione in cui i valori di fase presentano una maggiore
omogeneità.
Figura 1: Dieci maschere direzionali selezionate dall'insieme di criteri di vicinanza. I pixel neri sono
quelli coinvolti nel processo di filtraggio.
Dato un pixel xi , una volta che la maschera ottima è stata individuata, si procede con la
stima delle statistiche locali dei dati corrispondenti alla maschera stessa. Conoscendo questi
valori è possibile calcolare il valore di fase filtrato, yi. La funzione di filtraggio per un generico
pixel può essere espressa nel modo seguente:
 (1 − a ) ⋅ xi + a ⋅ mˆ x if a ≥ c
yi = 
if a < c
 med ( xi )
[1]
dove:
σˆ

b+ n
a=
σˆ x
 1
σˆ n
≤ 1- b
σˆ x
otherwise
if
[2]
mx e med(xi) sono, rispettivamente, il valor medio ed il mediano calcolati sulla maschera
selezionata. b e c sono parametri costanti, i cui valori sono assegnati sulla base di
valutazioni sperimentali effettuate su immagini differenti. L'algoritmo di filtraggio può essere
ripetutamente applicato sull'interferogramma rumoroso in modo da ridurre progressivamente
il livello del rumore e ricostruire più accuratamente le frange.
5
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
1.1.3 Il Phase Unwrapping
Il metodo proposto per il phase unwrapping si basa sulla ricostruzione di un modello
globale della fase srotolata a partire dall'informazione locale contenuta nei dati. Si tratta di un
approccio che permette di limitare la propagazione di errori dovuti alla presenza di aree
rumorose nell'interferogramma, risultando meno sensibile al rumore rispetto ai metodi
classici.
La miglior soluzione per la ricostruzione di una superficie che approssimi la funzione di
fase reale consiste nell'uso di una tecnica di modellizzazione basata su elementi finiti: il
dominio viene partizionato in elementi triangolari di forma e dimensioni tali da adattarsi alle
caratteristiche locali dei dati. Nel nostro approccio vengono utilizzati elementi quadrati, allo
scopo essenzialmente di ridurre il carico computazionale. In pratica, l'immagine
interferometrica viene suddivisa in elementi poligonali su ognuno dei quali la fase srotolata
può essere modellata per mezzo delle pendenze medie locali. A partire da questa
informazione, si può approssimare localmente la fase reale con una funzione bilineare, in
altri termini con una superficie piana. Il modello globale viene ricostruito a partire dai singoli
piani trovati, collegandoli opportunamente.
Una volta che è stata fissata la dimensione dei riquadri nella partizione, la generazione
del modello di fase procede attraverso i seguenti passi:
•
•
•
•
stima della pendenza media in azimuth e range su ogni riquadro;
stima dei valori di fase ai vertici della griglia tramite soluzione di un problema ai minimi
quadrati;
calcolo del modello approssimato, per ogni punto del dominio, tramite interpolazione
bilineare;
calcolo di una immagine residua, data dalla differenza fra l'interferogramma originale e
il modello approssimato.
In sostanza, l'obiettivo finale del processo di srotolamento delle fasi è la ricostruzione di
un modello della fase reale tale da eliminare completamente le frange nell'immagine residua
(frange residue). Se il risultato ottenuto non è sufficientemente accurato, è possibile
migliorarlo applicando iterativamente l'algoritmo all'immagine residua utilizzando una
partizione di dimensione diversa. Il modello di fase finale risulterà dalla somma di tutti i
modelli parziali ottenuti ad ogni iterazione.
E' stato dimostrato che il valor medio delle differenze di fase fra pixel adiacenti in azimuth
e range può essere utilizzato come stima della pendenza media locale. In formule:
meanslopeazimuth = ∑i∑j W[φi+1j- φij] / N(M-1)
i = 1...M-1
j = 1...N
[3a]
meansloperange = ∑i∑j W[φij+1- φij] / M(N-1)
i = 1...M
j = 1...N-1
[3b]
dove M e N sono le dimensioni del riquadro su cui la funzione di fase deve essere stimata.
Se la quantità di punti "rumorosi" non è elevata, in rapporto al numero totale di pixel
presenti nel riquadro, l'uso di riquadri di grandi dimensioni garantisce una minore sensibilità
al rumore. Al contrario, un partizionamento con elementi piccoli permette di ricostruire più
agevolmente i dettagli della funzione di fase ma implica una maggiore influenza del rumore
nella valutazione delle pendenze locali. Un compromesso fra le due possibilità viene
raggiunto grazie all'iteratività del metodo e cambiando la dimensione degli elementi nella
partizione.
6
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
1.1.4 Approccio Integrato Filtraggio/Phase Unwrapping
I risultati ottenuti filtrando una, due o tre volte l'interferogramma con l'approccio adattivo e
quindi srotolando le fasi con la tecnica multi-risoluzione, mostrano alcuni difetti nella corretta
determinazione dei valori reali della fase. In particolare, in corrispondenza delle frange, il
modello finale di fase è caratterizzato da cambiamenti repentini di pendenza che non sono
realmente presenti nei dati originali. Questo fenomeno è probabilmente causato da una
riduzione della dinamica dei valori di fase provocata dal filtro in prossimità delle frange. Per
risolvere tale problema si è deciso di applicare il filtro adattivo all'immagine residua che viene
calcolata dopo ogni iterazione del phase unwrapping e non all'immagine originale. In altre
parole, dopo ogni iterazione il residuo viene filtrato con il filtro descritto, cosicché il rumore
viene rimosso dal residuo stesso e al passo successivo non viene aggiunto al modello.
I risultati ottenuti applicando il metodo discusso a numerosi interferogrammi rumorosi,
reali e sintetici, mostrano chiaramente come l'elaborazione diretta dell'immagine residua
permette la generazione di un modello di fase più accurato.
1.1.5 Risultati Sperimentali
Allo scopo di fornire una valutazione quantitativa e qualitativa della metodologia
precedentemente descritta, è stato effettuato un gran numero di test prevalentemente su
immagini interferometriche sintetiche. Sono stati confrontati i risultati ottenuti applicando tre
differenti approcci:
1. phase unwrapping su interferogramma non filtrato
2. phase unwrapping su interferogramma filtrato
3. elaborazione dell'interferogramma con approccio integrato filtraggio/phase
unwrapping
Per valutare la robustezza del metodo rispetto alla presenza di rumore, è stata generata
un’ampia gamma di interferogrammi variamente corrotti con rumore additivo gaussiano, a
media nulla e deviazione standard variabile in un ampio insieme di valori.
La valutazione quantitativa della correttezza ed efficacia del metodo nel ricostruire il
modello di fase è stata effettuata sfruttando la stima di errore MAE (Maximum Absolute
Error), definita come il valore assoluto della differenza fra il modello di fase originale,, F (i, j ) ,
ed il modello ricostruito Fˆ (i, j ) ottenuto con il particolare approccio in analisi:
M
MAE =
N
∑∑ F (i, j ) − Fˆ (i, j )
j =1 i =1
N ⋅M
[4]
La Tab. 1 ed il relativo grafico mostrano le prestazioni dei tre approcci. Ogni colonna è
identificata da un diverso valore di varianza del rumore (valori compresi in [0.2,0.8]) mentre
le righe rappresentano le diverse metodologie. Osservando i risultati appare evidente che la
tecnica integrata filtraggio/phase unwrapping (Model-3) offre le migliori prestazioni. In
presenza di elevati livelli di rumore la qualità complessiva della fase ricostruita degrada in
ogni modo, ma i difetti sono fortemente limitati se si filtra l'immagine residua.
7
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
M odel-1
M odel-2
MAE
M odel-3
V A R. 0,2
V A R.0,3
V A R. 0,4
V A R. 0,5
V A R. 0,6
V A R. 0,7
V A R. 0,8
Noise va ria nce
PROCESSING TYPE
VAR. 0,2
VAR.0,3
VAR. 0,4
VAR. 0,5
VAR. 0,6
VAR. 0,7
VAR. 0,8
Model -1 (without filtering)
0,68675
0,99653
1,3399
1,473
1,7203
2,02
Model – 2 (filtering the interferogram)
0,39628
0,58277
0,73213
0,93322
1,119
1,5369
2,2875
1,6993
Model – 3 (filtering the residue image)
0,21991
0,27252
0,32518
0,3762
0,46585
0,68459
0,89117
Tabella 1: Valutazione quantitativa delle metdologie discusse per il filtraggio ed il phase unwrapping. E' evidente che l'approccio
integrato garantisce I migliori risultati.
La Fig.2 mostra un esempio di interferogramma rumoroso (Fig.2-a, varianza 0.7) ed i
risultati finali ottenuti con le diverse metodologie illustrate. I modelli di fase sono stati
"riarrotolati" per permettere una valutazione qualitativa tramite una semplice osservazione
visiva delle frange corrispondenti alla funzione di fase ricostruita. Le frange e i valori di fase
risultano meglio conservati in Model-3 (Fig.2-d): tale risultato dimostra che filtrando
l'immagine residua solamente il rumore viene rimosso e l'informazione utile è preservata
quasi completamente. Al contrario, riducendo il rumore prima di srotolare le fasi si introduce
un errore significativo anche se la tecnica di filtraggio è adattiva e edge preserving (Fig.2-c).
In Fig.3 sono mostrati i corrispondenti modelli 3D ricostruiti.
a)
b
c)
d
Figura 2: Interferogramma originale (a) e modelli di fase ri-arrotolati ottenuti: b) senza filtrare, c) filtrando
l'interferogramma prima di srotolare le fasi, d) filtrando l'immagine residua.
8
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
a)
b)
c)
d)
Figura 3: Modelli 3-D di: a) funzione di fase originale; b) modello ottenuto senza filtraggio; c) modello ottenuto
filtrando l'interferogramma; d) modello ottenuto filtrando il residuo. In c) sono visibili gli effetti del filtro sulla
determinazione della pendenza in corrispondenza delle frange.
1.1.6 Bibliografia
[1]
I.Pitas, A.N.Venetsanopoulos. "Nonlinear Digital Filters - Principles and Applications", Kluwer Academic
Publishers,1990;
[2] R. Bamler, N. Adam, G.W. Davidson, D. Just. "Noise-induced slope distortion in 2-D phase unwrapping by linear
estimators with application to SAR interferometry", IEEE Trans. on Geoscience and Remote Sensing, Vol.36-N°3,
pp.913-921,1998;
[3] J.S. Lee, K.P. Papathanassiou, T.L. Ainsworth, M.R. Grunes, A. Reigber. "A new technique for noise filtering of SAR
interferogram phase images", Proc. IGARSS ’97, pp.1716-1718,1997;
[4] T.L. Ainsworth, J.S. Lee. "A joint adaptive interferometric phase unwrapping and filtering algorithm", Proc.IGARSS
’98, Seattle, 6-10 July 1998, pp.71-73;
[5] A. Mori, A. Rapaccini, "An iterative method to improve phase unwrapping of noisy interferogram", Proc. IGARSS
’98, Seattle, 6-10 July 1998, pp.65-67;
[6] D.C. Ghiglia, L.A. Romero, "Robust two-dimensional weighted and unweighted phase unwrapping that uses fast
transforms and iterative methods", J.Opt.Soc.Am., Vol.11-Iss.1, pp.107-117, 1994;
[7] H. Tarayre, D. Massonet, J.A. Sirat, "Noise-robust phase-unwrapping method in radar interferometry", SPIEVol.2548, pp.310-318, 1995;
[8] M.D. Pritt, "Phase unwrapping by means of multigrid techniques for interferometric SAR", IEEE Trans. on
Geoscience and Remote Sensing, Vol.34-Iss.3, pp.728-738, 1996;
[9] P.C. Smits, A. Trucco, G. Bo, G. Vernazza, "Iterative model reconstruction for phase unwrapping", Proc. 3rd ERS
Symp. on Space at the service of our Environment, Florence, Italy, 17-21 March 1997 (ESA SP-414, 3 Vols., May 1997);
[10] G. Bo, S. Dellepiane, P.C. Smits, "Weighted multi-resolution phase unwrapping method", Proc.EUROPTO- The
European Symposium on Remote Sensing, Barcelona, Spain, 21-25 September 1998, SPIE Vol.3497, pp. 146-154;
[11] G. Bo, S. Dellepiane, G. Beneventano, “A locally adaptive approach for interferometric phase noise reduction”,
Proc. IGARSS ’99, 28 June-2 July 1999, Hamburg, Germany pp.264-266;
[12] S. Dellepiane, G. Bo, P.C. Smits, “Multi-resolution phase model reconstruction for phase unwrapping”, Proc.
IGARSS ’99, 28 June-2 July 1999, Hamburg, Germany, pp. 2395-2397.
9
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
1.2 Il telerilevamento per il monitoraggio dell'ambiente costiero:
identificazione della linea di costa su immagini telerilevate
mediante analisi di tessitura e analisi del contesto spaziale
1.2.1 Introduzione
La gestione delle aree costiere richiede un approccio continuo, integrato ed iterativo. Si
stima che il 60% della popolazione mondiale viva nelle vicinanze delle coste e di
conseguenza è proprio in queste zone che si registrano serie alterazioni ambientali dovute
ad uno sviluppo incontrollato e ad uno sfruttamento delle risorse costiere spesso
insostenibile. In particolare, l’ampliamento delle aree urbane e l’espansione delle attività
umane possono causare inquinamento, instabilità idrogeologica e cambiamenti nei normali
meccanismi di trasporto solido. In aggiunta a questi problemi, si deve prestare attenzione ai
possibili effetti sulle aree costiere causati da eventuali alterazioni climatiche. E’ chiaro,
quindi, come le aree costiere rappresentino sistemi altamente dinamici, spesso sfruttati ai
limiti delle possibilità, ed è altresì evidente che la loro gestione deve essere basata su una
profonda conoscenza del sistema costiero e delle forze che agiscono su di esso.
Negli ultimi anni si è osservato un crescente interesse per sistemi informatici, automatici o
semiautomatici, che fungano da ausilio nella difficile operazione di elaborazione dei dati
costieri. In particolare, la conoscenza accurata della posizione e dello sviluppo del litorale è
di fondamentale importanza in svariate applicazioni quali la cartografia, la navigazione
autonoma, la localizzazione di imbarcazioni e, non ultimo, il monitoraggio della
geomorfologia costiera.
Dato tale contesto, nel corso del primo anno di Dottorato si era studiato il problema della
individuazione del litorale in immagini telerilevate. La soluzione preliminare proposta
prevedeva l’applicazione di un algoritmo in grado di sfruttare l’informazione contestuale
spaziale, che è sempre presente nei dati telerilevati. Nella prima versione del metodo veniva
calcolata una mappa di connettività a partire da un punto dell’immagine selezionato
dall’utente e considerando la distanza da esso di tutti gli altri punti dell’immagine, in termini di
livello di grigio e distanza topologica. Dalla mappa di connettività era possibile estrarre,
tramite semplice sogliatura, la linea di costa cercata. I risultati ottenuti elaborando diverse
tipologie di dati hanno chiaramente dimostrato che è possibile individuare correttamente il
litorale unicamente se la porzione di immagine corrispondente alla superficie del mare è
caratterizzata da un livello di grigio omogeneo. Se nell’immagine sono presenti sorgenti di
non omogeneità, si possono verificare errori e il risultato risulta non affidabile. Questo
accade in particolare quando si elaborano immagini SAR (Synthetic Aperture Radar), a
causa del rumore di speckle e della eventuale presenza di vento sulla superficie del mare.
Per risolvere tali problemi si è implementata una versione dell’algoritmo più flessibile, in
grado di sfruttare informazioni legate alla tessitura, invece dei soli livelli di grigio, per
calcolare la mappa di connettività. Operando in questo modo è possibile considerare la
variabilità spaziale dei dati come una sorgente di informazione, ottenendo risultati
decisamente migliori.
In interferometria la conoscenza relativa alla linea di costa può essere integrata nel
processo di srotolamento delle fasi, allo scopo di migliorarne il risultato. La metodologia
sviluppata è stata quindi applicata anche a immagini interferometriche, per valutarne
l’efficacia su tale tipologia di dati.
1.2.2 Il metodo proposto
Il processo di elaborazione può essere suddiviso in due passi principali:
1
una pre-elaborazione dell’immagine in ingresso, che ha come obiettivo il calcolo della
matrice di co-occorrenza e la stima di diverse misure (feature) di tessitura;
10
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
2
Relazione Finale
una segmentazione dell’immagine in analisi, basata sull’applicazione del concetto di
connettività sia ai dati in ingresso sia alle mappe di tessitura ottenute al passo
precedente.
Durante il primo passo una finestra di analisi viene fatta scorrere su tutta l’immagine e
centrata su ogni pixel. Le dimensioni della finestra sono variabili e devono essere
selezionate dall’utente in modo che la finestra stessa contenga un numero di pixel sufficienti
a caratterizzare la tessitura in esame. Quindi si calcola la matrice di co-occorrenza per tutti i
punti nell’immagine, considerando la distribuzione dei livelli di grigio e la loro disposizione
spaziale nel contesto definito dalla finestra di analisi. La matrice di co-occorrenza è quadrata
e di dimensioni pari al numero di livelli di grigio considerati; i suoi elementi possono essere
interpretati come la frequenza relativa con cui due pixel, separati da una certa distanza d e
lungo una direzione fissa θ , si presentano nella finestra di calcolo, rispettivamente con livelli
di grigio i e j. L’informazione sulle tessiture presenti nei dati può essere rappresentata tramite
un insieme ridotto di misure stimate come combinazione degli elementi nella matrice di cooccorrenza: sum_average, variance, energy, contrast. A queste si aggiunge la media della
varianza campione, calcolata sui dati originali rilassando la condizione di indipendenza dei
campioni nell’immagine. E’ utile per la caratterizzazione delle micro-tessiture che possono
essere presenti nei dati. Ciò che si ottiene, in pratica, è un insieme di “immagini di tessitura”
a livelli di grigio, ciascuna delle quali rappresenta una descrizione simbolica dell’immagine in
analisi rispetto ad una specifica misura di tessitura: in linea di principio, un’area
nell’immagine originale che risulti caratterizzata da una particolare tessitura dovrebbe
apparire omogenea in una o più delle immagini di tessitura precedentemente calcolate. Una
volta che le feature di tessitura sono state stimate per tutti i punti nell’immagine, si può
procedere con l’estrazione di mappe di connettività sia dall’immagine originale a livelli di
grigio sia da ognuna delle immagini di tessitura. In questo modo è possibile tener conto di
quanto una regione connessa presente nell’immagine appaia omogenea rispetto ad un certo
parametro.
Dal momento che un’immagine può presentare diversi livelli di tessiturazione, è stata
implementata una versione pesata della mappa di connettività che combina l’informazione
sui livelli di grigio e quella sulla tessitura tramite pesi opportuni. Questi ultimi attualmente
sono selezionati dall’utente e mantengono lo stesso valore per tutti i pixel dell’immagine. Una
versione futura dell’algoritmo sarà in grado di valutare i pesi adattivamente e
automaticamente, in funzione delle statistiche locali dei livelli di grigio nell’immagine.
Analogamente, la versione attuale del metodo coinvolge nel calcolo della connettività una
sola misura di tessitura per volta. In uno sviluppo futuro sarà possibile sfruttare
l’informazione contenuta in tutto l’insieme di immagini di tessitura, o in un sottoinsieme di
esse.
Alla fine di tutto il procedimento, una volta che la mappa di connettività finale è stata
calcolata, una semplice sogliatura interattiva permette l’identificazione della soglia migliore
per l’estrazione della linea di costa.
1.2.3 Risultati Sperimentali
Allo scopo di valutare le prestazioni della tecnica sviluppata, l’algoritmo è stato applicato a
diverse tipologie di immagini telerilevate. In particolare, sono state utilizzate una immagine
nel visibile acquisita dal satellite LANDSAT, una ripresa aerea e una immagine SAR.
In Fig. 4, a destra, viene mostrato il risultato ottenuto elaborando una immagine
LANDSAT relativa ad una costa molto frastagliata. In questo caso il punto seme è stato
selezionato nell’area scura in basso a destra e si è utilizzata solamente l’informazione legata
ai livelli di grigio. Il litorale estratto è molto accurato, a causa principalmente dell’alto
contrasto fra terra ferma e superficie del mare e grazie all’elevata omogeneità di
quest’ultima. In questo caso è possibile apprezzare la capacità del metodo di estrarre anche
i dettagli più fini della linea di costa.
11
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
Figura 4: Immagine LANDSAT originale (a sinistra) e linea di costa estratta (a destra).
La Fig.5 riguarda l’elaborazione di una ripresa aerea acquisita tramite una telecamera
digitale ad alta risoluzione. In questo caso la scelta di un punto seme nella parte in alto a
destra dell’immagine, sempre corrispondente alla superficie marina, non è adatta. Il risultato
(Fig.5, nel centro) mostra chiaramente una errata localizzazione del litorale, principalmente a
causa della scarsa omogeneità della superficie del mare in questo tipo di dati. D’altra parte,
si può ottenere un risultato estremamente accurato scegliendo un punto seme appartenente
alla spiaggia (Fig.5, a destra).
Figura 5: Elaborazione di una immagine aerea. Immagine originale (a sinistra), risultato ottenuto posizionando il punto
seme nella parte di immagine corrispondente al mare (al centro), linea di costa estratta quando il punto iniziale
appartiene alla spiaggia (a destra).
Fino ad ora sono stati presentati e discussi risultati molto accurati. Ma se si prova ad
elaborare una immagine SAR sfruttando come unica sorgente di informazione i livelli di grigio
presenti nei dati, insorgono molti problemi e la linea di costa estratta appare poco accurata e
molto rumorosa (Fig.6, a destra). Gli effetti del rumore di speckle sono chiaramente visibili:
benché il confine fra terra ferma e mare sia stato identificato grossolanamente, il suo esatto
sviluppo non può essere ottenuto. Inoltre è necessario sottolineare che ad un cambiamento
della posizione del punto seme corrisponde un risultato sempre diverso: in altri termini,
l’algoritmo non è robusto rispetto alle condizioni iniziali.
12
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
Figura 6: Elaborazione di dati SAR considerando unicamente l’informazione associata ai livelli di grigio.
Immagine originale (a sinistra) e linea di costa estratta (a destra).
In Fig.7, a sinistra, viene mostrato il risultato ottenuto integrando nella catena di
elaborazione l’estrazione delle misure di tessitura. I miglioramenti sono evidenti. Lo sviluppo
della linea di costa appare continuo, meno frastagliato e non rumoroso. Durante questo
esperimento è stata utilizzata la misura sum_average per caratterizzare la tessitura: gli effetti
di smoothing introdotti dal calcolo di tale misura si possono notare sotto forma di un
arrotondamento del litorale. L’analisi è stata effettuata su una finestra 3x3 e i livelli di grigio
nell’immagine sono stati raggruppati in 64 bins con l’obiettivo di ridurre il peso
computazionale. A scopo comparativo, in Fig.7 sulla destra è mostrata la linea di costa
estratta coinvolgendo i filtri di Gabor per la caratterizzazione della tessitura: possono essere
osservati molti errori nella determinazione del litorale.
Figura 7: Litorale individuato sfruttando l’informazione sulle tessiture presenti nell’immagine. Per
la stima dei parametri di tessitura si sono utilizzate la matrice di co-occorrenza (a sinistra) e i filtri
di Gabor (a destra).
Un leggero spostamento della costa individuata rispetto alla sua reale posizione
nell’immagine può essere osservato in entrambe le immagini di Fig.7. Probabilmente questo
effetto è causato da problemi di calcolo che si verificano durante la stima dei parametri di
tessitura in prossimità delle discontinuità presenti nei dati. Ulteriori esperimenti avranno lo
scopo di chiarire tale fenomeno.
13
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
Sono stati effettuati svariati test per la valutazione della robustezza dell’algoritmo.
L’accuratezza del risultato ma anche il tempo necessario per ottenerlo crescono
considerevolmente all'aumentare del numero di bins in cui sono suddivisi i livelli di grigio. E’
necessario quindi stabilire un compromesso tra affidabilità e complessità computazionale. Da
un altro punto di vista è opportuno sottolineare che il metodo è indifferente alle diverse
localizzazioni del punto seme, il che significa che l’utente può scegliere in maniera quasi
casuale il punto iniziale ottenendo in ogni caso un buon risultato.
Un’altra serie di esperimenti è stata condotta su dati SAR interferometrici, allo scopo di
verificare l’applicabilità del metodo anche su tale tipo di immagini. Il set di dati selezionato è
relativo all’area geografica corrispondente alla città di Tarragona, Capo Salou e il porto di
Aventura. La regione considerata ha una estensione di 16*16 Km, non presenta discontinuità
rilevanti e l’elevazione del suolo varia fra 0 e 175 metri.
Considerando la sola immagine di intensità, il risultato preliminare in Fig.8 a sinistra è
stato ottenuto applicando il parametro sum_average, con una finestra di analisi di 9x9 pixel
ed un numero di bins pari a 32. L’informazione di tessitura e di livello di grigio sono state
pesate rispettivamente 0,7 e 0,3. Il punto seme è stato posizionato in corrispondenza del
mare, nella parte in basso a sinistra dell’immagine. Il risultato presentato è il migliore fra tutti
quelli ottenuti ed è evidentemente caratterizzato da imprecisioni rilevanti.
L’immagine in Fig.8 a destra rappresenta il risultato ottenuto applicando il metodo
all’immagine di coerenza dell’area di interesse. E’ stato utilizzato il parametro sum_variance
con una finestra di 13x11 pixel, 32 bins e pesi 0,4 e 0,6 rispettivamente per informazione di
tessitura e livello di grigio. Il risultato può essere considerato migliore rispetto a quello
ottenuto elaborando l’immagine di intensità ma non è comunque ottimale. In questo caso
l’algoritmo è in grado di ricostruire grossolanamente l’andamento della linea di costa ma
sono ancora presenti alcuni errori dovuti alla presenza di disomogeneità nella zona
dell’immagine corrispondente al mare.
Se si considera ora l’interferogramma non filtrato, l’algoritmo produce un risultato non
rilevante e, a causa del rumore presente, non è in grado di ricostruire lo sviluppo reale del
litorale (Fig.9, a sinistra). In questo caso è stato utilizzato il parametro variance, con una
finestra di analisi di 13x11 pixel e pesi 0,8 e 0,2 per tessitura e livello di grigio
rispettivamente. Il numero di bins è pari a 32.
Infine l’immagine in Fig.9, a destra, rappresenta il risultato ottenuto nel tentativo di
estrarre la linea di costa da un interferogramma filtrato. Il risultato in questo caso può essere
considerato soddisfacente e l’algoritmo riesce ad individuare correttamente il tracciato del
litorale. Il parametro di tessitura selezionato in questo caso è stato diff_entropy, con una
finestra di analisi di 13x11 pixel, 32 bins e tenendo conto della sola informazione di tessitura
(peso 1,0).
Figura 8: Litorale individuato applicando il metodo proposto a dati SAR interferometrici.
Immagine di intensità SAR (a sinistra) e mappa di coerenza (a destra).
14
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
Figura 9: Litorale individuato applicando il metodo proposto a dati SAR interferometrici.
Interferogramma non filtrato (a sinistra) e interferogramma filtrato (a destra).
L’importanza di questo ultimo esperimento risiede nel fatto che l’informazione relativa alla
linea di costa può essere utilizzata per determinare con maggiore precisione il dominio di
applicazione del metodo discusso precedentemente per lo srotolamento delle fasi (phaseunwrapping) mediante soluzione di un problema ai minimi quadrati. Invece di considerare un
dominio quadrato corrispondente al bordo dell’immagine, si può pensare di definire una
regione di forma più complessa che tenga conto della presenza della superficie marina. Tale
approccio per il phase unwrapping dovrebbe permettere una migliore ricostruzione della
DEM e garantire un risultato più affidabile.
1.2.4 Bibliografia
[1]
D. Durand et al., “Characterization of Inland and Coastal Waters with Space Sensors” - A study for the Centre for
Earth Observation (CEO), 1999;
[2] A. Rosenfeld, "Connectivity in digital pictures", Journal of Ass. Computer Machine, Vol 17-1, pp. 146-160, 1970;
[3] S. Dellepiane, F. Fontana, G. Vernazza, "Nonlinear Image Labelling for Multivalued Segmentation", IEEE Transaction
on Image Processing, Vol 5-3, pp. 429-446, 1996;
[4] S. Dellepiane, "Contextual Approaches for Detail-Preserving Processing of Remote Sensing images", in
Information Processing for Remote Sensing, C.H.Chen Ed., World Scientific Pub. Co. Sept. 1999, pp.471-485;
[5] R. De Laurentiis, G. Bo, S. Dellepiane, A. Del Grosso, "Remote Sensing and Coastal Monitoring: methods and
applications", Proc. International Conference on Monitoring and Control of Marine and Harbour Structures, 1-4 June
1999, Genoa, Italy,(in press);
[6] G. Bo, S. Dellepiane, R. De Laurentiis, "Semiautomatic Coastline Detection in Remotely Sensed Images", in
Proceedings International Geoscience and remote-sensing symposium (IGARSS 2000), Honolulu, 24-28 July 2000, pp.
1869-1871;
[7] R.N. Haralick, K. Shanmugan, I. Dinstein, "Textural features for image classification", IEEE Transactions on Systems,
Man and Cybernetics, Vol. 3-6, pp.610-621, 1973;
[8] F.T.Ulaby, F. Kouyate, B. Brisco, "Texture information in SAR images", IEEE Transactions on Geoscience and Remote
Sensing, Vol 24-2, pp. 235-345, 1986;
[9] A. Baraldi, F. Parmigiani, "An Investigation of the Textural Characteristics Associated with Gray Level
Cooccurrence Matrix Statistical Parameters", IEEE Transactions on Geoscience and Remote Sensing, Vol. 33-2, pp.
293-304, 1995;
[10] R. Vaccaro, S. Dellepiane, "First and Second Order statistics under the sample dependence hypothesis", Internal
Report, 1996;
[11] A.K. Jain, F. Farrokhnia, "Unsupervised texture segmentation using Gabor filters", Pattern Recognition, Vol. 24-12,
pp. 1167-1186, 1991;
[12] R.O.Duda, P.E.Hart, “Pattern Classification and Scene Analysis”, John Wiley and Sons, New York, 1973;
[13] K. Fukunaga, “Introduction to Statistical Pattern Recognition”, Academic Press, 2nd edition, New York, 1990.
15
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
1.3 Valutazione dei danni da alluvione tramite interferometria SAR
1.3.1 Introduzione
Le aree urbane o coltivate e, più in generale, tutte le attività umane subiscono danni
considerevoli quando piogge particolarmente intense colpiscono una certa area geografica,
talvolta causando anche la perdita di vite umane. Le alluvioni rappresentano un problema
rilevante poiché la maggior parte delle aree edificate e le zone dove si concentrano le attività
produttive si trovano in territorio alluvionale. Quando una emergenza di questo tipo si
verifica, è essenziale poter disporre di una visione d'insieme del fenomeno per programmare
rapidamente gli interventi di assistenza. Inoltre, dopo che le acque si sono ritirate, è
necessario per le autorità competenti e per le compagnie assicurative poter stimare con
precisione i danni subiti dalla zona colpita e, di conseguenza, l'ammontare dei risarcimenti.
Da un altro punto di vista, una mappa dettagliata dell'evento calamitoso è utile per creare
un modello idrogeologico che serva da punto di partenza per pianificare interventi di gestione
del territorio che possano ridurre il rischio di un nuovo disastro nel futuro. Grazie alla
disponibilità di una considerevole quantità di dati telerilevati ed ai recenti sviluppi nel campo
dell'elaborazione delle immagini, il telerilevamento può essere considerato un mezzo efficace
per il monitoraggio ambientale ed in particolare per la valutazione dei danni da alluvione. Fra
tutti i sensori che potrebbero essere utilizzati, il Radar ad Apertura Sintetica (SAR) sembra
essere lo strumento più adatto per acquisire informazioni su un'esondazione, in particolar
modo se la tecnica interferometrica viene applicata per l'elaborazione dei dati.
In generale, per mostrare le aree allagate, si potrebbe pensare di utilizzare un approccio
multi-temporale basato sull'intensità retrodiffusa. In pratica, si acquisiscono diverse immagini
SAR della stessa area in tempi diversi e si costruisce con esse una immagine composita a
colori (RGB), assegnandole opportunamente ai canali rosso (R), verde (G) e blu (B). Se una
delle riprese, che si assume come riferimento, mostra la situazione prima dell'alluvione allora
l'immagine RGB risultante dovrebbe rivelare i cambiamenti che si sono verificati sulla
superficie terrestre nel lasso di tempo considerato. In molti casi, purtroppo, l'intensità
retrodiffusa dall'acqua, normalmente bassa, risulta inadeguata per l'individuazione di una
zona allagata. Infatti, l'aumento di intensità causato dalla presenza di vento sulla superficie di
un specchio acqueo spesso non permette di distinguere le aree allagate dalle acque
normalmente presenti (fiumi, laghi), nonchè entrambe dallo sfondo.
1.3.2 Descrizione dell'approccio proposto e risultati ottenuti
L'interferometria SAR fornisce una sorgente aggiuntiva di informazione adatta alla
caratterizzazione delle diverse categorie di terreno presenti in una scena: la correlazione
interferometrica o coerenza. Formalmente la coerenza si definisce a partire da una coppia di
immagini SAR della stessa area, riprese da due angolazioni leggermente differenti, mediante
la seguente eq.ne:
γ =
*
E[V1V2 ]
E[| V1 | 2 ]E[| V2 | 2 ]
[5]
dove V1 e V2 sono le due immagini SAR complesse, E[ ] rappresenta il valore atteso (in
pratica si approssima con una media campionata) e * è il complesso coniugato.
Grazie alla sua sensibilità ai cambiamenti della superficie terrestre, la coerenza è utile per
la segmentazione delle immagini e per il riconoscimento di caratteristiche geomorfologiche e
16
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
idrologiche. E' quindi possibile effettuare una classificazione basata sia su una stima del
valore di correlazione sia sull'aumento di decorrelazione temporale dovuta a cambiamenti
morfologici e variazioni della costante dielettrica del suolo (congelamento, siccità).
Il sistema adottato per descrivere la superficie terrestre è una variante del metodo di
classificazione proposto in (Anderson et al., 1976) e applicato in (Ulaby, Dobson, 1989). Tale
modello è stato completato integrando l'intensità di backscatter con l'informazione estraibile
dalla coerenza interferometrica, sulla base delle analisi presentate in (Wegmuller, Werner,
1995) e (Wegmuller, Werner, 1997). Inoltre si è resa necessaria una variante a questo
schema di classificazione, poiché lo scopo del presente lavoro non è una generica
classificazione ma piuttosto l'identificazione delle zone alluvionate e la loro separazione da
aree abitualmente occupate da acqua o comunque non allagate.
Per la valutazione dell'approccio si sono utilizzati dati relativi all'alluvione causata dal
fiume YangTze, in Cina, nell'estate del 1998. Il dataset è composto da coppie
interferometriche di immagini SAR acquisite dai satelliti ERS-1 e ERS-2 nell'estate del 1993,
nel dicembre 1995 e durante l'alluvione. A partire da questi dati sono state stimate diverse
feature: differenza fra le coerenze relative a periodi diversi, la coerenza nel 1995, la
coerenza nel 1998, la differenza fra le intensità di backscatter, le intensità di backscatter nel
1995 e nel 1998. Ogni feature è stata associata ad un canale (R, G o B) di una immagine a
colori RGB, provando combinazioni differenti. In questo modo è stata possibile una
interpretazione visiva ed intuitiva del contenuto informativo dei dati ed una semplice
identificazione delle zone allagate.
Dopo numerosi test, si può concludere che le combinazioni di feature che comprendono
l'informazione sulla coerenza sono le più efficaci per evidenziare nelle immagini le aree
invase dalle acque. Inizialmente si è utilizzata la combinazione differenza_di_coerenza /
coerenza98 / coerenza95. In questo modo le acque libere, le acque dell'alluvione e le aree
coperte da vegetazione sparsa sono ben separate, mentre le classi corrispondenti alla
foresta e all'acqua normalmente presente appaiono sovrapposte così come le classi relative
alla foresta, alle aree urbane ed alla vegetazione sparsa.
Allo scopo di aumentare la separabilità fra classi, è stata considerata la combinazione
differenza_di_coerenza / intensità95 / coerenza98. In questo caso tutte le classi risultano ben
separate fra di loro. In conclusione, si può affermare che le scelte di parametri che includono
la coerenza interferometrica in un approccio multitemporale risultano essere le più efficaci
per evidenziare le aree allagate. E' da preferire una combinazione di parametri misti, in cui
sia presente anche l'intensità di backscatter nel periodo di riferimento, quando è necessario
separare fra di loro anche le altre classi presenti nelle immagini.
Nelle Figure 10 e 11 sono raffigurate le immagini RGB corrispondenti ad alcune scelte di
parametri.
a)
b)
Figura
10:
Immagini
RGB
corrispondenti
ad
alcune
scelte
di
parametri.
Combinazione
coerenza/intensità/cambiamento_intensità, rispettivamente nel 1995 (a) e nel 1998 (b). Dati acquisiti durante le
missioni Tandem 29/30.12.1995 e 31.7/1.8.1998.
17
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
a)
Relazione Finale
b)
Figura 11: Immagini RGB corrispondenti ad alcune scelte di parametri. Rispettivamente combinazioni
differenza_di_coerenza/coerenza98/coerenza95 (a) e differenza_di_coerenza/intensità95/coerenza98 (b). In (b) le
aree alluvionate sono evidenziate in giallo-arancio. Dati acquisiti durante le missioni Tandem 29/30.12.1995 e
31.7/1.8.1998.
1.3.3 Valutazione quantitativa dei risultati
Un ulteriore, importante, obiettivo della ricerca è stato la validazione dei risultati ottenuti
con la classificazione visiva, in modo da caratterizzare quantitativamente il diverso
comportamento del metodo rispetto all'intensità di backscatter e alla correlazione
interferometrica.
Una prima valutazione semiquantitativa della separabilità e della compattezza delle varie
classi è stata realizzata visualizzando in uno spazio tridimensionale, tramite vettori di tre
feature, un certo numero di campioni appartenenti a ciascuna delle cinque classi scelte per
l'analisi: aree allagate, acque libere, aree caratterizzate da vegetazione sparsa, foreste e
centri urbani. In Fig. 12 sono rappresentati i grafici relativi a due differenti combinazioni di
parametri: differenza_di_intensità / intensità98 / intensità93 (Fig. 12, a sinistra) e
differenza_di_coerenza / intensità95 / intensità98 (Fig. 12, a destra). Nel primo caso le classi
sono completamente sovrapposte e non è possibile estrarre le zone allagate e le acque
libere dallo sfondo. Al contrario, sfruttando la scelta di parametri multitemporale mista
(intensità-coerenza), i campioni sono ben raggruppati e le due classi di interesse sono ben
separate fra di loro e rispetto alle altre.
Figura 12: Rappresentazione grafica delle classi nello spazio delle feature utilizzando i parametri multitemporali
di intensità (1993-1998) (sinistra) ed i parametri multitemporali misti (intensità-coerenza, 1995-1998) (destra).
18
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
Per valutare numericamente la compattezza di ogni classe e l'efficacia di un certo set di
parametri nell'assicurare la separabilità di una certa classe dalle altre, sono stati utilizzati due
tipi di distanze nello spazio delle feature: interset e intraset. La prima è definita come la
media di tutte le possibili distanze fra coppie di campioni appartenenti a due classi differenti:
S=
1
M 1M 2
M1 M 2
∑∑ d
i =1 j =1
2  (1)
y ,
 i

y (j2) 

[6]
dove M1 ed M2 rappresentano il numero di campioni in ogni classe, d è la distanza euclidea,e
yk(l) è il vettore dei parametri del campione k-esimo della classe l.
La distanza intraset è invece definita come la media di tutte le possibili distanze fra campioni
appartenenti alla stessa classe:
1
Rl =
M l (M l − 1)
Ml Ml
∑∑ d
i =1 j =1
2  (l )
y ,
 i

y (jl ) 

[7]
dove l si riferisce alla classe in analisi.
Per garantire una buona separabilità tra due determinate classi S deve essere
massimizzata e R minimizzata. Generalmente le suddette condizioni possono essere
riassunte attraverso un fattore di qualità così definito:
Q( x) =
R1 + R 2
S
[8]
In Tab. 2 sono rappresentati i valori di Q calcolati scegliendo differenti combinazioni di
classi e di feature. Il valore di Q più basso, che permette di distinguere le aree alluvionate
dalle altre classi, è quello ottenuto utilizzando il set multitemporale basato sulla sola
coerenza . D’altra parte con questa scelta Q assume un valore troppo alto per la coppia
acqua/foresta. Quindi, dal momento che le acque devono essere distinte dalle aree non
allagate, è confermato che l’opzione migliore è il set multitemporale misto (intensitàcoerenza).
Q
area allagata/acqua libera
area allagata/veg. Sparsa
area allagata/foresta
area allagata/area urbana
acqua libera/veg. Sparsa
acqua libera/foresta
acqua libera/area urbana
foresta/veg. Sparsa
area urbana/foresta
area urbana/veg. Sparsa
∆I, I 95, I 98
0,4752
1,9513
1,9663
2,1041
0,5029
0,6027
0,4944
1,9739
1,9157
1,8567
∆γ, γ95, γ98
0,2281
0,4340
0,5706
0,7667
0,5996
5,7987
0,6222
1,9584
1,8253
1,7662
∆γ, I 95, γ98
0,3454
0,5118
1,0361
0,7944
0,4796
1,1043
0,4949
1,5744
1,7774
1,5361
∆I’, I 93, I 98
1,5564
1,7111
1,8408
1,7012
1,3506
1,5703
1,3839
1,3433
1,2284
2,0465
Tabella 2: Valori di Q calcolati scegliendo differenti coppie di classi e combinazioni di feature. I rappresenta l’intensità di
backscatter mentre γ è la mappa di coerenza ad una certa data.
19
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
1.3.4 Bibliografia
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
C.Prati, F.Rocca, A.Monti Guarnieri, P.Pasquali, “Report on ERS-1 SAR interferometric techniques and
applications”, ESA study contract report no. 3-7439/92/HE-I;
A.H.Zebker, J. Villasenor, “Decorrelation in Interferometric Radar Echoes”, IEEE Trans. On Geoscience and Remote
Sensing, Vol. 30-5, September 1992, pp. 950-959;
J.R.Anderson, E.E.Hardy, J.T.Roach, R.E.Witmer, “A Land Use and Land Cover Classification System for Use with
Remote Sensor Data”, U.S. Geological Survey and Professional Paper 964,1976;
F.T.Ulaby, M.C. Dobson, Handbook of Radar Scattering Statistics for Terrain, Artech House, 1989;
U.Wegmuller, C.Werner, “SAR Interferometric Signatures of Forest”, IEEE Trans. On Geoscience and Remote
Sensing, Vol. 33-5, September 1995, pp. 1153-1161;
U.Wegmuller, C.Werner, “Retrieval of Vegetation Parameters with SAR Interferometry”, IEEE Trans. On Geoscience
and Remote Sensing, Vol. 35-1, January 1997, pp. 18-24;
P.C.Smits, S.G.Dellepiane, “Synthetic Aperture Radar Image Segmentation by a Detail Preserving Markov Random
Field Approach”, IEEE Trans. On Geoscience and Remote Sensing, Vol. 35-4, July 1997, pp. 844-857;
S. Dellepiane, S. Monni, G. Bo, G. Buck, “Flood damage assessment using SAR Interferometry: a quantitative
evaluation of results”, Proc. Fringe 99, second Int. Work.on ERS SAR Interferometry, Nov. 1999, (in press);
S. Dellepiane, G. Bo, S. Monni, C.Buck, “SAR images and Interferometric Coherence for Flood Monitoring”, Proc.
International Geoscience and remote-sensing symposium (IGARSS 2000), Honolulu, July 2000, pp. 2608-2610.
20
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
1.4 Impiego dell’interferometria differenziale per il monitoraggio di
movimenti del suolo su media e grande scala
1.4.1 Introduzione
Le condizioni ambientali riflettono, in ogni momento, non solo l’influenza dell’uomo ma
anche quei processi e fenomeni naturali che possono causare cambiamenti
indipendentemente dalla presenza di insediamenti o attività umane. La lunga storia
dell’evoluzione della Terra, ed in particolare della biosfera, è segnata da alterazioni
ambientali che hanno ora ridotto ora aumentato l’abitabilità del pianeta. Inoltre, a parte le
fonti di disturbo ovviamente legate all’uomo (presenza di insediamenti urbani, estrazione
mineraria, deforestazione, ecc.), risulta spesso molto difficile distinguere gli effetti delle azioni
umane dai processi naturali “di fondo”. Premesso ciò, al fine di seguire l’evoluzione
dell’ambiente, è necessario identificare dei parametri, o geoindicatori, che descrivano
adeguatamente i cambiamenti in atto e dei protocolli procedurali idonei al loro monitoraggio.
In questo contesto si colloca anche lo studio delle frane e la loro prevenzione.
I movimenti franosi causano ogni anno migliaia di vittime e la stima mondiale dei danni
provocati dalle frane si aggira intorno a svariate decine di miliardi di dollari l’anno,
considerando che innumerevoli smottamenti di piccole o medie dimensioni impongono alla
società costi paragonabili, se non maggiori, dei più infrequenti movimenti catastrofici. Inoltre,
i danni all’ecosistema non sono generalmente documentati ma le frane possono distruggere
completamente un habitat, per esempio alterando il corso di un fiume o denudando un
pendio.
1.4.2 Il problema
I metodi classici per l’osservazione degli innalzamenti ed abbassamenti del suolo e delle
conseguenti fratture prevedono rilevamenti convenzionali mediante l’installazione di vari
strumenti in superficie e nel sottosuolo, per la misura diretta del movimento e delle
deformazioni in corso, nonché di clinometri per la registrazione delle variazioni di inclinazione
in prossimità di rotture e zone con grandi spostamenti verticali. L’uso di fotografie aeree e di
immagini satellitari, unitamente ad un sistema informativo geografico, consentono lo studio di
fenomeni di grande estensione attraverso l’osservazione dei cambiamenti nel suolo e nella
vegetazione.
La frequenza con cui le misure devono essere effettuate è fortemente condizionata dalla
velocità con cui le fratture e le deformazioni del terreno si propagano e dal danno potenziale
che la caduta di una frana potrebbe provocare. Ad esempio, aree urbane o industriali
caratterizzate da movimenti rapidi, quindi ad alto rischio, richiedono un monitoraggio
continuo, mentre zone dove i movimenti del suolo avvengono su tempi più lunghi possono
essere esaminate meno frequentemente.
Purtroppo i fattori che influenzano la stabilità di un pendio sono numerosi e spesso molto
complessi, ed il solo monitoraggio delle fratture può fornire poca informazione quando si
abbia a che fare con situazioni territoriali particolari.
In questo contesto, sono stati avviati con la Provincia di Genova ed il Dipartimento di
Ingegneria Strutturale e Geotecnica dell’Università di Genova per l’allestimento di un
esperimento finalizzato al controllo e al monitoraggio di movimenti differenziali su frane di
grande estensione. L’obiettivo principale della ricerca è la valutazione mediante
Interferometria Differenziale SAR dei movimenti del suolo su media o grande scala in aree
notoriamente caratterizzate da un elevato rischio di frane. Tale metodo prevede la
combinazione delle informazioni contenute in una sequenza temporale di immagini acquisite
con un sensore radar ad apertura sintetica al fine di individuare variazioni di elevazione con
una precisione molto elevata.
21
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
1.4.3 L’Interferometria Differenziale SAR
L’interferometria SAR, come già accennato nei paragrafi precedenti, è una tecnica che
permette la ricostruzione dello sviluppo tridimensionale della superficie terrestre tramite
l’analisi delle fasi del segnale radar considerate come una fonte aggiuntiva di informazioni
derivata dal dato SAR complesso. Sfruttando una coppia di immagini SAR della stessa area
e riprese da angolazioni leggermente differenti, è possibile generare un modello di
elevazione del terreno estremamente accurato. Lo schema di elaborazione dei dati con
l’approccio interferometrico prevede: (1) registrazione delle immagini complesse, (2)
formazione dell’interferogramma, cioè di una immagine di differenze di fase caratterizzata da
un tipico disegno “a frange”, (3) phase-unwrapping per la soluzione delle ambiguità di fase,
(4) ricostruzione del modello di elevazione. Un interferometro SAR per la misura della
topografia può essere implementato in due modi differenti. Nel caso di interferometria singlepass, il sistema è configurato in modo da acquisire simultaneamente le due immagini tramite
una coppia di antenne opportunamente disposte sullo stesso satellite. Alternativamente, con
l’approccio repeat-track, le due immagini vengono acquisite da una singola antenna in tempi
differenti e sfruttando orbite successive. In altre parole, la coerenza fra le fasi dei segnali
riflessi dai vari elementi di superficie può essere utilizzata per misurare con grande
precisione le posizioni relative di tali elementi. Gli elementi superficiali nelle due immagini
appariranno spostati fra di loro come risultato di due diversi effetti:
1. un effetto “stereoscopico” dovuto alle piccole differenze nelle geometrie di
acquisizione e alle differenze di elevazione degli elementi di superficie;
2. un reale movimento di una porzione di superficie nel tempo intercorso fra le due
acquisizioni, quando viene utilizzata la configurazione repeat-track.
Quando i movimenti della superficie sono trascurabili (per esempio se si usa
l’interferometria single-pass), l’effetto stereoscopico può essere sfruttato per estrarre
informazione topologica relativa alla porzione di territorio in analisi. L’accuratezza verticale
nella stima dell’elevazione dipende dalla separazione fisica fra le antenne riceventi
(baseline), dalla lunghezza d’onda del radar e dai disturbi sul segnale ricevuto. Al contrario,
quando sono presenti movimenti del terreno, lo spostamento lungo la linea di vista del
sensore può essere misurato con una precisione nell’ordine di frazioni della lunghezza
d’onda utilizzata (millimetri), indipendentemente dalla baseline. Tale misura risulta essere
molto più precisa di quella ottenibile con tecniche alternative, che tipicamente sono limitate
dalla dimensione del singolo elemento di superficie (decine di metri).
Una delle più interessanti e promettenti applicazioni dell’interferometria radar si realizza
calcolando la differenza fra due interferogrammi della stessa zona e relativi a periodi diversi,
generando quello che viene chiamato “interferogramma differenziale”. La tecnica, in
generale, si basa sulla produzione di due interferogrammi a partire da tre immagini SAR. Il
primo, utilizzato come riferimento, contiene solamente informazione relativa alla topografia
del terreno mentre le frange nel secondo sono dovute anche agli spostamenti relativi della
superficie sotto osservazione. Differenziando le due immagini interferometriche, la topografia
può essere rimossa evidenziando così i contributi di fase dovuti ai movimenti. Come
riferimento può anche essere utilizzato un modello di elevazione digitale ottenuto con una
tecnica diversa; con questa variante è necessario un solo interferogramma. Infine, le
correzioni rispetto alla topografia non sono necessarie se si considera una coppia di
immagini SAR caratterizzate da una baseline molto corta (dell’ordine di pochi metri). In tali
condizioni le frange nell’interferogramma sono esclusivamente dovute a spostamenti verticali
verificatisi fra le due riprese e l’accuratezza teorica nella determinazione della deformazione
è senza precedenti: alcuni millimetri.
Sono state proposte molte applicazioni per la tecnica descritta: monitoraggio della
subsidenza e delle frane, analisi dei movimenti dei ghiacciai e osservazione delle alterazioni
superficiali indotte dai terremoti. Nel caso specifico delle frane, è stato possibile stimare
velocità di movimento nell’ordine di 1 centimetro al giorno.
22
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
1.4.4 I siti pilota e i dati SAR disponibili
Nel corso di svariati colloqui con i responsabili degli uffici competenti presso la Provincia
di Genova sono state individuate alcune aree campione che, secondo i vigenti criteri per la
definizione delle zone a rischio, risultano caratterizzate da un elevato rischio di frana.
La prima area di interesse si trova in Val d’Aveto. Su questa zona sono disponibili molte
informazioni che vanno da misure in situ del movimento effettivo fino a dati pluviometrici,
questi ultimi indispensabili per una corretta identificazione delle immagini SAR che devono
essere acquistate per procedere alla sperimentazione. Inoltre si tratta di un’area abbastanza
estesa, il che dovrebbe favorire la possibilità di individuare sull’interferogramma le porzioni di
territorio in movimento.
Una seconda area di studio riguarda il territorio in Comune di S.Olcese, nell’entroterra di
Genova, sulla quale sono state individuate alcune zone caratterizzate da un elevato rischio
di frana. In questo secondo caso è disponibile una minore quantità di dati “ancillari”, il che
pone alcuni vincoli aggiuntivi rispetto al problema del reperimento dei dati radar. Pertanto si
è convenuto di iniziare l’analisi facendo riferimento al caso di S. Stefano d’Aveto. Va
comunque sottolineato che, data la grande dimensione delle immagini SAR, entrambe le
zone di interesse sono comprese nei dati acquistati.
Come già evidenziato in precedenza, i dati utilizzabili con la tecnica interferometrica sono
immagini acquisite da sensori SAR come quelli installati a bordo dei satelliti ERS-1 ed ERS-2
dell’Agenzia Spaziale Europea (ESA). I due satelliti ERS hanno la stessa strumentazione a
bordo e la struttura delle loro orbite ha permesso l’effettuazione di rilevamenti Tandem, cioè
l’acquisizione dei dati relativi ad una stessa regione a distanza di 1 solo giorno. Quest’ultima
tipologia di missione è stata possibile dal 1995 al 1999, cioè fino a quando il satellite ERS-1
è stato in funzione. Anche senza questo satellite l’interferometria può comunque essere
applicata a coppie di immagini del solo ERS-2, a distanza di 35 o più giorni, o con coppie di
immagini variamente assortite di ERS-1 ed ERS-2.
Per la ricerca dei dati effettivamente disponibili, relativi all’area considerata e nel periodo
di interesse, è stato utilizzato il software DESCW – Display Earth remote sensing Swath
Coverage for Windows. DESCW è un pacchetto software che permette la ricerca dei dati più
idonei ad un particolare studio mediante una analisi di tutte le acquisizioni disponibili. La
ricerca si realizza attraverso l’uso di una mappa geografica di riferimento e dei dati relativi
alle orbite dei satelliti. Mediante l’inserimento dei parametri di latitudine e longitudine è anche
possibile selezionare aree di interesse di qualunque dimensione. Nel caso particolare dello
studio in corso si sono cercate coppie di immagini SAR, selezionano le missioni ERS 1-2,
caratterizzate da una baseline inferiore ai 100 metri e le eventuali coppie tandem della zona
desiderata.
A complemento di questa ricerca e prima di effettuare l’ordine dei dati, è stato necessario
analizzare i dati pluviometrici relativi alla zona di interesse in modo che la selezione delle
immagini SAR potesse essere fatta tenendo conto dell’effetto che la pioggia può avere sul
parametro “coerenza”, molto importante per uno studio che ha come obiettivo la rilevazione
di spostamenti fisici del terreno.
I dati selezionati, in totale sei immagini, coprono un periodo che va dal 1995 al 1999. Con
le immagini disponibili è stato possibile generare svariate coppie interferometriche,
caratterizzate da baseline temporali e spaziali diverse. I dettagli sono riassunti in Fig. 13, in
cui il primo parametro indicato è la distanza temporale (baseline temporale) fra due
acquisizioni [misurata in giorni] e il secondo è la distanza perpendicolare fra le due orbite
(baseline spaziale) [in metri].
Vi sono numerose altre coppie di immagini della zona considerata che permettono di
applicare la tecnica dell’interferometria differenziale. Si sono trovate anche coppie, rilevate a
distanza di più di 400 giorni e con una baseline spaziale di 2, 3 o 4 metri, che
permetterebbero la accurata rilevazione di spostamenti del suolo tramite l’analisi di un
singolo interferogramma.
23
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
Figura 13: Tabella riassuntiva delle immagini acquisite ed utilizzate per la sperimentazione
1.4.5 Risultati preliminari ottenuti
Nel corso della sperimentazione, le immagini acquisite sono state elaborate combinandole
in vario modo allo scopo di individuare la combinazione migliore che permette di identificare
gli spostamenti. Sono state applicate sia la tecnica interferometrica classica, utile per la
generazione di mappe di elevazione digitale (DEM – Digital Elevation Maps) dell’area di
interesse, sia la versione differenziale del metodo al fine di osservare eventuali variazioni di
elevazione.
In Fig. 14-a è possibile osservare la mappa di elevazione ottenuta elaborando con la
tecnica interferometrica una coppia di immagini radar della zona di S. Stefano d’Aveto. A
scopo comparativo, in Fig.14-b è rappresentata una mappa della stessa zona ottenuta
vettorializzando e successivamente visualizzando un insieme di dati puntuali messi a
disposizione dalla Provincia di Genova. E’ possibile osservare facilmente, sebbene le
proiezioni siano differenti, come le due rappresentazioni presentino un elevato grado di
corrispondenza.
Infine, in Fig. 14-c è rappresentato un interferogramma differenziale ottenuto elaborando
due coppie di immagini acquisite in tempi diversi (DInSAR 4-pass). Si notano molte frange
residue anche se, allo stato attuale della ricerca, risulta difficoltoso stabilire con certezza se
tali frange corrispondono ad un effettivo movimento del suolo o non siano piuttosto dovute ad
errori di elaborazione. Ulteriori studi saranno necessari per chiarire in maniera inequivocabile
questo punto.
1.4.6 Conclusioni
Il problema affrontato presenta non poche difficoltà di soluzione poiché la qualità delle
immagini interferometriche dipende da innumerevoli fattori: la geometria di acquisizione dei
dati SAR di partenza, la coerenza fra i dati, il periodo di acquisizione, la presenza di
vegetazione nella regione d’interesse, la morfologia del territorio. Inoltre l’elaborazione dei
dati iniziali risulta estremamente complessa e, in particolare, la necessità di impostare
manualmente un vasto insieme di parametri fa si che la tecnica interferometrica risulti di
difficile utilizzo per utenti non esperti.
I risultati preliminari presentati e gli sviluppi della metodologia attualmente in corso
consentono comunque di ritenere che esistono i presupposti concreti per un uso applicativo
dell’interferometria radar nell’ambito della mappatura della superficie terrestre e del
monitoraggio dei suoi movimenti.
Ulteriori ricerche avranno come obiettivo finale una completa e approfondita valutazione
qualitativa e quantitativa dei risultati ottenibili, allo scopo di rendere una realtà l’utilizzo
quotidiano ed operativo delle tecniche descritte.
24
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
b
a
c
Figura 14: a) DEM dell'area di interesse ottenuta tramite Interferometria SAR; b) DEM della stessa area ottenuta
vettorializzando un insieme di misure puntuali; c) Interferogramma differenziale ottenuto con tecnica DInSAR a 4 passi.
1.4.7 Bibliografia
[1]
[2]
[3]
[4]
Gens R., Van Genderen, “Review Article: SAR Interferometry – Issues, Techniques, Applications”, Int. J. Remote
Sensing, Vol. 17-10, 1996, pp. 1803-1835;
Gabriel A.K., Goldstein R.M., Zebker H.A., “Monitoring small elevation changes over large areas:Differential radar
interferometry”, Journal of Geophysical Research, Vol. 94 (B7), 1989, pp. 9183-9191;
Wegmuller U, Strozzi T., Bitelli G., “Validation of ERS Differential SAR interferometry for Land subsidence mapping:
the Bologna Case study”, Proc. IGARSS ‘99, Hamburg, Germany, 1999;
Refice A., Bovenga F., Wasowski J., Guerriero L., “Use of InSAR data for landslides monitoring: a case study from
southern Italy”, IEEE, 2000, pp. 2504-2506.
25
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
1.5 Estrazione di feature per l’indicizzazione di database di
immagini telerilevate
1.5.1 Introduzione
L’aumento del volume di dati telerilevati disponibili pone grossi problemi dal punto di vista
della loro archiviazione e dell’accessibilità da parte dei potenziali utenti. Attualmente la
gestione di immagini da satellite prevede l’immagazzinamento in database centralizzati
(ESA, Eurimage, ecc.) in cui la fase di recupero di un dato specifico è pilotata mediante
“chiavi di ricerca” o indici basati su informazioni quali il tipo di sensore, la data di acquisizione
o le coordinate geografiche. Molto più utile ed efficace sarebbe una ricerca basata sul
contenuto dell’immagine, in maniera tale da poter definire query del tipo: “tutte le immagini
acquisite dal satellite LANDSAT e contenenti una città”.
Negli ultimi anni molti sforzi sono stati dedicati alla definizione di strategie content based
per il recupero di informazioni da database di immagini. In genere tali tecniche si basano su
una “rappresentazione logica” di alto livello di ogni singola immagine contenuta nell’archivio.
La rappresentazione logica è costituita da un insieme di informazioni estratte da ogni singola
immagine secondo uno schema prestabilito. L’indicizzazione dei dati può essere effettuata
utilizzando chiavi multidimensionali che fanno riferimento a tale informazione o a parte di
essa, in base alla specifica query. Evidentemente la rappresentazione logica è
particolarmente sensibile al tipo di dati presenti nell’archivio e allo specifico contesto
operativo.
Proiettando i concetti esposti nell’ambito dei dati telerilevati, scopo della ricerca, condotta
in collaborazione con l’Ing. Michele Bruzzo del Dipartimento di Ingegneria Biofisica ed
Elettronica (Università di Genova), è stato uno studio di fattibilità volto alla definizione di un
insieme di descrittori (colore, forma, tessitura) che rappresentino adeguatamente il contenuto
informativo dell’immagine, dato un certo tipo di dati (SAR, AVHRR, METEOSAT) ed un
determinato contesto applicativo.
A partire, quindi, dalla necessità di poter disporre di “database intelligenti” che siano in
grado di gestire e catalogare in modo automatico l’informazione naturalmente presente nei
dati, l’attività principale è stata l’ideazione e implementazione metodi idonei per l’estrazione e
la gestione del contenuto informativo dell’immagine sulla base di semplici tecniche per
l’elaborazione e l’analisi di immagini. Lo sviluppo concreto delle metodologie è stato
preceduto da uno studio accurato ed approfondito delle proprietà dei dati da archiviare.
Infatti, affinchè l’informazione estratta sia utile per la costruzione di una rappresentazione
significativa dell’immagine telerilevata, è necessario considerare svariati fattori quali per
esempio le caratteristiche del sensore, la scala o la risoluzione del dato finale.
Il risultato finale della ricerca è il prototipo di un DBMS (Database Management System),
chiamato Kingfisher, per la gestione intelligente di archivi di dati telerilevati. Tra le svariate
funzionalità messe a disposizione dal sistema, una risulta particolarmente interessante: la
possibilità di interrogare il database tramite immagini di esempio. In pratica l’utente fornisce
una immagine rappresentativa della propria query e il sistema procede nella ricerca delle
immagini più simili sulla base di opportuni criteri selezionati dall’utente stesso.
Kingfisher costruisce una rappresentazione logica dell’immagine applicando dapprima
tecniche di segmentazione per la localizzazione degli “oggetti” significativi (scomposizione
dell’immagine in regioni omogenee) e successivamente estraendo informazioni relative alle
caratteristiche locali e globali dell’immagine, quali per esempio parametr di colore,forma e
tessitura. In altri termini, la rappresentazione logica è un modello semantico che memorizza i
descrittori di ogni elemento significativo presente nell’immagine telerilevata. Per esempio, nel
caso delle immagini SAR, elementi come fiumi, laghi, campi coltivati, infrastrutture create
dall’uomo possono essere agevolmente ed automaticamente localizzati e analizzati. Un
concetto analogo può essere espresso, nel caso di un archivio di immagini METEOSAT, per
quanto riguarda tipi di nuvole, cellule temporalesche o fronti perturbati.
26
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
Il sistema opera integrando i descrittori ricavati durante la fase di analisi con i meta-data
contenuti nell’immagine stessa. Tale scelta permette di aumentare le prestazioni di recupero,
ma soprattutto permette a Kingfisher di trattare le immagini in maniera adattiva a seconda
delle specifiche contenute nei meta-data (risoluzione, tipo di acquisizione, polarizzazione
ecc.).
Attualmente si stanno valutando le prestazioni e l’efficacia dell’approccio descritto su due
archivi di immagini telerilevate. Il primo è costituito da una collezione di circa cento immagini
SAR (99 quick-look X-SAR), mentre il secondo contiene un insieme di 722 immagini
METEOSAT (722 immagini su 3 canali fornite da EumetSat). I risultati preliminari dimostrano
che il sistema, oltre ad essere particolarmente semplice e user-friendly, riesce ad effettuare
recuperi significativii rispetto alle esigenze dell’utente.
1.5.2 Metodologia
La realizzazione del sistema si è sviluppata attorno a due problematiche principali:
l’individuazione di un set di descrittori efficaci (content based retrieval) e l’organizzazione dei
dati. Inoltre è stato necessario individuare il migliore insieme di meta-data utilizzabili come
indici discreti per la catalogazione.
A causa della grande eterogeneità dei dati telerilevati disponibili e della grande varietà di
possibili applicazioni pratiche, il sistema è stato concepito in modo tale da garantire un’alta
flessibilità rispetto ai requisiti imposti dalle singole applicazioni. Il risultato, mostrato in Fig.
15, è un’architettura di sistema che realizza la descrizione numerica delle immagini calibrata
sulle caratteristiche peculiare dei dati di interesse.
Fase di Popolazione
Fase di recupero
Segmentazione
Parametri di
cablatura off-line
Meta
data
Estraz. descrittori
Indice
Indicizzazione
Schema di Rappr.
Confronto
Immagini
recuperate
Database di imm.
Descrizione logica
Figura 15: Architettura di gestione, basata sul contenuto, di database di immagini
telerilevate.
Il cuore di questa architettura è il modulo che realizza lo schema di rappresentazione delle
immagini: la descrizione avviene sia in termini di contenuto (metodi numerici e tecniche
contestuali: estrazione descrittori, segmentazione) sia in termini di indici che classificano
l’immagine (meta-data: posizione geografica, data di acquisizione, sensore di acquisizione,
informazioni sul satellite etc.) (Vaccaro, 1997). La fase di estrazione dei descrittori e la
modalità con cui descrittori e indici sono amalgamati per formare la rappresentazione
numerica dell’immagine sono customizzabili sulla base di opportuni parametri.
L’impostazione di tali parametri permette di calibrare il sistema di archiviazione in base alle
caratteristiche delle immagini da catalogare.
27
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
Per rappresentare le caratteristiche fondamentali di un’immagine il sistema calcola dei
descrittori, detti di “basso livello”, tra i quali il colore la forma e la tessitura (Smits, 1997)
(vedere Tab. 3). Per poter trattare in modo più appropriato la complessità delle immagini,
vengono usati algoritmi che permettono l’individuazione di regioni omogenee all’interno della
scena in esame (aggregazione di pixel con caratteristiche omogenee) come fiumi, laghi, tipi
di nuvole ecc. L’obbiettivo raggiunto da questa elaborazione è localizzare gli oggetti
significativi in una immagine e rappresentarne il contenuto in termini di descrittori di basso
livello (colore, forma, tessitura locale). Purtroppo gli algoritmi di segmentazione sono
fortemente dipendenti dal tipo di immagine in analisi e spesso richiedono la validazione dei
risultati attraverso strumenti di editing. Per questo motivo si sono implementati due algoritmi
di segmentazione (multithresholding, split&merge) e altri sono allo studio.
Descrittori geometrici Descrittori di colore Descrittori di Tessitura
Momenti invarianti
Istogramma colore Luv Matrice di Co-Occorrenza
ridotto a 1D
Descrittori di Fourier
Istogramma colore 3D Gabor Wavelets
Luv(locale e globale)
Grado di elongazione
Colore medio
Analisi frattale
Rappresentazione polare Distribuzione del colore Auto-correlazione spaziale
Tabella 3: Insieme dei descrittori usati per la rappresentazione logica dell'immagine.
Allo stato attuale della nostra ricerca, l’attenzione è stata rivolta essenzialmente all’analisi
e archiviazione dei dati acquisiti dal satellite meteorologico METEOSAT. Nella prossima
sezione verranno descritti i principali requisiti che il sistema deve avere per gestire
efficacemente archivi di immagini METEOSAT.
1.5.3 Gestione di un archivio di immagini METEOSAT
Le immagini METEOSAT vengono acquisite e memorizzate a 8 bit su tre bande spettrali
diverse: VS (visibile: 0.5-0.9 µm), WV (vapor acqueo: 5.7-7.1 µm) e IR (infrarosso: 10.5-12.5
µm). I canali ad infrarosso e vapor acqueo sono costituiti da una matrice di 2500x2500 pixel
che ricopre l’intero disco terrestre, mentre per il visibile si ha una matrice 5000x5000 pixel.
Questo implica che nel primo caso la risoluzione è pari a 2.5 x 2.5 Km, mentre nel secondo è
5 x 5 Km. Le immagini METEOSAT forniscono molte informazioni, sia se esaminate
singolarmente sia combinandole fra di loro.
A partire da queste considerazioni, dopo aver effettuato un sottocampionamento
dell’immagine nel visibile per ottenere la stessa risoluzione in tutte le riprese, si sono
combinate le tre immagini a livelli di grigio in una unica a colori in formato RGB (Fig. 16,
sinistra).
La combinazione delle immagini è avvenuta sulla base del seguente schema:
•
•
•
Il canale del rosso (RED) è stato associato all’immagine nell’infrarosso;
Nel canale verde (GREEN) è stata posta l’immagine nel visibile;
Nel canale blu (BLUE) si è memorizzata l’immagine nel vapor acqueo.
Tale combinazione è stata scelta arbitrariamente, ma permette di memorizzare una sola
immagine ed avere a disposizione le informazioni delle tre bande in forma compatta.
28
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
Figura 16: Immagine RGB del 01/01/’99 (sinistra) e maschera utilizzata da Meteo-KingFisher (destra)
Per permettere una ricerca più raffinata, si è deciso di suddividere l’immagine in 25 aree.
Ciò è stato possibile mediante la creazione di una maschera delle stesse dimensioni
dell’immagine, ma suddivisa in 25 quadrati di dimensioni 125x125 pixel ciascuno (Fig. 16,
destra). Ad ogni riquadro della maschera è stato associato un livello di grigio che va da 10 a
250, secondo multipli di 10.Questo particolare tipo di maschera permette di “far capire” al
sistema che devono essere considerati 25 oggetti separati, e permette di implementare
interrogazioni del database sulla base dell’informazione locale presente nei dati.
In realtà ogni quadrato della maschera in non corrisponde ad una porzione di superficie
terrestre sempre delle stesse dimensioni, in quanto non si è tenuto presente della forma
quasi sferica della Terra e delle conseguenti deformazioni geometriche sull’immagine. E’
possibile porre rimedio a questa imprecisione semplicemente applicando una opportuna
conversione delle coordinate geografiche e partendo dal presupposto che le coordinate dei
quattro punti A,B, C e D che delimitano le immagini del nostro database (Fig. 16, destra)sono
note a priori:
point A = 27.0 N, 9.3 W
point B = 27.2 N, 20.3 E
point C = 67.2 N, 61.9 E
point D = 76.1 N, 41.9 W
Allo scopo di adattare KingFisher al particolare tipo di dati considerato, le immagini
vengono elaborate per individuare le varie tipologie di nubi presenti nella scena (Jain, 1988)
(Fig. 17), e per stimare la mappa termica.
Figura 17: Partizionamento dello spazio delle feature proposto dal Bureau of Meteorology
29
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
Inoltre per ogni immagine vengono estratti gli istogrammi delle 3 bande. L’informazione
che si ottiene in questo caso non rappresenta alcuno schema di classificazione e per questo
motivo risulta molto utile per risolvere delle query di similarità secondi criteri più generici.
Il programma è stato testato con 730 immagini per ogni banda disponibile. Sono state
utilizzate tutte le immagini dell’anno 1999, acquisite alle 11.30 e alle 15.30 UTC.
A causa della scarsa illuminazione solare presente nei mesi invernali, in alcune immagini
risulta particolarmente evidente la componente rossa già nelle prime ore del pomeriggio (Fig.
16, sinistra). Questo fa sì che in fase di recupero il sistema riconosca come più simili
immagini prese a distanza di un giorno alla stessa ora, piuttosto che quelle dello stesso
giorno, ma ad orari diversi.
Una volta che il database è stato popolato con uno o più elementi, è possibile passare alla
fase di recupero delle immagini. A tal fine è stata sviluppata un’interfaccia apposita, che
permette di scegliere tra vari descrittori, selezionabili singolarmente o in modo combinato.
A questo punto è possibile procedere in due modi:
1. eseguire le query impostando i valori di ricerca nelle aree editabili, cioè impostando le
percentuali dei parametri da ricercare (temperatura media, percentuale di nuvolosità
bassa…)
2. fornire un’immagine campione in ingresso e utilizzarla come termine di paragone
nelle ricerche.
Utilizzando i menu disponibili è possibile effettuare query che tengano conto di feature
relative al colore, sia in scala RGB che LUV, analizzare la texture, le forme e le dimensioni
degli oggetti. Tra le query disponibili, merita particolare attenzione quella che individua il tipo
di nuvolosità simile a quella presente nell’immagine campione. Infatti, il risultato di questo
genere di interrogazione valuta la similitudine tra immagini sulla base degli istogrammi
relativi alle tre bande. In questo modo si ottiene un recupero indipendente da schemi
precostituiti di classificazione e quindi più robusto, nel senso che non dipende da alcun
parametro stabilito a priori.
1.5.4 Risultati Sperimentali
I criteri che sono stati tenuti in considerazione durante la fase di test e validazione
dell’intero sistema riguardano sia l’accuratezza dei risultati ottenuti durante le interrogazioni
del database, sia il tempo necessario per ottenerli. Entrambi questi fattori risultano essere
fondamentali per rendere accettabile all’utente un sistema di questo tipo. Come già
accennato, il sistema implementato è stato testato su un database di 730 immagini, di
625x625 pixel ciascuna su 3 canali di acquisizione, per una dimensione totale di 1146KB
ognuna. I risultati sono stati ottenuti elaborando i dati con un Personal Computer dotato di un
processore Pentium III a 766 MHz con 256 MB di memoria RAM. La prima osservazione
possibile è che la grandezza delle immagini limita notevolmente la velocità del sistema, in
quanto richiede un tempo computazionale dell’ordine di alcuni minuti. Nel seguito verranno
prese in esame le varie fasi di gestione dei dati e verrà specificato per ognuna di esse il
tempo impiegato per arrivare al termine.
Come primo criterio di validazione dei risultati ottenuti, è stato preso in considerazione il
tempo di elaborazione dei dati e successivamente il tempo di risposta del sistema. Questa
scelta è motivata dal fatto che l’applicazione realizzata assume particolare importanza se in
grado di offrire un servizio di tipo “real time”, cioè se è in grado di estrarre e gestire
informazioni in tempi estremamente ridotti. Nel grafico di Fig. 18 sono rappresentati i tempi
richiesti da alcune operazioni fondamentali per il corretto funzionamento di MeteoKingFisher:
•
Fase di popolazione: volendo popolare il database con 10
contemporaneamente il tempo impiegato è stato di circa 300 secondi.
immagini
30
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
•
•
Relazione Finale
Fase di valutazione dell’immagine campione: il tempo stimato in questa fase è di
circa 60 secondi.
Fase di recupero delle immagini: si può notare che la velocità di recupero è
dell’ordine del secondo. Questo risultato è particolarmente significativo, soprattutto
considerando le possibili applicazioni su web che potrebbero essere implementate
sulla base dei risultati del presente lavoro.
secondi
300
300
POPOLAZIONE
200
VALUTAZIONE
100
60
2
RECUPERO
0
Figura 18: Tempi registrati per le varie operazioni di gestione del database.
Inoltre è stato possibile valutare le prestazioni del sistema in termini di capacità di
recupero di immagini realmente significative rispetto alle esigenze dell’utente. Nel nostro
caso le immagini recuperate e visualizzate sullo schermo sono dieci. Il database di training è
costituito da un insieme di dati suddiviso in classi con proprietà note a priori, ciascuna
rappresentata da un insieme di istanze. Utilizzando in modo esaustivo le immagini del
database di training durante la fase di interrogazione è stato possibile stimare i parametri
medi di Recall, Precision ed Exact Match per ciascuna classe (Fig. 19).
1
Precis ion
Recall
0,5
0
Te
mp
Nu
.m
ed
ia
v.b
as
Nu
sa
v.a
lta
Pe
rc.
nu
v
Figura 19: Prestazioni di recupero registrate per le varie tipologie di query.
1.5.5 Bibliografia
[1]
[2]
[3]
A.K. Jain, R. Dubes, “Algorithms for clustering data”, Prentice-Hall, 1988;
P.C.Smits, R. Vaccaro, S. Dellepiane, “Automated hierarchical classification of SAR images”, International
Geoscience and Remote Sensing Symposium IGARSS ’97.
R.Vaccaro, F. Fontana, D. Silva, V. Pellegrini, “Content based image retrieval in database System”. Proceedings of
the European Multimedia, Microprocessor System and Electronic Conference (EMMSEC), 1997, pp. 537-544.
31
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
1.6 Valutazione della qualità dell’informazione geospaziale estratta
da dati telerilevati
1.6.1 Introduzione
Il mercato europeo dell’informazione geografica e dei prodotti che si basano su
informazione geografica si sta attualmente sviluppando molto più lentamente rispetto ai
corrispondenti mercati negli Stati Uniti, in Giappone e persino in altri paesi dell’area asiatica.
Per portare un esempio, solamente due compagnie in Europa hanno un ruolo di rilievo nel
mercato dei database stradali digitali: la Navigation Technologies in Best, Paesi Bassi, e
TeleAtlas che si trova a Gent, in Belgio. Tra le ragioni di tale scenario si possono includere la
mancanza di layers cartografici digitali con una diffusione sufficiente da permettere lo
sviluppo di nuovi prodotti e i costi che sarebbe comunque necessario sostenere per la
creazione e l’aggiornamento di tali layers.
In passato la maggior richiesta di prodotti cartografici di alta qualità proveniva
essenzialmente dagli Enti Governativi, soprattutto a causa del numero limitato di applicazioni
non militari e dei costi elevati. Più recentemente, grazie anche alle sinergie venutesi a creare
fra telecomunicazioni, tecnologie dell’informazione e sistemi di navigazione, il mercato
“civile” ha ricevuto un nuovo impulso e l’interesse per dati cartografici fondamentali come reti
stradali e ferroviarie, reti idriche e sviluppo costiero è progressivamente aumentato in
relazione alla crescente diffusione di applicazioni commerciali che su di essi si basano. In
altri termini, queste nuove applicazioni contribuiscono a rendere più pressante la necessità di
mappe digitali dettagliate, estremamente accurate e aggiornate.
Fino a questo momento, il telerilevamento non ha contribuito significativamente a
supportare il mercato della cartografia digitale per due ragioni principali:
1. i dati satellitari disponibili hanno una risoluzione spaziale troppo grossolana per poter
soddisfare i requisiti stringenti imposti dalle Agenzie Cartografiche Nazionali e tipici
della topografia tradizionale;
2. lo sviluppo di nuove tecniche produttive orientate all’utente e la loro integrazione nel
processo di produzione dell’informazione geografica non vanno di pari passo con le
possibilità offerte dalla tecnologia esistente.
Sebbene il primo vincolo possa essere superato grazie ai sensori satellitari di nuova
generazione, caratterizzati da risoluzioni sempre più elevate, attualmente il valore aggiunto
dato dalle immagini telerilevate alla produzione cartografica si limita a mappe in cui
comunque le infrastrutture sono disegnate a mano. Pertanto emerge chiaramente la
necessità di disporre di tools orientati all’utente in grado di estrarre informazione di elevata
qualità da immagini satellitari ad alta risoluzione, in modo automatico o semi-automatico.
Riassumendo, gli aspetti chiave che influenzano la minore o maggiore diffusione nell’uso
di dati telerilevati in cartografia sono: la politica di distribuzione dei dati, il costo dei dati, la
qualità dei dati e dell’informazione estratta, la standardizzazione.
1.6.2
Metodo proposto per la valutazione della qualità
Tenendo conto del contesto sopra delineato, si è deciso di concentrare l’attenzione sul
problema della qualità dell’informazione estratta da dati telerilevati. Tale scelta è motivata da
due ragioni principali. Innanzitutto la possibilità di valutare la qualità dell’informazione è
strettamente legata al valore economico dei dati telerilevati stessi e dei prodotti sviluppati per
la loro analisi. Una elevata qualità rappresenta il fattore discriminante per la fattibilità di molte
applicazioni e inoltre la misurabilità della qualità offerta da una applicazione giustifica il suo
valore sul mercato e ne aumenta la competitività. Da un altro punto di vista, più legato al
32
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
mondo della ricerca, la possibilità di avere uno o più criteri per stimare in maniera univoca la
qualità di feature estratte da immagini telerilevate è di fondamentale importanza per valutare
l’efficacia e la reale applicabilità di una metodologia specifica di analisi.
La situazione attuale per quanto riguarda la qualità dell’informazione geospaziale può
essere riassunta nei seguenti punti:
•
•
•
•
•
non esiste un concetto di qualità dell’informazione spaziale universalmente accettato;
la qualità dei set di dati spaziali è spesso sconosciuta;
la qualità all’interno di un singolo set di dati non è necessariamente omogenea;
la mancanza di informazioni relative alla qualità può rappresentare un ostacolo per le
applicazioni;
le caratteristiche delle nuove immagini satellitari sono largamente inesplorate.
In questo ambito e con particolare riferimento a elementi “lineari” eventualmente presenti
nelle immagini, quali strade, canalizzazioni e litorali, obiettivo della mia ricerca, svolta in
collaborazione con il Dott. Paul Smits del Joint Research Centre di Ispra, è stato la
definizione di un protocollo semplice e generalizzabile per il calcolo di misure di affidabilità
da associare agli elementi estratti dai dati. Dal momento che risulta estremamente
complesso, se non impossibile, fornire una misura assoluta direttamente sui dati, si è
pensato di ricorrere ad un confronto delle feature estratte con le corrispondenti informazioni
vettorializzate contenute in un Sistema Informativo Geografico preesistente. In altri termini, si
ricorre ad una fonte di conoscenza a priori certificata e con caratteristiche note. In pratica,
l’approccio proposto prevede una elaborazione in diversi passi:
1. preparazione dei dati satellitari (registrazione geometrica, ecc.);
2. definizione del tipo di “struttura lineare” d’interesse, allo scopo di selezionare valori
appropriati per i parametri;
3. estrazione delle strutture dai dati mediante opportuno operatore;
4. calcolo di una mappa di verosimiglianza ([0,1]) per le strutture di interesse
nell’immagine;
5. conversione della poli-linea di interesse dal formato vettoriale del GIS a formato
binario ({0,1});
6. calcolo della correlazione bidimensionale tra dato vettoriale binarizzato e mappa di
verosimiglianza.
Come “case study” si è deciso di verificare, mediante la metodologia descritta,
l’accuratezza spaziale di un set di dati vettoriali utilizzando immagini satellitari multispettrali.
L’obiettivo di questo esempio è ottenere una misura dell’accuratezza spaziale dei dati
vettoriali rispetto al dato immagine. Gli esperimenti preliminari effettuati applicando il metodo
proposto all’estrazione di reti stradali in immagini LANDSAT hanno portato a risultati
confortanti che confermano l’efficacia dell’approccio.
Nel concreto, i passi sono:
1. Preparazione dei dati satellitari: l’immagine satellitare e l’insieme di dati vettoriali
devono trovarsi nello stesso sistema di proiezione geometrica. L’immagine deve
essere geo-rettificata tramite opportuni GCP (Ground Control Points). La Figura 21-a
mostra le bande 1, 2 e 3 di una immagine ETM+ della regione di Hasselt, Belgio, dopo
la rettificazione geometrica. L’errore RMS della geo-rettificazione è circa 0.2 pixels;
2. Scelta della struttura lineare d’interesse: l’utente deve avere le idee chiare rispetto al
tipo di struttura lineare che vuole estrarre. Ovviamente, la struttura deve essere
visibile nell’immagine in analisi. Nel caso specifico si è deciso di studiare la rete
stradale.
3. Mappa di verosimiglianza per la struttura lineare prescelta: l’obiettivo del calcolo della
mappa di verosimiglianza è quello di ottenere una matrice di valori in [0,1], dove 1
corrisponde a “presenza probabile della feature lineare” e 0 a “ presenza improbabile
33
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
della feature lineare “. La verosimiglianza si stima per ogni punto dell’immagine
mediante il metodo proposto in [8], una variante del “road operator” proposto da Duda.
L’immagine viene elaborata con svariate finestre mobili, una per ogni direzione di
interesse. La Fig. 20 mostra l’operatore in grado di individuare segmenti orizzontali di
spessore fissato.
b 1 b2 b3 b4 b 5 b 6 b 7
y
a 1 a2 a3 a4 a5 a 6 a7
c1 c2
c3 c4 c5 c6
c7
x
Figura 20: “Road operator” modificato
L’elaborazione avviene in due passi. Con il primo, per un certo pixel nell’immagine,
vengono calcolati i parametri ai, bi e ci. Nel secondo passo, viene calcolata una
funzione di costo che tiene in considerazione l’omogeneità fra le “a” e il contrasto fra
“a” e “b”, nonchè fra “a” e “c”:
Score =
G ( a1 − a 2 )× G ( a 2 − a3 )× G ( a3 − a 4 )× G ( a 4 − a5 )× G ( a5 − a 6 )× G ( a 6 − a 7 )
7
 7

max ∑ F (ai − bi ), ∑ F (ai − ci )
i =1
 i =1

[9]
L’equazione precedente rappresenta la somma dei punteggi per ogni direzione di
interesse e per ogni banda.
4. Conversione in formato binario della polilinea vettoriale d’interesse: prima di procedere
al calcolo della correlazione è necessario convertire i dati vettoriali in formato binario
raster. La figura 21-d mostra una porzione di strada convertita. E’ importante tenere a
mente due problemi. Innazitutto, la dimensione dei pixel risultanti deve essere uguale
a quella dei pixel nell’immagine. Inoltre, idealmente la larghezza del segmento di
strada dovrebbe corrispondere alla larghezza reale.
5. Calcolo della correlazione bidimensionale fra dato vettoriale e mappa di
verosimiglianza: il valore del coefficiente di correlazione è una misura dell’acuratezza
dell’informazione. La posizione del massimo fornisce informazioni sullo scostamento
della sezione di strada.
Va sottolineato che il metodo presentato è illustrativo e alcuni dei problemi incontrati
potevano facilmente essere previsti. Ad esempio, se nell’immagine e nel database vettoriale
sono presenti molti segmenti paralleli è probabile che la misura di qualità risultante non sia
stabile. Inoltre è importante una stima corretta dei parametri rilevanti, quali ad esempio la
larghezza della strada e la risoluzione dell’immagine.
Inoltre, è necessario considerare che la misura di qualità proposta è una quantità relativa.
La correlazione fra immagine e dati vettoriali può essere bassa anche se dal punto di vista
visivo sembra esserci buona corrispondenza fra i due. Nel caso delle immagini ETM+ è
possibile ottenere soddisfacenti risultati con strade, canali e fiumi.
Ulteriori ricerche sono necessarie per verificare l'effettiva utilizzabilità e generalizzabilità
delle misure che, fino ad ora, sono state ottenute per un contesto applicativo specifico.
34
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
Inoltre, dovrà essere valutata la possibilità di sfruttare misure di accuratezza diverse dalla
correlazione bidimensionale.
Il concetto più importante che emerge dal nostro lavoro può essere sintetizzato nel modo
seguente: per progettare e realizzare un sistema per lo sfruttamento commerciale dei dati
telerilevati e dell’informazione da essi estratta è necessario sviluppare una metodologia
robusta ed affidabile per la valutazione della qualità dell’informazione stessa.
a
b
c
d
Maximum correlation:
g = 0.178
Displacement of middle of
polyline section:
X-direction 1.5 pixel
Y-direction 1 pixel
e
Figura.21: Descrizione dell’approccio: (a) rettificazione geometrica
dell’immagine satellitare. Sono mostrate le bande 1, 2 and 3 di una
immagine ETM+, (b) selezione delle strutture da analizzare, (c)
mappa di verosimiglianza estratta da immagine ETM+, (d and e) dati
vettoriali convertiti a binary raster.
35
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
L'algoritmo per l'estrazione del litorale precedentemente descritto nella presente relazione
ha già fornito ottimi risultati, dal punto di vista qualitativo. Per una verifica della reale
applicabilità pratica del metodo è comunque necessario procedere ad una valutazione
quantitativa, allo scopo di testare l'accuratezza e l'affidabilità dell'informazione estratta. In tal
senso, l'approccio appena descritto per la stima della qualità dell'informazione geospaziale
potrebbe essere proficuamente sfruttato. Test quantitativi potrebbero essere effettuati su
immagini con caratteristiche diverse, allo scopo di verificare l'efficacia delle feature di
tessitura utilizzate.
1.6.3 Sistemi per l’Elaborazione, Gestione e Diffusione di Informazione
Telerilevata
Per svariati decenni la ricerca nell’ambito del telerilevamento è stata orientata
prevalentemente all’individuazione delle strategie migliori e degli algoritmi più efficienti per il
trattamento dei dati telerilevati (satellitari ed aerei) e l’estrazione di informazioni utili. Le
metodologie sembrano ormai aver raggiunto un livello di sviluppo tale da giustificare un uso
applicativo concreto del telerilevamento nella pratica lavorativa quotidiana di coloro che si
occupano di gestione e monitoraggio del territorio, di prevenzione dei disastri naturali, di
produzione cartografica, ecc.
Contrariamente a quanto ci si potrebbe aspettare, però, il mercato dei dati telerilevati
stenta a svilupparsi. Le ragioni possono essere riassunte in quattro punti principali:
•
•
•
•
L’uso delle immagini telerilevate comporta costi molto elevati per l’utente finale
Esiste una sostanziale diffidenza da parte dell’utente potenziale nei confronti di tali
dati rispetto all’uso delle tecniche tradizionali
L’accesso al dato e alle informazioni relative risulta complesso e dispendioso in
termini di tempo
Anche qualora il dato fosse disponibile, la sua analisi risulta complessa e richiede
comunque specifiche competenze
Buona parte di tali limiti potrebbe essere superata facendo ricorso a sistemi integrati
complessi che, a partire dal dato grezzo, siano in grado di estrarre e distribuire informazioni
di alto livello su specifica richiesta dell’utente. In Fig. 22 è riportata la rappresentazione
schematica di una proposta per un sistema di questo genere e delle funzionalità principali
che dovrebbe mettere a disposizione.
Prodotti Cartacei:
•Mappe
•Atlanti
•Stampe
• ……..
Database
di Immagini
Database di
Informazioni
Cartografia
Prodotti Software:
Estrazione ed Integrazione
di Informazioni:
•Image Processing
•Data Fusion
•Superimposition
•Layers
Presentazione:
•2D, 3D
•Navigabile
•Dinamica
•CD-ROM
•GIS
•Downloadable clients
Servizi Web:
•Analisi “on Demand”
•Accesso a database distribuiti
•Servizi catastali
•Distribuzione di informazionii
(HTML, XML, SVG)
•E-learning
Servizi Mobili:
•Wap
•Palm Top
•Wearable PC
•UMTS
• ……
Figura 22: Rappresentazione schematica di un ipotetico sistema integrato per l’elaborazione, gestione e
distribuzione di dati telerilevati e dell’informazione da essi estratta.
36
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
Organizzato sulla base di una architettura three-tier, il sistema dovrebbe integrare le più
moderne tecnologie per la gestione e distribuzione dell’informazione, con particolare
attenzione all’implementazione degli standard emergenti nell’ambito dei Sistemi Informativi
Geografici (OpenGIS). Inoltre, l’utilizzo del linguaggio XML (Extended Markup Language)
dovrebbe garantire l’interoperabilità e la comunicazione di sistemi distribuiti sul territorio e
connessi attraverso Internet o, all’interno di singole organizzazioni, tramite Intranet adeguate.
Infine, un sistema così concepito offrirebbe la possibilità di accedere all’informazione tramite
dispositivi di output estremamente diversificati, da un comune PC ad un ricevitore UMTS.
L’utente avrà la possibilità di navigare layer informativi precedentemente archiviati in databse
dedicati, oppure potrà richiedere una particolare elaborazione che verrà eseguita in remoto
su opportuni server (tecnologia ASP, server JAVA).
Nel caso particolare dei servizi Web, oltre allo sviluppo di portali dedicati, devono essere
previste due strategie alternative per garantire all’utente l’accesso ai dati:
•
•
Browser Web per utenti non abituali
Downloadable Client per utenti abituali
Dovranno inoltre essere previsti opportuni oggetti software, chiamati “Conflation Server”,
dedicati alla combinazione di informazioni di natura diversa allo scopo di creare, sempre su
richiesta dell’utente, nuovi layer informativi in grado di soddisfare una specifica esigenza. Per
fare un esempio, si supponga di dover pianificare la deviazione del traffico veicolare durante
una alluvione. Il piano di redirezionamento (Re-routing Plan) può essere ottenuto
semplicemente sovrapponendo due layer differenti: la mappa della rete stradale, contenuta
in un database permanente, e la mappa di distribuzione delle zone alluvionate ricavata a
partire da dati satellitari. E’ interessante notare come in questo caso si effettuerebbe
semplicemente una “integrazione visiva” di informazioni provenienti da sorgenti differenti,
senza applicare alcun cross-processing o metodologia di fusione dati.
Se l’informazione relativa alla rete stradale e contenuta nel database è stata estratta da
immagini telerilevate, la risoluzione diviene un importante criterio per la valutazione della
qualità del risultato finale (come posso stabilire se una certa strada è allagata o no nel caso
in cui la risoluzione del sensore sia insufficiente?). Questo esempio sottolinea l’importanza di
definire un “concetto di qualità” adeguato, tenendo presente la particolare applicazione in
analisi rispetto ai dati disponibili. In altri termini, la qualità di un prodotto geografico derivato
da dati telerilevati dipende dalla applicazione specifica, dalla qualità dei dati originali, dalla
affidabilità ed accuratezza degli algoritmi di elaborazione, ecc.
Quanto discusso rappresenta, chiaramente, un proposta preliminare per un sistema la cui
effettiva realizzazione comporterebbe un considerevole impegno di risorse, sia economiche
che umane. E’ sembrato comunque fondamentale, a completamento di un triennio dedicato
allo studio delle problematiche relative all’uso del telerilevamento per il monitoraggio
territoriale, dedicare uno spazio adeguato all’analisi degli aspetti più legati ad uno
sfruttamento commerciale ed applicativo delle tecniche sviluppate.
1.6.4 Bibliografia
[1]
[2]
[3]
[4]
[5]
[6]
M. Fischler, J. Tannenbaum, H. Wolf, "Detection of roads and linear structures in low-resolution aerial imagery
using a multisource knowledge integration technique", Computer Graphics and Image Processing, Vol. 15, pp. 201223, 1981;
D.B. Mandal, C.A. Murthy, S.K. Pal, "Analysis of IRS Imagery for Detecting Man-Made Objects With a Multivalued
Recognition System", IEEE Trans. on Systems, Man and Cybernetics-PartA, Vol.26, N°2, March 1996, pp. 241-247;
N. Merlet, J. Zerubia, "New Prospects in Line Detection by Dynamic Programming", IEEE Trans. on Pattern Analysis
and Machine Intelligence, Vol.18, N°4, April 1996, pp. 426-431;
F. Leymarie, N. Boichis, S. Airault, O. Jamet, "Towards the Automation of Road Networks Extraction Processes",
Proc. Europto96, Taormina, 23-26 September 1996, SPIE Vol. 2960, pp. 84-95;
Gruen, H. Li, "Semi-automatic linear feature extraction by dynamic programming and LSB-Snakes",
Photogrammetric Engineering and Remote Sensing, Vol. 63(8), 1997, pp. 985-995;
W. Guan, S. Ma, "A List-Processing Approach to Compute Voronoi Diagrams and The Euclidean Distance
Transform", IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol.20, N°7, July 1998, pp. 757-761;
37
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
[7]
[8]
[9]
[10]
[11]
[12]
[13]
[14]
[15]
[16]
[17]
Relazione Finale
D. Rosenholm, V. Schumacher, C. Mahlander, "Customer Workshops to define the Requirements of Specific
Customer Segments: Land Navigation/Digital Mapping Industry", Final Report for Centre for Earth Observation
(CEO), European Commission, Joint Research Centre, Ispra, Italy, Project Reference RGC 16/97, 1998;
Kanungo T., M.Y. Jaisimha, J. Palmer, and R.M. Haralick, 1995, “A methodology for quantitative performance
evaluation of detection algorithms”, IEEE Trans. Image Processing, Vol. 4, No. 12, Dec., pp. 1667-1674.
P. Haunold, W. Kuhn, “A keystroke level analysis of manual map digitizing”, In: A.U. Frank, I. Campari (Eds.), Spatial
Information Theory – A theoretical basis for GIS, Springer-Verlag: Berlin, pp. 406-420.
P.C. Smits, S.G. Dellepiane, and R. Schowengerdt, “Quality assessment of image classification algorithms for landcover mapping: a review and a proposal for a cost-based approach”, Int. Journal of Remote Sensing, 20 (8), May
1999, pp. 1461-1486.
J. Qiu and G. J. Hunter, "Towards Dynamic Updating of Data Quality Information", in: G.B.M. Heuvelink and M.J.P.M.
Lemmens (eds.), Proceedings Accuracy 2000. Delft University Press, 2000.
J. Michael and M. Krolikowski, "Digital Orthophotography - Principles, Project design Issues, Utility, Accuracy,
Economics”, In: Proceedings GIS/GPS Conference '97. Online. http://www.gisqatar.org.qa/conf97/p1.html
U.S. Geological Survey, National Mapping Division. Standards for 1:24,000-Scale Digital Line Graphs-3 Core. pp. 1.141.18.
Online. http://www.fgdc.gov/
ASPRS Interim accuracy standards for large-scale maps. Photogrammetric engineering & Remote Sensign, vol. 54, no. 7,
pp. 1079-1081.
M. Craglia, A. Annoni, I. Masser (Eds.). “Geographic Information Policies in Europe: National and Regional
perspectives”, Proceedings of the EUROGI-EC Data Policy workshop in Amersfoort, 15 November 1999. Report
EN19522 EN. Joint Research Centre: Ispra (Italy), 2000.
J. Desachy, V. Bessettes, and P. Dherete, “Remote sensing images processing and geographic features”, in: C.H.
Chen (Ed.), Information processing for remote sensing, World Scientific, 1999, pp. 433-457.
38
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
2 Attività didattica svolta
[1] Attività di supporto alla didattica per il corso di Comunicazioni Elettriche (a.a. 2000/2001, corsi di
laurea in Ingegneria Elettronica, Informatica e Biomedica) tenuto dal Prof. Gianni Vernazza.
L'attività ha riguardato la preparazione e lo svolgimento di esercitazioni software di laboratorio in
ambiente MATLAB.
[2] Attività di supporto alla didattica (art.33 del nuovo statuto) per il corso di Comunicazioni Elettriche
(a.a. 1999/2000, corsi di laurea in Ingegneria Elettronica, Informatica e Biomedica) tenuto dal
Prof. Gianni Vernazza. L'attività ha riguardato la preparazione e lo svolgimento di esercitazioni
software di laboratorio in ambiente MATLAB.
3 Partecipazione a corsi e/o scuole
[1]
Seminario in "Impresa, Ricerca e Innovazione", Repubblica di San Marino - Università degli
Studi - Dipartimento di Economia e Tecnologia, 11-15 Ottobre 1999.
4 Partecipazione a convegni e/o congressi
[1] “Monitoring and Control of Marine and Harbour Structures - International Conference”,
Genova - Palazzo San Giorgio, 1-4 Giugno 1999.
[2] “IEEE - International Geoscience and Remote Sensing Symposium - IGARSS'99”, Amburgo
- Congress Centrum Hamburg, 28 Giugno-2 Luglio 1999.
[3] “The EOS/SPIE Symposium on Remote Sensing - EUROPTO'99”, Firenze - Palazzo degli
Affari, 20-24 Settembre 1999.
[4] “IEEE-International Geoscience and Remote Sensing Symposium - IGARSS 2000”,
Honolulu - Hilton Hawaiian Village, 24-28 Luglio 2000.
[5] “The EOS/SPIE Symposium on Remote Sensing - EUROPTO 2000”, Barcellona - Barcelò
Sants Hotel, 25-29 Settembre 2000.
[6] “4a Conferenza Nazionale ASITA”, Genova - Magazzini del Cotone, 3-6-Ottobre 2000.
[7] “IEEE-International Geoscience and Remote Sensing Symposium - IGARSS 2001”, Sydney
- University of New South Wales, 9-13 Luglio 2001.
[8] “The 8th International Symposium on Remote Sensing”, Tolosa - Centre de Congrès Pierre
Baudis, 17-21 Settembre 2001.
[9] “5a Conferenza Nazionale ASITA”, Rimini - Palacongressi, 9-12-Ottobre 2001.
5 Appartenenza ad Associazioni
[1]
Dal 2000, Student Member dell'IEEE-Institute of Electrical and Electronic Engineers. Membro
di IEEE-Geoscience and Remote Sensing Society, di IEEE-Signal Processing Society e dal
2001 di IEEE-Computer Society. Membro di IEEE-Data Fusion Committee;
[2]
Dal 2000, socio dell'AEI - Associazione Elettrotecnica Italiana;
[3]
Membro del Consorzio Nazionale Interuniversitario per le Telecomunicazioni (CNIT);
39
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
6 Pubblicazioni
[1] G. Bo, S. Garzarelli Doria, L. Renzi, F. Rossi, A. Ramella, R. Berardi, R. Passalacqua
"Uso dell'Interferometria Differenziale per l'Analisi di Movimenti Lenti del
Terreno", Atti 5a Conferenza Nazionale ASITA, 9-12 October 2001, Rimini, Italy.
[2] R. De Laurentiis, S. Dellepiane, G. Bo, "Texture Features Analysis for Coastline
Extraction in Remotely Sensed Images", Proc. The 8th International Symposium on
Remote Sensing, 17-21 September 2001, Toulouse, France, (to be published SPIE
Vol.4541).
[3] S. Dellepiane, G. Bo, S. Garzarelli Doria, "Differential Interferometry and Slow
Terrain Motion Analysis", Proc. The 8th International Symposium on Remote Sensing,
17-21 September 2001, Toulouse, France, (to be published SPIE Vol.4543).
[4] M. Bruzzo, F. Giordano, L. Pagani, S. Dellepiane, G. Bo, "Content-based Retrieval for
Remotely Sensed Images", Proc. The 8th International Symposium on Remote
Sensing, 17-21 September 2001, Toulouse, France, (to be published SPIE Vol.4540).
[5] G. Bo, S. Dellepiane, R. De Laurentiis, "Coastline Extraction in Remotely Sensed
Images by means of Texture Features Analysis", Proc. The International Geoscience
and Remote Sensing Symposium - IGARSS 2001, 9-13 July 2001, Sydney, Australia.
[6] G. Bo, S. Dellepiane, P.C. Smits, A. Annoni, "Issues in Geographic Data Quality
Assessment by Remote Sensing Techniques", Proc. The International Geoscience
and Remote Sensing Symposium - IGARSS 2001, 9-13 July 2001, Sydney, Australia.
[7] G. Bo, S. Dellepiane, "Iterative approach for multi-resolution phase-model
reconstruction", Il Nuovo Cimento, Vol. 24 C, N°1, January-February 2001.
[8] G. Bo, S. Dellepiane, S. Monni, C. Buck, "Valutazione dei danni da alluvione tramite
interferometria SAR", Atti 4a Conferenza Nazionale ASITA, 3-6 October 2000, Genova,
Italy, pp.217-222.
[9] S. Dellepiane, G. Bo, S. Monni, C. Buck, "Improvements in flood monitoring by
means of interferometric coherence", Proc. The EOS/SPIE Symposium on Remote
Sensing - EUROPTO 2000, 25-29 September 2000, Barcelona, Spain, SPIE Vol.4173.
[10] G. Bo, S. Dellepiane, F. Giorgini, M. Bartolini, "A detail preserving solution to the
problem of shoreline detection in remotely sensed images", Proc. The EOS/SPIE
Symposium on Remote Sensing - EUROPTO 2000, 25-29 September 2000, Barcelona,
Spain, SPIE Vol.4170.
[11] G. Bo, S. Dellepiane, P.C. Smits, A. Annoni, "On linear feature extraction for roadnetworks detection and updating", Proc. The EOS/SPIE Symposium on Remote
Sensing - EUROPTO 2000, 25-29 September 2000, Barcelona, Spain, SPIE Vol.4170.
[12] S. Dellepiane, G. Bo, S.Monni, C. Buck, "SAR images and interferometric coherence
for flood monitoring", Proc. The International Geoscience and Remote Sensing
Symposium - IGARSS 2000, 24-28 July 2000, Honolulu, USA, pp.2608-2610.
[13] G. Bo, S. Dellepiane, R. De Laurentiis, "Semiautomatic coastline detection in
remotely sensed images", Proc. The International Geoscience and Remote Sensing
Symposium - IGARSS 2000, 24-28 July 2000, Honolulu, USA, pp.1869-1871.
40
Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo
Relazione Finale
[14] S. Dellepiane, S. Monni, G. Bo, C. Buck, "Flood damage assessment using SAR
Interferometry: a quantitative evaluation of results", Proc. FRINGE '99-Second
International Workshop on ERS SAR Interferometry, 10-12 November 1999, Liège,
Belgium, (in press).
[15] R. De Laurentiis, G. Bo, S. Dellepiane, A. Del Grosso, "Identificazione
Semiautomatica del Litorale in Immagini Telerilevate", Atti 3a Conferenza Nazionale
ASITA, 9-12 November 1999, Naples, Italy, pp.689-694.
[16] G. Bo, S. Dellepiane, G. Beneventano, "A Locally adaptive noise filtering approach
for phase-unwrapping improvement", Proc. The EOS/SPIE Symposium on Remote
Sensing - EUROPTO 99, 20-24 September 1999, Florence, Italy, SPIE Vol. 3869.
[17] G. Bo, S. Dellepiane, G. Beneventano, "A Locally Adaptive Approach for
Interferometric Phase Noise Reduction", Proc. The International Geoscience and
Remote Sensing Symposium - IGARSS'99, 28 June-2 July 1999, Hamburg, Germany,
pp.264-266.
[18] S. Dellepiane, G. Bo, P.C. Smits, "Multi-Resolution Phase Model Reconstruction for
Phase Unwrapping", Proc. The International Geoscience and Remote Sensing
Symposium - IGARSS'99, 28 June-2 July 1999, Hamburg, Germany, pp. 2395-2397.
[19] R. De Laurentiis, G. Bo, S. Dellepiane, A. Del Grosso, "Remote Sensing and Coastal
Monitoring: methods and applications", Proc. International Conference on Monitoring
and Control of Marine and Harbour Structures, 1-4 June 1999, Genoa, Italy, (in press).
[20] G. Bo, S. Dellepiane, P.C. Smits, "Weighted multi-resolution phase unwrapping
method", Proc. EUROPTO 98 - The European Symposium on Remote Sensing, 21-25
September 1998, Barcelona, Spain, SPIE Vol.3497, pp. 146-154.
[21] P.C. Smits, A. Trucco, G. Bo, G. Vernazza, "Iterative model reconstruction for phase
unwrapping", Proc. 3rd ERS Symp. on Space at the service of our Environment, 17-21
March 1997, Florence, Italy, (ESA SP-414, 3 Vols., May 1997).
41