III anno - Università degli studi di Genova
Transcript
III anno - Università degli studi di Genova
Università degli Studi di Genova DIBE - Dipartimento di Ingegneria Biofisica ed Elettronica Dottorato di Ricerca in Scienze e Ingegneria dello Spazio - XIV Ciclo - Relazione Finale sull'attività svolta durante il triennio Dottorando: Ing. Giancarlo Bo Tutor: Prof. Silvana Dellepiane Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale Indice 1 ATTIVITÀ DI RICERCA SVOLTA ......................................................................3 1.1 Interferometria SAR: sviluppo di una metodologia integrata per il filtraggio dell'interferogramma e il phase-unwrapping...................................................................................... 4 1.1.1 Introduzione............................................................................................................................................................... 4 1.1.2 Il Filtraggio ................................................................................................................................................................. 5 1.1.3 Il Phase Unwrapping ................................................................................................................................................. 6 1.1.4 Approccio Integrato Filtraggio/Phase Unwrapping .................................................................................................... 7 1.1.5 Risultati Sperimentali................................................................................................................................................. 7 1.1.6 Bibliografia................................................................................................................................................................. 9 1.2 Il telerilevamento per il monitoraggio dell'ambiente costiero: identificazione della linea di costa su immagini telerilevate mediante analisi di tessitura e analisi del contesto spaziale..... 10 1.2.1 Introduzione............................................................................................................................................................. 10 1.2.2 Il metodo proposto................................................................................................................................................... 10 1.2.3 Risultati Sperimentali............................................................................................................................................... 11 1.2.4 1.3 Bibliografia............................................................................................................................................................... 15 Valutazione dei danni da alluvione tramite interferometria SAR......................................... 16 1.3.1 Introduzione............................................................................................................................................................. 16 1.3.2 Descrizione dell'approccio proposto e risultati ottenuti............................................................................................ 16 1.3.3 Valutazione quantitativa dei risultati ........................................................................................................................ 18 1.3.4 Bibliografia............................................................................................................................................................... 20 1.4 Impiego dell’interferometria differenziale per il monitoraggio di movimenti del suolo su media e grande scala .......................................................................................................................... 21 1.4.1 Introduzione............................................................................................................................................................. 21 1.4.2 Il problema............................................................................................................................................................... 21 1.4.3 L’Interferometria Differenziale SAR ......................................................................................................................... 22 1.4.4 I siti pilota e i dati SAR disponibili............................................................................................................................ 23 1.4.5 Risultati preliminari ottenuti ..................................................................................................................................... 24 1.4.6 Conclusioni .............................................................................................................................................................. 24 1.4.7 Bibliografia............................................................................................................................................................... 25 1.5 Introduzione............................................................................................................................................................. 26 1.5.2 Metodologia ............................................................................................................................................................. 27 1.5.3 Gestione di un archivio di immagini METEOSAT .................................................................................................... 28 1.5.4 Risultati Sperimentali............................................................................................................................................... 30 1.5.5 1.6 2 3 4 5 6 Estrazione di feature per l’indicizzazione di database di immagini telerilevate ................ 26 1.5.1 Bibliografia............................................................................................................................................................... 31 Valutazione della qualità dell’informazione geospaziale estratta da dati telerilevati........ 32 1.6.1 Introduzione............................................................................................................................................................. 32 1.6.2 Metodo proposto per la valutazione della qualità .................................................................................................... 32 1.6.3 Sistemi per l’Elaborazione, Gestione e Diffusione di Informazione Telerilevata ..................................................... 36 1.6.4 Bibliografia............................................................................................................................................................... 37 ATTIVITÀ DIDATTICA SVOLTA .....................................................................39 PARTECIPAZIONE A CORSI E/O SCUOLE...................................................39 PARTECIPAZIONE A CONVEGNI E/O CONGRESSI.....................................39 APPARTENENZA AD ASSOCIAZIONI ...........................................................39 PUBBLICAZIONI .............................................................................................40 2 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale 1 Attività di ricerca svolta La presente relazione costituisce una sintesi delle attività svolte e dei risultati ottenuti durante i tre anni del corso di Dottorato in Scienze e Ingegneria dello Spazio. Fin da subito l’attenzione è stata rivolta all’analisi di alcune problematiche particolarmente attuali nell’ambito del monitoraggio ambientale, specie per quanto riguarda la Regione Liguria. In particolare, si sono presi in considerazione: • • • l’evoluzione della morfologia costiera il monitoraggio dei fenomeni alluvionali il monitoraggio dei movimenti lenti del terreno e delle frane. In seguito ad uno studio dettagliato della genesi ed evoluzione dei suddetti fenomeni sono stati individuati i dati e le metodologie di analisi più idonei al loro monitoraggio. In particolare sono stati sviluppati ed implementati algoritmi innovativi per l’estrazione, in particolare da dati Radar ad Apertura Sintetica (SAR), di tutte quelle informazioni che possono essere ritenute significative negli ambiti considerati. Nel corso della ricerca è emersa chiaramente l’esigenza di strumenti che, oltre ad una agevole analisi ed elaborazione dei dati, permettano anche la gestione integrata della archiviazione dei dati telerilevati, la loro distribuzione mediante le attuali tecnologie di comunicazione, nonchè la circolazione dell’informazione da essi estratta nel rispetto degli standard e dei criteri di qualità attualmente riconosciuti. Pertanto, nel corso del Dottorato, sono stati effettuati studi orientati non solo allo sviluppo di metodologie avanzate per l’elaborazione dei dati satellitari ma anche alla definizione di specifiche e linee guida per la progettazione di sistemi idonei ad uno sfruttamento applicativo e commerciale del telerilevamento. Nei paragrafi che seguono viene offerta una descrizione più dettagliata, seppure informale, delle attività realizzate e dei risultati conseguiti in ognuno dei filoni di ricerca affrontati. Maggiori e più dettagliate informazioni sulle ricerche sviluppate possono essere ritrovate nelle pubblicazioni indicate nella sezione 5 della presente relazione, nonchè nella tesi finale dal titolo: “Remote Sensing and Synthetic Aperture Radar for Environment Monitoring: Data Processing and Analysis”. 3 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale 1.1 Interferometria SAR: sviluppo di una metodologia integrata per il filtraggio dell'interferogramma e il phase-unwrapping 1.1.1 Introduzione Il phase-unwrapping è uno dei passaggi più importanti nella catena di elaborazione che permette di generare modelli di elevazione digitale del suolo mediante la tecnica interferometrica applicata a dati SAR (Synthetic Aperture Radar). A causa della presenza di rumore, un operazione di filtraggio deve essere effettuata prima di procedere alla soluzione delle ambiguità di fase, in modo da ottenere una migliore stima delle fasi reali e, di conseguenza, un modello topografico più preciso. Per risolvere tale problema è stato sviluppato un processo in due passi che integra un approccio innovativo per il filtraggio nel dominio spaziale ed un metodo di phase-unwrapping multi-risoluzione che ha dimostrato di essere meno sensibile al rumore rispetto alle tecniche classiche presenti in letteratura. Il filtro è stato concepito con l'obiettivo di preservare i dettagli fini presenti nell'interferogramma e direttamente legati alla topografia del suolo. In particolare, le discontinuità associate alle frange interferometriche devono rimanere nella corretta posizione e la distribuzione dei valori di fase deve essere mantenuta. Un semplice filtro passa-basso in una finestra quadrata non è adatto in questo caso poiché, pur presentando un buon comportamento in regioni omogenee dell'immagine, introduce un eccessivo degrado dell'informazione utile in prossimità delle frange. Dal momento che il contrasto locale e la disposizione delle frange devono essere conservati, la riduzione del rumore dovrebbe essere realizzata impiegando una tecnica adattiva che tenga conto dell'aspetto e delle statistiche locali dell'immagine interferometrica. Si è pensato quindi di realizzare un metodo di filtraggio edge-preserving che sfrutti l'informazione spaziale locale allo scopo di identificare, per ogni pixel, la miglior maschera di filtraggio, scegliendola in un ampio set di sistemi di vicinanza. Una volta che la finestra migliore è stata selezionata, deve essere applicata una opportuna funzione di filtraggio. Si assume che il rumore di fase sia caratterizzato da un modello additivo gaussiano a media nulla e che la funzione di filtraggio tenga conto di questa distribuzione. Si è quindi adottato un criterio adattivo non-lineare, basato sulla stima locale del rumore e della deviazione standard del segnale (i.e. le frange interferometriche). La funzione risultante si comporta come un filtro mediano in presenza di fini dettagli, come un filtro medio in aree omogenee dell'immagine e come una combinazione dei due in aree con caratteristiche intermedie. Operando in questo modo l'algoritmo offre due livelli di adattività: si adatta alle caratteristiche contestuali spaziali per la selezione della maschera migliore e alle statistiche locali durante il filtraggio vero e proprio. L'efficacia del metodo può essere valutata osservando come il rumore viene ridotto drasticamente mentre l'integrità dei gradienti di fase è conservata. Una volta che il rumore interferometrico è stato rimosso, le fasi dell'interferogramma devono essere "srotolate". A tale scopo è stato messo a punto un metodo innovativo che permette la valutazione del valore reale della fase per ogni pixel attraverso lo sviluppo iterativo di un modello tridimensionale della funzione di fase corrispondente alle variazioni di pendenza del suolo. I risultati sperimentali, ottenuti applicando a dati sintetici e reali la metodologia descritta, hanno dimostrato che l'integrazione di un filtraggio adattivo detail preserving con un algoritmo di phase-unwrapping poco sensibile al rumore costituisce un buon mezzo per ridurre gli effetti dovuti a rumore termico e bassa coerenza sull'interferogramma nella determinazione di un modello digitale di elevazione del suolo. 4 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale 1.1.2 Il Filtraggio La soluzione proposta consiste nell'uso di un set di maschere anisotrope, ognuna in grado di adattarsi alle particolari caratteristiche locali della distribuzione dei valori di fase nell'immagine interferometrica. Su ogni maschera viene definita una funzione di filtraggio non lineare che varia in dipendenza dal comportamento statistico locale del segnale e del rumore. Applicando tale approccio è possibile conservare i dettagli e mantenere la corretta distribuzione dei valori di fase, informazioni indispensabili per le successive elaborazioni quali il phase unwrapping. In pratica, l'algoritmo di filtraggio proposto opera attraverso due passi principali: • • selezione della maschera che meglio si adatta alle caratteristiche locali dei dati; filtraggio non lineare adattivo del rumore di fase sulla maschera precedentemente selezionata. E' stato creato un vasto insieme composto da svariate decine di maschere adattive, che differiscono fra di loro per "spessore" e direzione (in Fig. 1 alcuni esempi). L'utilizzo di finestre di elaborazione non quadrate per l'estrazione dell'informazione direzionale contenuta nell'interferogramma, permette di ridurre il rumore limitando l'insorgenza di effetti di blurring come normalmente avviene se si sfruttano maschere quadrate. Allo scopo di selezionare la maschera migliore per ogni pixel, la varianza dei dati viene calcolata su tutte le maschere contenute nell'insieme: per filtrare si utilizzerà quella corrispondente alla varianza minore. Tale criterio implica la ricerca della direzione in cui i valori di fase presentano una maggiore omogeneità. Figura 1: Dieci maschere direzionali selezionate dall'insieme di criteri di vicinanza. I pixel neri sono quelli coinvolti nel processo di filtraggio. Dato un pixel xi , una volta che la maschera ottima è stata individuata, si procede con la stima delle statistiche locali dei dati corrispondenti alla maschera stessa. Conoscendo questi valori è possibile calcolare il valore di fase filtrato, yi. La funzione di filtraggio per un generico pixel può essere espressa nel modo seguente: (1 − a ) ⋅ xi + a ⋅ mˆ x if a ≥ c yi = if a < c med ( xi ) [1] dove: σˆ b+ n a= σˆ x 1 σˆ n ≤ 1- b σˆ x otherwise if [2] mx e med(xi) sono, rispettivamente, il valor medio ed il mediano calcolati sulla maschera selezionata. b e c sono parametri costanti, i cui valori sono assegnati sulla base di valutazioni sperimentali effettuate su immagini differenti. L'algoritmo di filtraggio può essere ripetutamente applicato sull'interferogramma rumoroso in modo da ridurre progressivamente il livello del rumore e ricostruire più accuratamente le frange. 5 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale 1.1.3 Il Phase Unwrapping Il metodo proposto per il phase unwrapping si basa sulla ricostruzione di un modello globale della fase srotolata a partire dall'informazione locale contenuta nei dati. Si tratta di un approccio che permette di limitare la propagazione di errori dovuti alla presenza di aree rumorose nell'interferogramma, risultando meno sensibile al rumore rispetto ai metodi classici. La miglior soluzione per la ricostruzione di una superficie che approssimi la funzione di fase reale consiste nell'uso di una tecnica di modellizzazione basata su elementi finiti: il dominio viene partizionato in elementi triangolari di forma e dimensioni tali da adattarsi alle caratteristiche locali dei dati. Nel nostro approccio vengono utilizzati elementi quadrati, allo scopo essenzialmente di ridurre il carico computazionale. In pratica, l'immagine interferometrica viene suddivisa in elementi poligonali su ognuno dei quali la fase srotolata può essere modellata per mezzo delle pendenze medie locali. A partire da questa informazione, si può approssimare localmente la fase reale con una funzione bilineare, in altri termini con una superficie piana. Il modello globale viene ricostruito a partire dai singoli piani trovati, collegandoli opportunamente. Una volta che è stata fissata la dimensione dei riquadri nella partizione, la generazione del modello di fase procede attraverso i seguenti passi: • • • • stima della pendenza media in azimuth e range su ogni riquadro; stima dei valori di fase ai vertici della griglia tramite soluzione di un problema ai minimi quadrati; calcolo del modello approssimato, per ogni punto del dominio, tramite interpolazione bilineare; calcolo di una immagine residua, data dalla differenza fra l'interferogramma originale e il modello approssimato. In sostanza, l'obiettivo finale del processo di srotolamento delle fasi è la ricostruzione di un modello della fase reale tale da eliminare completamente le frange nell'immagine residua (frange residue). Se il risultato ottenuto non è sufficientemente accurato, è possibile migliorarlo applicando iterativamente l'algoritmo all'immagine residua utilizzando una partizione di dimensione diversa. Il modello di fase finale risulterà dalla somma di tutti i modelli parziali ottenuti ad ogni iterazione. E' stato dimostrato che il valor medio delle differenze di fase fra pixel adiacenti in azimuth e range può essere utilizzato come stima della pendenza media locale. In formule: meanslopeazimuth = ∑i∑j W[φi+1j- φij] / N(M-1) i = 1...M-1 j = 1...N [3a] meansloperange = ∑i∑j W[φij+1- φij] / M(N-1) i = 1...M j = 1...N-1 [3b] dove M e N sono le dimensioni del riquadro su cui la funzione di fase deve essere stimata. Se la quantità di punti "rumorosi" non è elevata, in rapporto al numero totale di pixel presenti nel riquadro, l'uso di riquadri di grandi dimensioni garantisce una minore sensibilità al rumore. Al contrario, un partizionamento con elementi piccoli permette di ricostruire più agevolmente i dettagli della funzione di fase ma implica una maggiore influenza del rumore nella valutazione delle pendenze locali. Un compromesso fra le due possibilità viene raggiunto grazie all'iteratività del metodo e cambiando la dimensione degli elementi nella partizione. 6 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale 1.1.4 Approccio Integrato Filtraggio/Phase Unwrapping I risultati ottenuti filtrando una, due o tre volte l'interferogramma con l'approccio adattivo e quindi srotolando le fasi con la tecnica multi-risoluzione, mostrano alcuni difetti nella corretta determinazione dei valori reali della fase. In particolare, in corrispondenza delle frange, il modello finale di fase è caratterizzato da cambiamenti repentini di pendenza che non sono realmente presenti nei dati originali. Questo fenomeno è probabilmente causato da una riduzione della dinamica dei valori di fase provocata dal filtro in prossimità delle frange. Per risolvere tale problema si è deciso di applicare il filtro adattivo all'immagine residua che viene calcolata dopo ogni iterazione del phase unwrapping e non all'immagine originale. In altre parole, dopo ogni iterazione il residuo viene filtrato con il filtro descritto, cosicché il rumore viene rimosso dal residuo stesso e al passo successivo non viene aggiunto al modello. I risultati ottenuti applicando il metodo discusso a numerosi interferogrammi rumorosi, reali e sintetici, mostrano chiaramente come l'elaborazione diretta dell'immagine residua permette la generazione di un modello di fase più accurato. 1.1.5 Risultati Sperimentali Allo scopo di fornire una valutazione quantitativa e qualitativa della metodologia precedentemente descritta, è stato effettuato un gran numero di test prevalentemente su immagini interferometriche sintetiche. Sono stati confrontati i risultati ottenuti applicando tre differenti approcci: 1. phase unwrapping su interferogramma non filtrato 2. phase unwrapping su interferogramma filtrato 3. elaborazione dell'interferogramma con approccio integrato filtraggio/phase unwrapping Per valutare la robustezza del metodo rispetto alla presenza di rumore, è stata generata un’ampia gamma di interferogrammi variamente corrotti con rumore additivo gaussiano, a media nulla e deviazione standard variabile in un ampio insieme di valori. La valutazione quantitativa della correttezza ed efficacia del metodo nel ricostruire il modello di fase è stata effettuata sfruttando la stima di errore MAE (Maximum Absolute Error), definita come il valore assoluto della differenza fra il modello di fase originale,, F (i, j ) , ed il modello ricostruito Fˆ (i, j ) ottenuto con il particolare approccio in analisi: M MAE = N ∑∑ F (i, j ) − Fˆ (i, j ) j =1 i =1 N ⋅M [4] La Tab. 1 ed il relativo grafico mostrano le prestazioni dei tre approcci. Ogni colonna è identificata da un diverso valore di varianza del rumore (valori compresi in [0.2,0.8]) mentre le righe rappresentano le diverse metodologie. Osservando i risultati appare evidente che la tecnica integrata filtraggio/phase unwrapping (Model-3) offre le migliori prestazioni. In presenza di elevati livelli di rumore la qualità complessiva della fase ricostruita degrada in ogni modo, ma i difetti sono fortemente limitati se si filtra l'immagine residua. 7 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale M odel-1 M odel-2 MAE M odel-3 V A R. 0,2 V A R.0,3 V A R. 0,4 V A R. 0,5 V A R. 0,6 V A R. 0,7 V A R. 0,8 Noise va ria nce PROCESSING TYPE VAR. 0,2 VAR.0,3 VAR. 0,4 VAR. 0,5 VAR. 0,6 VAR. 0,7 VAR. 0,8 Model -1 (without filtering) 0,68675 0,99653 1,3399 1,473 1,7203 2,02 Model – 2 (filtering the interferogram) 0,39628 0,58277 0,73213 0,93322 1,119 1,5369 2,2875 1,6993 Model – 3 (filtering the residue image) 0,21991 0,27252 0,32518 0,3762 0,46585 0,68459 0,89117 Tabella 1: Valutazione quantitativa delle metdologie discusse per il filtraggio ed il phase unwrapping. E' evidente che l'approccio integrato garantisce I migliori risultati. La Fig.2 mostra un esempio di interferogramma rumoroso (Fig.2-a, varianza 0.7) ed i risultati finali ottenuti con le diverse metodologie illustrate. I modelli di fase sono stati "riarrotolati" per permettere una valutazione qualitativa tramite una semplice osservazione visiva delle frange corrispondenti alla funzione di fase ricostruita. Le frange e i valori di fase risultano meglio conservati in Model-3 (Fig.2-d): tale risultato dimostra che filtrando l'immagine residua solamente il rumore viene rimosso e l'informazione utile è preservata quasi completamente. Al contrario, riducendo il rumore prima di srotolare le fasi si introduce un errore significativo anche se la tecnica di filtraggio è adattiva e edge preserving (Fig.2-c). In Fig.3 sono mostrati i corrispondenti modelli 3D ricostruiti. a) b c) d Figura 2: Interferogramma originale (a) e modelli di fase ri-arrotolati ottenuti: b) senza filtrare, c) filtrando l'interferogramma prima di srotolare le fasi, d) filtrando l'immagine residua. 8 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale a) b) c) d) Figura 3: Modelli 3-D di: a) funzione di fase originale; b) modello ottenuto senza filtraggio; c) modello ottenuto filtrando l'interferogramma; d) modello ottenuto filtrando il residuo. In c) sono visibili gli effetti del filtro sulla determinazione della pendenza in corrispondenza delle frange. 1.1.6 Bibliografia [1] I.Pitas, A.N.Venetsanopoulos. "Nonlinear Digital Filters - Principles and Applications", Kluwer Academic Publishers,1990; [2] R. Bamler, N. Adam, G.W. Davidson, D. Just. "Noise-induced slope distortion in 2-D phase unwrapping by linear estimators with application to SAR interferometry", IEEE Trans. on Geoscience and Remote Sensing, Vol.36-N°3, pp.913-921,1998; [3] J.S. Lee, K.P. Papathanassiou, T.L. Ainsworth, M.R. Grunes, A. Reigber. "A new technique for noise filtering of SAR interferogram phase images", Proc. IGARSS ’97, pp.1716-1718,1997; [4] T.L. Ainsworth, J.S. Lee. "A joint adaptive interferometric phase unwrapping and filtering algorithm", Proc.IGARSS ’98, Seattle, 6-10 July 1998, pp.71-73; [5] A. Mori, A. Rapaccini, "An iterative method to improve phase unwrapping of noisy interferogram", Proc. IGARSS ’98, Seattle, 6-10 July 1998, pp.65-67; [6] D.C. Ghiglia, L.A. Romero, "Robust two-dimensional weighted and unweighted phase unwrapping that uses fast transforms and iterative methods", J.Opt.Soc.Am., Vol.11-Iss.1, pp.107-117, 1994; [7] H. Tarayre, D. Massonet, J.A. Sirat, "Noise-robust phase-unwrapping method in radar interferometry", SPIEVol.2548, pp.310-318, 1995; [8] M.D. Pritt, "Phase unwrapping by means of multigrid techniques for interferometric SAR", IEEE Trans. on Geoscience and Remote Sensing, Vol.34-Iss.3, pp.728-738, 1996; [9] P.C. Smits, A. Trucco, G. Bo, G. Vernazza, "Iterative model reconstruction for phase unwrapping", Proc. 3rd ERS Symp. on Space at the service of our Environment, Florence, Italy, 17-21 March 1997 (ESA SP-414, 3 Vols., May 1997); [10] G. Bo, S. Dellepiane, P.C. Smits, "Weighted multi-resolution phase unwrapping method", Proc.EUROPTO- The European Symposium on Remote Sensing, Barcelona, Spain, 21-25 September 1998, SPIE Vol.3497, pp. 146-154; [11] G. Bo, S. Dellepiane, G. Beneventano, “A locally adaptive approach for interferometric phase noise reduction”, Proc. IGARSS ’99, 28 June-2 July 1999, Hamburg, Germany pp.264-266; [12] S. Dellepiane, G. Bo, P.C. Smits, “Multi-resolution phase model reconstruction for phase unwrapping”, Proc. IGARSS ’99, 28 June-2 July 1999, Hamburg, Germany, pp. 2395-2397. 9 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale 1.2 Il telerilevamento per il monitoraggio dell'ambiente costiero: identificazione della linea di costa su immagini telerilevate mediante analisi di tessitura e analisi del contesto spaziale 1.2.1 Introduzione La gestione delle aree costiere richiede un approccio continuo, integrato ed iterativo. Si stima che il 60% della popolazione mondiale viva nelle vicinanze delle coste e di conseguenza è proprio in queste zone che si registrano serie alterazioni ambientali dovute ad uno sviluppo incontrollato e ad uno sfruttamento delle risorse costiere spesso insostenibile. In particolare, l’ampliamento delle aree urbane e l’espansione delle attività umane possono causare inquinamento, instabilità idrogeologica e cambiamenti nei normali meccanismi di trasporto solido. In aggiunta a questi problemi, si deve prestare attenzione ai possibili effetti sulle aree costiere causati da eventuali alterazioni climatiche. E’ chiaro, quindi, come le aree costiere rappresentino sistemi altamente dinamici, spesso sfruttati ai limiti delle possibilità, ed è altresì evidente che la loro gestione deve essere basata su una profonda conoscenza del sistema costiero e delle forze che agiscono su di esso. Negli ultimi anni si è osservato un crescente interesse per sistemi informatici, automatici o semiautomatici, che fungano da ausilio nella difficile operazione di elaborazione dei dati costieri. In particolare, la conoscenza accurata della posizione e dello sviluppo del litorale è di fondamentale importanza in svariate applicazioni quali la cartografia, la navigazione autonoma, la localizzazione di imbarcazioni e, non ultimo, il monitoraggio della geomorfologia costiera. Dato tale contesto, nel corso del primo anno di Dottorato si era studiato il problema della individuazione del litorale in immagini telerilevate. La soluzione preliminare proposta prevedeva l’applicazione di un algoritmo in grado di sfruttare l’informazione contestuale spaziale, che è sempre presente nei dati telerilevati. Nella prima versione del metodo veniva calcolata una mappa di connettività a partire da un punto dell’immagine selezionato dall’utente e considerando la distanza da esso di tutti gli altri punti dell’immagine, in termini di livello di grigio e distanza topologica. Dalla mappa di connettività era possibile estrarre, tramite semplice sogliatura, la linea di costa cercata. I risultati ottenuti elaborando diverse tipologie di dati hanno chiaramente dimostrato che è possibile individuare correttamente il litorale unicamente se la porzione di immagine corrispondente alla superficie del mare è caratterizzata da un livello di grigio omogeneo. Se nell’immagine sono presenti sorgenti di non omogeneità, si possono verificare errori e il risultato risulta non affidabile. Questo accade in particolare quando si elaborano immagini SAR (Synthetic Aperture Radar), a causa del rumore di speckle e della eventuale presenza di vento sulla superficie del mare. Per risolvere tali problemi si è implementata una versione dell’algoritmo più flessibile, in grado di sfruttare informazioni legate alla tessitura, invece dei soli livelli di grigio, per calcolare la mappa di connettività. Operando in questo modo è possibile considerare la variabilità spaziale dei dati come una sorgente di informazione, ottenendo risultati decisamente migliori. In interferometria la conoscenza relativa alla linea di costa può essere integrata nel processo di srotolamento delle fasi, allo scopo di migliorarne il risultato. La metodologia sviluppata è stata quindi applicata anche a immagini interferometriche, per valutarne l’efficacia su tale tipologia di dati. 1.2.2 Il metodo proposto Il processo di elaborazione può essere suddiviso in due passi principali: 1 una pre-elaborazione dell’immagine in ingresso, che ha come obiettivo il calcolo della matrice di co-occorrenza e la stima di diverse misure (feature) di tessitura; 10 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo 2 Relazione Finale una segmentazione dell’immagine in analisi, basata sull’applicazione del concetto di connettività sia ai dati in ingresso sia alle mappe di tessitura ottenute al passo precedente. Durante il primo passo una finestra di analisi viene fatta scorrere su tutta l’immagine e centrata su ogni pixel. Le dimensioni della finestra sono variabili e devono essere selezionate dall’utente in modo che la finestra stessa contenga un numero di pixel sufficienti a caratterizzare la tessitura in esame. Quindi si calcola la matrice di co-occorrenza per tutti i punti nell’immagine, considerando la distribuzione dei livelli di grigio e la loro disposizione spaziale nel contesto definito dalla finestra di analisi. La matrice di co-occorrenza è quadrata e di dimensioni pari al numero di livelli di grigio considerati; i suoi elementi possono essere interpretati come la frequenza relativa con cui due pixel, separati da una certa distanza d e lungo una direzione fissa θ , si presentano nella finestra di calcolo, rispettivamente con livelli di grigio i e j. L’informazione sulle tessiture presenti nei dati può essere rappresentata tramite un insieme ridotto di misure stimate come combinazione degli elementi nella matrice di cooccorrenza: sum_average, variance, energy, contrast. A queste si aggiunge la media della varianza campione, calcolata sui dati originali rilassando la condizione di indipendenza dei campioni nell’immagine. E’ utile per la caratterizzazione delle micro-tessiture che possono essere presenti nei dati. Ciò che si ottiene, in pratica, è un insieme di “immagini di tessitura” a livelli di grigio, ciascuna delle quali rappresenta una descrizione simbolica dell’immagine in analisi rispetto ad una specifica misura di tessitura: in linea di principio, un’area nell’immagine originale che risulti caratterizzata da una particolare tessitura dovrebbe apparire omogenea in una o più delle immagini di tessitura precedentemente calcolate. Una volta che le feature di tessitura sono state stimate per tutti i punti nell’immagine, si può procedere con l’estrazione di mappe di connettività sia dall’immagine originale a livelli di grigio sia da ognuna delle immagini di tessitura. In questo modo è possibile tener conto di quanto una regione connessa presente nell’immagine appaia omogenea rispetto ad un certo parametro. Dal momento che un’immagine può presentare diversi livelli di tessiturazione, è stata implementata una versione pesata della mappa di connettività che combina l’informazione sui livelli di grigio e quella sulla tessitura tramite pesi opportuni. Questi ultimi attualmente sono selezionati dall’utente e mantengono lo stesso valore per tutti i pixel dell’immagine. Una versione futura dell’algoritmo sarà in grado di valutare i pesi adattivamente e automaticamente, in funzione delle statistiche locali dei livelli di grigio nell’immagine. Analogamente, la versione attuale del metodo coinvolge nel calcolo della connettività una sola misura di tessitura per volta. In uno sviluppo futuro sarà possibile sfruttare l’informazione contenuta in tutto l’insieme di immagini di tessitura, o in un sottoinsieme di esse. Alla fine di tutto il procedimento, una volta che la mappa di connettività finale è stata calcolata, una semplice sogliatura interattiva permette l’identificazione della soglia migliore per l’estrazione della linea di costa. 1.2.3 Risultati Sperimentali Allo scopo di valutare le prestazioni della tecnica sviluppata, l’algoritmo è stato applicato a diverse tipologie di immagini telerilevate. In particolare, sono state utilizzate una immagine nel visibile acquisita dal satellite LANDSAT, una ripresa aerea e una immagine SAR. In Fig. 4, a destra, viene mostrato il risultato ottenuto elaborando una immagine LANDSAT relativa ad una costa molto frastagliata. In questo caso il punto seme è stato selezionato nell’area scura in basso a destra e si è utilizzata solamente l’informazione legata ai livelli di grigio. Il litorale estratto è molto accurato, a causa principalmente dell’alto contrasto fra terra ferma e superficie del mare e grazie all’elevata omogeneità di quest’ultima. In questo caso è possibile apprezzare la capacità del metodo di estrarre anche i dettagli più fini della linea di costa. 11 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale Figura 4: Immagine LANDSAT originale (a sinistra) e linea di costa estratta (a destra). La Fig.5 riguarda l’elaborazione di una ripresa aerea acquisita tramite una telecamera digitale ad alta risoluzione. In questo caso la scelta di un punto seme nella parte in alto a destra dell’immagine, sempre corrispondente alla superficie marina, non è adatta. Il risultato (Fig.5, nel centro) mostra chiaramente una errata localizzazione del litorale, principalmente a causa della scarsa omogeneità della superficie del mare in questo tipo di dati. D’altra parte, si può ottenere un risultato estremamente accurato scegliendo un punto seme appartenente alla spiaggia (Fig.5, a destra). Figura 5: Elaborazione di una immagine aerea. Immagine originale (a sinistra), risultato ottenuto posizionando il punto seme nella parte di immagine corrispondente al mare (al centro), linea di costa estratta quando il punto iniziale appartiene alla spiaggia (a destra). Fino ad ora sono stati presentati e discussi risultati molto accurati. Ma se si prova ad elaborare una immagine SAR sfruttando come unica sorgente di informazione i livelli di grigio presenti nei dati, insorgono molti problemi e la linea di costa estratta appare poco accurata e molto rumorosa (Fig.6, a destra). Gli effetti del rumore di speckle sono chiaramente visibili: benché il confine fra terra ferma e mare sia stato identificato grossolanamente, il suo esatto sviluppo non può essere ottenuto. Inoltre è necessario sottolineare che ad un cambiamento della posizione del punto seme corrisponde un risultato sempre diverso: in altri termini, l’algoritmo non è robusto rispetto alle condizioni iniziali. 12 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale Figura 6: Elaborazione di dati SAR considerando unicamente l’informazione associata ai livelli di grigio. Immagine originale (a sinistra) e linea di costa estratta (a destra). In Fig.7, a sinistra, viene mostrato il risultato ottenuto integrando nella catena di elaborazione l’estrazione delle misure di tessitura. I miglioramenti sono evidenti. Lo sviluppo della linea di costa appare continuo, meno frastagliato e non rumoroso. Durante questo esperimento è stata utilizzata la misura sum_average per caratterizzare la tessitura: gli effetti di smoothing introdotti dal calcolo di tale misura si possono notare sotto forma di un arrotondamento del litorale. L’analisi è stata effettuata su una finestra 3x3 e i livelli di grigio nell’immagine sono stati raggruppati in 64 bins con l’obiettivo di ridurre il peso computazionale. A scopo comparativo, in Fig.7 sulla destra è mostrata la linea di costa estratta coinvolgendo i filtri di Gabor per la caratterizzazione della tessitura: possono essere osservati molti errori nella determinazione del litorale. Figura 7: Litorale individuato sfruttando l’informazione sulle tessiture presenti nell’immagine. Per la stima dei parametri di tessitura si sono utilizzate la matrice di co-occorrenza (a sinistra) e i filtri di Gabor (a destra). Un leggero spostamento della costa individuata rispetto alla sua reale posizione nell’immagine può essere osservato in entrambe le immagini di Fig.7. Probabilmente questo effetto è causato da problemi di calcolo che si verificano durante la stima dei parametri di tessitura in prossimità delle discontinuità presenti nei dati. Ulteriori esperimenti avranno lo scopo di chiarire tale fenomeno. 13 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale Sono stati effettuati svariati test per la valutazione della robustezza dell’algoritmo. L’accuratezza del risultato ma anche il tempo necessario per ottenerlo crescono considerevolmente all'aumentare del numero di bins in cui sono suddivisi i livelli di grigio. E’ necessario quindi stabilire un compromesso tra affidabilità e complessità computazionale. Da un altro punto di vista è opportuno sottolineare che il metodo è indifferente alle diverse localizzazioni del punto seme, il che significa che l’utente può scegliere in maniera quasi casuale il punto iniziale ottenendo in ogni caso un buon risultato. Un’altra serie di esperimenti è stata condotta su dati SAR interferometrici, allo scopo di verificare l’applicabilità del metodo anche su tale tipo di immagini. Il set di dati selezionato è relativo all’area geografica corrispondente alla città di Tarragona, Capo Salou e il porto di Aventura. La regione considerata ha una estensione di 16*16 Km, non presenta discontinuità rilevanti e l’elevazione del suolo varia fra 0 e 175 metri. Considerando la sola immagine di intensità, il risultato preliminare in Fig.8 a sinistra è stato ottenuto applicando il parametro sum_average, con una finestra di analisi di 9x9 pixel ed un numero di bins pari a 32. L’informazione di tessitura e di livello di grigio sono state pesate rispettivamente 0,7 e 0,3. Il punto seme è stato posizionato in corrispondenza del mare, nella parte in basso a sinistra dell’immagine. Il risultato presentato è il migliore fra tutti quelli ottenuti ed è evidentemente caratterizzato da imprecisioni rilevanti. L’immagine in Fig.8 a destra rappresenta il risultato ottenuto applicando il metodo all’immagine di coerenza dell’area di interesse. E’ stato utilizzato il parametro sum_variance con una finestra di 13x11 pixel, 32 bins e pesi 0,4 e 0,6 rispettivamente per informazione di tessitura e livello di grigio. Il risultato può essere considerato migliore rispetto a quello ottenuto elaborando l’immagine di intensità ma non è comunque ottimale. In questo caso l’algoritmo è in grado di ricostruire grossolanamente l’andamento della linea di costa ma sono ancora presenti alcuni errori dovuti alla presenza di disomogeneità nella zona dell’immagine corrispondente al mare. Se si considera ora l’interferogramma non filtrato, l’algoritmo produce un risultato non rilevante e, a causa del rumore presente, non è in grado di ricostruire lo sviluppo reale del litorale (Fig.9, a sinistra). In questo caso è stato utilizzato il parametro variance, con una finestra di analisi di 13x11 pixel e pesi 0,8 e 0,2 per tessitura e livello di grigio rispettivamente. Il numero di bins è pari a 32. Infine l’immagine in Fig.9, a destra, rappresenta il risultato ottenuto nel tentativo di estrarre la linea di costa da un interferogramma filtrato. Il risultato in questo caso può essere considerato soddisfacente e l’algoritmo riesce ad individuare correttamente il tracciato del litorale. Il parametro di tessitura selezionato in questo caso è stato diff_entropy, con una finestra di analisi di 13x11 pixel, 32 bins e tenendo conto della sola informazione di tessitura (peso 1,0). Figura 8: Litorale individuato applicando il metodo proposto a dati SAR interferometrici. Immagine di intensità SAR (a sinistra) e mappa di coerenza (a destra). 14 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale Figura 9: Litorale individuato applicando il metodo proposto a dati SAR interferometrici. Interferogramma non filtrato (a sinistra) e interferogramma filtrato (a destra). L’importanza di questo ultimo esperimento risiede nel fatto che l’informazione relativa alla linea di costa può essere utilizzata per determinare con maggiore precisione il dominio di applicazione del metodo discusso precedentemente per lo srotolamento delle fasi (phaseunwrapping) mediante soluzione di un problema ai minimi quadrati. Invece di considerare un dominio quadrato corrispondente al bordo dell’immagine, si può pensare di definire una regione di forma più complessa che tenga conto della presenza della superficie marina. Tale approccio per il phase unwrapping dovrebbe permettere una migliore ricostruzione della DEM e garantire un risultato più affidabile. 1.2.4 Bibliografia [1] D. Durand et al., “Characterization of Inland and Coastal Waters with Space Sensors” - A study for the Centre for Earth Observation (CEO), 1999; [2] A. Rosenfeld, "Connectivity in digital pictures", Journal of Ass. Computer Machine, Vol 17-1, pp. 146-160, 1970; [3] S. Dellepiane, F. Fontana, G. Vernazza, "Nonlinear Image Labelling for Multivalued Segmentation", IEEE Transaction on Image Processing, Vol 5-3, pp. 429-446, 1996; [4] S. Dellepiane, "Contextual Approaches for Detail-Preserving Processing of Remote Sensing images", in Information Processing for Remote Sensing, C.H.Chen Ed., World Scientific Pub. Co. Sept. 1999, pp.471-485; [5] R. De Laurentiis, G. Bo, S. Dellepiane, A. Del Grosso, "Remote Sensing and Coastal Monitoring: methods and applications", Proc. International Conference on Monitoring and Control of Marine and Harbour Structures, 1-4 June 1999, Genoa, Italy,(in press); [6] G. Bo, S. Dellepiane, R. De Laurentiis, "Semiautomatic Coastline Detection in Remotely Sensed Images", in Proceedings International Geoscience and remote-sensing symposium (IGARSS 2000), Honolulu, 24-28 July 2000, pp. 1869-1871; [7] R.N. Haralick, K. Shanmugan, I. Dinstein, "Textural features for image classification", IEEE Transactions on Systems, Man and Cybernetics, Vol. 3-6, pp.610-621, 1973; [8] F.T.Ulaby, F. Kouyate, B. Brisco, "Texture information in SAR images", IEEE Transactions on Geoscience and Remote Sensing, Vol 24-2, pp. 235-345, 1986; [9] A. Baraldi, F. Parmigiani, "An Investigation of the Textural Characteristics Associated with Gray Level Cooccurrence Matrix Statistical Parameters", IEEE Transactions on Geoscience and Remote Sensing, Vol. 33-2, pp. 293-304, 1995; [10] R. Vaccaro, S. Dellepiane, "First and Second Order statistics under the sample dependence hypothesis", Internal Report, 1996; [11] A.K. Jain, F. Farrokhnia, "Unsupervised texture segmentation using Gabor filters", Pattern Recognition, Vol. 24-12, pp. 1167-1186, 1991; [12] R.O.Duda, P.E.Hart, “Pattern Classification and Scene Analysis”, John Wiley and Sons, New York, 1973; [13] K. Fukunaga, “Introduction to Statistical Pattern Recognition”, Academic Press, 2nd edition, New York, 1990. 15 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale 1.3 Valutazione dei danni da alluvione tramite interferometria SAR 1.3.1 Introduzione Le aree urbane o coltivate e, più in generale, tutte le attività umane subiscono danni considerevoli quando piogge particolarmente intense colpiscono una certa area geografica, talvolta causando anche la perdita di vite umane. Le alluvioni rappresentano un problema rilevante poiché la maggior parte delle aree edificate e le zone dove si concentrano le attività produttive si trovano in territorio alluvionale. Quando una emergenza di questo tipo si verifica, è essenziale poter disporre di una visione d'insieme del fenomeno per programmare rapidamente gli interventi di assistenza. Inoltre, dopo che le acque si sono ritirate, è necessario per le autorità competenti e per le compagnie assicurative poter stimare con precisione i danni subiti dalla zona colpita e, di conseguenza, l'ammontare dei risarcimenti. Da un altro punto di vista, una mappa dettagliata dell'evento calamitoso è utile per creare un modello idrogeologico che serva da punto di partenza per pianificare interventi di gestione del territorio che possano ridurre il rischio di un nuovo disastro nel futuro. Grazie alla disponibilità di una considerevole quantità di dati telerilevati ed ai recenti sviluppi nel campo dell'elaborazione delle immagini, il telerilevamento può essere considerato un mezzo efficace per il monitoraggio ambientale ed in particolare per la valutazione dei danni da alluvione. Fra tutti i sensori che potrebbero essere utilizzati, il Radar ad Apertura Sintetica (SAR) sembra essere lo strumento più adatto per acquisire informazioni su un'esondazione, in particolar modo se la tecnica interferometrica viene applicata per l'elaborazione dei dati. In generale, per mostrare le aree allagate, si potrebbe pensare di utilizzare un approccio multi-temporale basato sull'intensità retrodiffusa. In pratica, si acquisiscono diverse immagini SAR della stessa area in tempi diversi e si costruisce con esse una immagine composita a colori (RGB), assegnandole opportunamente ai canali rosso (R), verde (G) e blu (B). Se una delle riprese, che si assume come riferimento, mostra la situazione prima dell'alluvione allora l'immagine RGB risultante dovrebbe rivelare i cambiamenti che si sono verificati sulla superficie terrestre nel lasso di tempo considerato. In molti casi, purtroppo, l'intensità retrodiffusa dall'acqua, normalmente bassa, risulta inadeguata per l'individuazione di una zona allagata. Infatti, l'aumento di intensità causato dalla presenza di vento sulla superficie di un specchio acqueo spesso non permette di distinguere le aree allagate dalle acque normalmente presenti (fiumi, laghi), nonchè entrambe dallo sfondo. 1.3.2 Descrizione dell'approccio proposto e risultati ottenuti L'interferometria SAR fornisce una sorgente aggiuntiva di informazione adatta alla caratterizzazione delle diverse categorie di terreno presenti in una scena: la correlazione interferometrica o coerenza. Formalmente la coerenza si definisce a partire da una coppia di immagini SAR della stessa area, riprese da due angolazioni leggermente differenti, mediante la seguente eq.ne: γ = * E[V1V2 ] E[| V1 | 2 ]E[| V2 | 2 ] [5] dove V1 e V2 sono le due immagini SAR complesse, E[ ] rappresenta il valore atteso (in pratica si approssima con una media campionata) e * è il complesso coniugato. Grazie alla sua sensibilità ai cambiamenti della superficie terrestre, la coerenza è utile per la segmentazione delle immagini e per il riconoscimento di caratteristiche geomorfologiche e 16 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale idrologiche. E' quindi possibile effettuare una classificazione basata sia su una stima del valore di correlazione sia sull'aumento di decorrelazione temporale dovuta a cambiamenti morfologici e variazioni della costante dielettrica del suolo (congelamento, siccità). Il sistema adottato per descrivere la superficie terrestre è una variante del metodo di classificazione proposto in (Anderson et al., 1976) e applicato in (Ulaby, Dobson, 1989). Tale modello è stato completato integrando l'intensità di backscatter con l'informazione estraibile dalla coerenza interferometrica, sulla base delle analisi presentate in (Wegmuller, Werner, 1995) e (Wegmuller, Werner, 1997). Inoltre si è resa necessaria una variante a questo schema di classificazione, poiché lo scopo del presente lavoro non è una generica classificazione ma piuttosto l'identificazione delle zone alluvionate e la loro separazione da aree abitualmente occupate da acqua o comunque non allagate. Per la valutazione dell'approccio si sono utilizzati dati relativi all'alluvione causata dal fiume YangTze, in Cina, nell'estate del 1998. Il dataset è composto da coppie interferometriche di immagini SAR acquisite dai satelliti ERS-1 e ERS-2 nell'estate del 1993, nel dicembre 1995 e durante l'alluvione. A partire da questi dati sono state stimate diverse feature: differenza fra le coerenze relative a periodi diversi, la coerenza nel 1995, la coerenza nel 1998, la differenza fra le intensità di backscatter, le intensità di backscatter nel 1995 e nel 1998. Ogni feature è stata associata ad un canale (R, G o B) di una immagine a colori RGB, provando combinazioni differenti. In questo modo è stata possibile una interpretazione visiva ed intuitiva del contenuto informativo dei dati ed una semplice identificazione delle zone allagate. Dopo numerosi test, si può concludere che le combinazioni di feature che comprendono l'informazione sulla coerenza sono le più efficaci per evidenziare nelle immagini le aree invase dalle acque. Inizialmente si è utilizzata la combinazione differenza_di_coerenza / coerenza98 / coerenza95. In questo modo le acque libere, le acque dell'alluvione e le aree coperte da vegetazione sparsa sono ben separate, mentre le classi corrispondenti alla foresta e all'acqua normalmente presente appaiono sovrapposte così come le classi relative alla foresta, alle aree urbane ed alla vegetazione sparsa. Allo scopo di aumentare la separabilità fra classi, è stata considerata la combinazione differenza_di_coerenza / intensità95 / coerenza98. In questo caso tutte le classi risultano ben separate fra di loro. In conclusione, si può affermare che le scelte di parametri che includono la coerenza interferometrica in un approccio multitemporale risultano essere le più efficaci per evidenziare le aree allagate. E' da preferire una combinazione di parametri misti, in cui sia presente anche l'intensità di backscatter nel periodo di riferimento, quando è necessario separare fra di loro anche le altre classi presenti nelle immagini. Nelle Figure 10 e 11 sono raffigurate le immagini RGB corrispondenti ad alcune scelte di parametri. a) b) Figura 10: Immagini RGB corrispondenti ad alcune scelte di parametri. Combinazione coerenza/intensità/cambiamento_intensità, rispettivamente nel 1995 (a) e nel 1998 (b). Dati acquisiti durante le missioni Tandem 29/30.12.1995 e 31.7/1.8.1998. 17 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo a) Relazione Finale b) Figura 11: Immagini RGB corrispondenti ad alcune scelte di parametri. Rispettivamente combinazioni differenza_di_coerenza/coerenza98/coerenza95 (a) e differenza_di_coerenza/intensità95/coerenza98 (b). In (b) le aree alluvionate sono evidenziate in giallo-arancio. Dati acquisiti durante le missioni Tandem 29/30.12.1995 e 31.7/1.8.1998. 1.3.3 Valutazione quantitativa dei risultati Un ulteriore, importante, obiettivo della ricerca è stato la validazione dei risultati ottenuti con la classificazione visiva, in modo da caratterizzare quantitativamente il diverso comportamento del metodo rispetto all'intensità di backscatter e alla correlazione interferometrica. Una prima valutazione semiquantitativa della separabilità e della compattezza delle varie classi è stata realizzata visualizzando in uno spazio tridimensionale, tramite vettori di tre feature, un certo numero di campioni appartenenti a ciascuna delle cinque classi scelte per l'analisi: aree allagate, acque libere, aree caratterizzate da vegetazione sparsa, foreste e centri urbani. In Fig. 12 sono rappresentati i grafici relativi a due differenti combinazioni di parametri: differenza_di_intensità / intensità98 / intensità93 (Fig. 12, a sinistra) e differenza_di_coerenza / intensità95 / intensità98 (Fig. 12, a destra). Nel primo caso le classi sono completamente sovrapposte e non è possibile estrarre le zone allagate e le acque libere dallo sfondo. Al contrario, sfruttando la scelta di parametri multitemporale mista (intensità-coerenza), i campioni sono ben raggruppati e le due classi di interesse sono ben separate fra di loro e rispetto alle altre. Figura 12: Rappresentazione grafica delle classi nello spazio delle feature utilizzando i parametri multitemporali di intensità (1993-1998) (sinistra) ed i parametri multitemporali misti (intensità-coerenza, 1995-1998) (destra). 18 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale Per valutare numericamente la compattezza di ogni classe e l'efficacia di un certo set di parametri nell'assicurare la separabilità di una certa classe dalle altre, sono stati utilizzati due tipi di distanze nello spazio delle feature: interset e intraset. La prima è definita come la media di tutte le possibili distanze fra coppie di campioni appartenenti a due classi differenti: S= 1 M 1M 2 M1 M 2 ∑∑ d i =1 j =1 2 (1) y , i y (j2) [6] dove M1 ed M2 rappresentano il numero di campioni in ogni classe, d è la distanza euclidea,e yk(l) è il vettore dei parametri del campione k-esimo della classe l. La distanza intraset è invece definita come la media di tutte le possibili distanze fra campioni appartenenti alla stessa classe: 1 Rl = M l (M l − 1) Ml Ml ∑∑ d i =1 j =1 2 (l ) y , i y (jl ) [7] dove l si riferisce alla classe in analisi. Per garantire una buona separabilità tra due determinate classi S deve essere massimizzata e R minimizzata. Generalmente le suddette condizioni possono essere riassunte attraverso un fattore di qualità così definito: Q( x) = R1 + R 2 S [8] In Tab. 2 sono rappresentati i valori di Q calcolati scegliendo differenti combinazioni di classi e di feature. Il valore di Q più basso, che permette di distinguere le aree alluvionate dalle altre classi, è quello ottenuto utilizzando il set multitemporale basato sulla sola coerenza . D’altra parte con questa scelta Q assume un valore troppo alto per la coppia acqua/foresta. Quindi, dal momento che le acque devono essere distinte dalle aree non allagate, è confermato che l’opzione migliore è il set multitemporale misto (intensitàcoerenza). Q area allagata/acqua libera area allagata/veg. Sparsa area allagata/foresta area allagata/area urbana acqua libera/veg. Sparsa acqua libera/foresta acqua libera/area urbana foresta/veg. Sparsa area urbana/foresta area urbana/veg. Sparsa ∆I, I 95, I 98 0,4752 1,9513 1,9663 2,1041 0,5029 0,6027 0,4944 1,9739 1,9157 1,8567 ∆γ, γ95, γ98 0,2281 0,4340 0,5706 0,7667 0,5996 5,7987 0,6222 1,9584 1,8253 1,7662 ∆γ, I 95, γ98 0,3454 0,5118 1,0361 0,7944 0,4796 1,1043 0,4949 1,5744 1,7774 1,5361 ∆I’, I 93, I 98 1,5564 1,7111 1,8408 1,7012 1,3506 1,5703 1,3839 1,3433 1,2284 2,0465 Tabella 2: Valori di Q calcolati scegliendo differenti coppie di classi e combinazioni di feature. I rappresenta l’intensità di backscatter mentre γ è la mappa di coerenza ad una certa data. 19 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale 1.3.4 Bibliografia [1] [2] [3] [4] [5] [6] [7] [8] [9] C.Prati, F.Rocca, A.Monti Guarnieri, P.Pasquali, “Report on ERS-1 SAR interferometric techniques and applications”, ESA study contract report no. 3-7439/92/HE-I; A.H.Zebker, J. Villasenor, “Decorrelation in Interferometric Radar Echoes”, IEEE Trans. On Geoscience and Remote Sensing, Vol. 30-5, September 1992, pp. 950-959; J.R.Anderson, E.E.Hardy, J.T.Roach, R.E.Witmer, “A Land Use and Land Cover Classification System for Use with Remote Sensor Data”, U.S. Geological Survey and Professional Paper 964,1976; F.T.Ulaby, M.C. Dobson, Handbook of Radar Scattering Statistics for Terrain, Artech House, 1989; U.Wegmuller, C.Werner, “SAR Interferometric Signatures of Forest”, IEEE Trans. On Geoscience and Remote Sensing, Vol. 33-5, September 1995, pp. 1153-1161; U.Wegmuller, C.Werner, “Retrieval of Vegetation Parameters with SAR Interferometry”, IEEE Trans. On Geoscience and Remote Sensing, Vol. 35-1, January 1997, pp. 18-24; P.C.Smits, S.G.Dellepiane, “Synthetic Aperture Radar Image Segmentation by a Detail Preserving Markov Random Field Approach”, IEEE Trans. On Geoscience and Remote Sensing, Vol. 35-4, July 1997, pp. 844-857; S. Dellepiane, S. Monni, G. Bo, G. Buck, “Flood damage assessment using SAR Interferometry: a quantitative evaluation of results”, Proc. Fringe 99, second Int. Work.on ERS SAR Interferometry, Nov. 1999, (in press); S. Dellepiane, G. Bo, S. Monni, C.Buck, “SAR images and Interferometric Coherence for Flood Monitoring”, Proc. International Geoscience and remote-sensing symposium (IGARSS 2000), Honolulu, July 2000, pp. 2608-2610. 20 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale 1.4 Impiego dell’interferometria differenziale per il monitoraggio di movimenti del suolo su media e grande scala 1.4.1 Introduzione Le condizioni ambientali riflettono, in ogni momento, non solo l’influenza dell’uomo ma anche quei processi e fenomeni naturali che possono causare cambiamenti indipendentemente dalla presenza di insediamenti o attività umane. La lunga storia dell’evoluzione della Terra, ed in particolare della biosfera, è segnata da alterazioni ambientali che hanno ora ridotto ora aumentato l’abitabilità del pianeta. Inoltre, a parte le fonti di disturbo ovviamente legate all’uomo (presenza di insediamenti urbani, estrazione mineraria, deforestazione, ecc.), risulta spesso molto difficile distinguere gli effetti delle azioni umane dai processi naturali “di fondo”. Premesso ciò, al fine di seguire l’evoluzione dell’ambiente, è necessario identificare dei parametri, o geoindicatori, che descrivano adeguatamente i cambiamenti in atto e dei protocolli procedurali idonei al loro monitoraggio. In questo contesto si colloca anche lo studio delle frane e la loro prevenzione. I movimenti franosi causano ogni anno migliaia di vittime e la stima mondiale dei danni provocati dalle frane si aggira intorno a svariate decine di miliardi di dollari l’anno, considerando che innumerevoli smottamenti di piccole o medie dimensioni impongono alla società costi paragonabili, se non maggiori, dei più infrequenti movimenti catastrofici. Inoltre, i danni all’ecosistema non sono generalmente documentati ma le frane possono distruggere completamente un habitat, per esempio alterando il corso di un fiume o denudando un pendio. 1.4.2 Il problema I metodi classici per l’osservazione degli innalzamenti ed abbassamenti del suolo e delle conseguenti fratture prevedono rilevamenti convenzionali mediante l’installazione di vari strumenti in superficie e nel sottosuolo, per la misura diretta del movimento e delle deformazioni in corso, nonché di clinometri per la registrazione delle variazioni di inclinazione in prossimità di rotture e zone con grandi spostamenti verticali. L’uso di fotografie aeree e di immagini satellitari, unitamente ad un sistema informativo geografico, consentono lo studio di fenomeni di grande estensione attraverso l’osservazione dei cambiamenti nel suolo e nella vegetazione. La frequenza con cui le misure devono essere effettuate è fortemente condizionata dalla velocità con cui le fratture e le deformazioni del terreno si propagano e dal danno potenziale che la caduta di una frana potrebbe provocare. Ad esempio, aree urbane o industriali caratterizzate da movimenti rapidi, quindi ad alto rischio, richiedono un monitoraggio continuo, mentre zone dove i movimenti del suolo avvengono su tempi più lunghi possono essere esaminate meno frequentemente. Purtroppo i fattori che influenzano la stabilità di un pendio sono numerosi e spesso molto complessi, ed il solo monitoraggio delle fratture può fornire poca informazione quando si abbia a che fare con situazioni territoriali particolari. In questo contesto, sono stati avviati con la Provincia di Genova ed il Dipartimento di Ingegneria Strutturale e Geotecnica dell’Università di Genova per l’allestimento di un esperimento finalizzato al controllo e al monitoraggio di movimenti differenziali su frane di grande estensione. L’obiettivo principale della ricerca è la valutazione mediante Interferometria Differenziale SAR dei movimenti del suolo su media o grande scala in aree notoriamente caratterizzate da un elevato rischio di frane. Tale metodo prevede la combinazione delle informazioni contenute in una sequenza temporale di immagini acquisite con un sensore radar ad apertura sintetica al fine di individuare variazioni di elevazione con una precisione molto elevata. 21 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale 1.4.3 L’Interferometria Differenziale SAR L’interferometria SAR, come già accennato nei paragrafi precedenti, è una tecnica che permette la ricostruzione dello sviluppo tridimensionale della superficie terrestre tramite l’analisi delle fasi del segnale radar considerate come una fonte aggiuntiva di informazioni derivata dal dato SAR complesso. Sfruttando una coppia di immagini SAR della stessa area e riprese da angolazioni leggermente differenti, è possibile generare un modello di elevazione del terreno estremamente accurato. Lo schema di elaborazione dei dati con l’approccio interferometrico prevede: (1) registrazione delle immagini complesse, (2) formazione dell’interferogramma, cioè di una immagine di differenze di fase caratterizzata da un tipico disegno “a frange”, (3) phase-unwrapping per la soluzione delle ambiguità di fase, (4) ricostruzione del modello di elevazione. Un interferometro SAR per la misura della topografia può essere implementato in due modi differenti. Nel caso di interferometria singlepass, il sistema è configurato in modo da acquisire simultaneamente le due immagini tramite una coppia di antenne opportunamente disposte sullo stesso satellite. Alternativamente, con l’approccio repeat-track, le due immagini vengono acquisite da una singola antenna in tempi differenti e sfruttando orbite successive. In altre parole, la coerenza fra le fasi dei segnali riflessi dai vari elementi di superficie può essere utilizzata per misurare con grande precisione le posizioni relative di tali elementi. Gli elementi superficiali nelle due immagini appariranno spostati fra di loro come risultato di due diversi effetti: 1. un effetto “stereoscopico” dovuto alle piccole differenze nelle geometrie di acquisizione e alle differenze di elevazione degli elementi di superficie; 2. un reale movimento di una porzione di superficie nel tempo intercorso fra le due acquisizioni, quando viene utilizzata la configurazione repeat-track. Quando i movimenti della superficie sono trascurabili (per esempio se si usa l’interferometria single-pass), l’effetto stereoscopico può essere sfruttato per estrarre informazione topologica relativa alla porzione di territorio in analisi. L’accuratezza verticale nella stima dell’elevazione dipende dalla separazione fisica fra le antenne riceventi (baseline), dalla lunghezza d’onda del radar e dai disturbi sul segnale ricevuto. Al contrario, quando sono presenti movimenti del terreno, lo spostamento lungo la linea di vista del sensore può essere misurato con una precisione nell’ordine di frazioni della lunghezza d’onda utilizzata (millimetri), indipendentemente dalla baseline. Tale misura risulta essere molto più precisa di quella ottenibile con tecniche alternative, che tipicamente sono limitate dalla dimensione del singolo elemento di superficie (decine di metri). Una delle più interessanti e promettenti applicazioni dell’interferometria radar si realizza calcolando la differenza fra due interferogrammi della stessa zona e relativi a periodi diversi, generando quello che viene chiamato “interferogramma differenziale”. La tecnica, in generale, si basa sulla produzione di due interferogrammi a partire da tre immagini SAR. Il primo, utilizzato come riferimento, contiene solamente informazione relativa alla topografia del terreno mentre le frange nel secondo sono dovute anche agli spostamenti relativi della superficie sotto osservazione. Differenziando le due immagini interferometriche, la topografia può essere rimossa evidenziando così i contributi di fase dovuti ai movimenti. Come riferimento può anche essere utilizzato un modello di elevazione digitale ottenuto con una tecnica diversa; con questa variante è necessario un solo interferogramma. Infine, le correzioni rispetto alla topografia non sono necessarie se si considera una coppia di immagini SAR caratterizzate da una baseline molto corta (dell’ordine di pochi metri). In tali condizioni le frange nell’interferogramma sono esclusivamente dovute a spostamenti verticali verificatisi fra le due riprese e l’accuratezza teorica nella determinazione della deformazione è senza precedenti: alcuni millimetri. Sono state proposte molte applicazioni per la tecnica descritta: monitoraggio della subsidenza e delle frane, analisi dei movimenti dei ghiacciai e osservazione delle alterazioni superficiali indotte dai terremoti. Nel caso specifico delle frane, è stato possibile stimare velocità di movimento nell’ordine di 1 centimetro al giorno. 22 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale 1.4.4 I siti pilota e i dati SAR disponibili Nel corso di svariati colloqui con i responsabili degli uffici competenti presso la Provincia di Genova sono state individuate alcune aree campione che, secondo i vigenti criteri per la definizione delle zone a rischio, risultano caratterizzate da un elevato rischio di frana. La prima area di interesse si trova in Val d’Aveto. Su questa zona sono disponibili molte informazioni che vanno da misure in situ del movimento effettivo fino a dati pluviometrici, questi ultimi indispensabili per una corretta identificazione delle immagini SAR che devono essere acquistate per procedere alla sperimentazione. Inoltre si tratta di un’area abbastanza estesa, il che dovrebbe favorire la possibilità di individuare sull’interferogramma le porzioni di territorio in movimento. Una seconda area di studio riguarda il territorio in Comune di S.Olcese, nell’entroterra di Genova, sulla quale sono state individuate alcune zone caratterizzate da un elevato rischio di frana. In questo secondo caso è disponibile una minore quantità di dati “ancillari”, il che pone alcuni vincoli aggiuntivi rispetto al problema del reperimento dei dati radar. Pertanto si è convenuto di iniziare l’analisi facendo riferimento al caso di S. Stefano d’Aveto. Va comunque sottolineato che, data la grande dimensione delle immagini SAR, entrambe le zone di interesse sono comprese nei dati acquistati. Come già evidenziato in precedenza, i dati utilizzabili con la tecnica interferometrica sono immagini acquisite da sensori SAR come quelli installati a bordo dei satelliti ERS-1 ed ERS-2 dell’Agenzia Spaziale Europea (ESA). I due satelliti ERS hanno la stessa strumentazione a bordo e la struttura delle loro orbite ha permesso l’effettuazione di rilevamenti Tandem, cioè l’acquisizione dei dati relativi ad una stessa regione a distanza di 1 solo giorno. Quest’ultima tipologia di missione è stata possibile dal 1995 al 1999, cioè fino a quando il satellite ERS-1 è stato in funzione. Anche senza questo satellite l’interferometria può comunque essere applicata a coppie di immagini del solo ERS-2, a distanza di 35 o più giorni, o con coppie di immagini variamente assortite di ERS-1 ed ERS-2. Per la ricerca dei dati effettivamente disponibili, relativi all’area considerata e nel periodo di interesse, è stato utilizzato il software DESCW – Display Earth remote sensing Swath Coverage for Windows. DESCW è un pacchetto software che permette la ricerca dei dati più idonei ad un particolare studio mediante una analisi di tutte le acquisizioni disponibili. La ricerca si realizza attraverso l’uso di una mappa geografica di riferimento e dei dati relativi alle orbite dei satelliti. Mediante l’inserimento dei parametri di latitudine e longitudine è anche possibile selezionare aree di interesse di qualunque dimensione. Nel caso particolare dello studio in corso si sono cercate coppie di immagini SAR, selezionano le missioni ERS 1-2, caratterizzate da una baseline inferiore ai 100 metri e le eventuali coppie tandem della zona desiderata. A complemento di questa ricerca e prima di effettuare l’ordine dei dati, è stato necessario analizzare i dati pluviometrici relativi alla zona di interesse in modo che la selezione delle immagini SAR potesse essere fatta tenendo conto dell’effetto che la pioggia può avere sul parametro “coerenza”, molto importante per uno studio che ha come obiettivo la rilevazione di spostamenti fisici del terreno. I dati selezionati, in totale sei immagini, coprono un periodo che va dal 1995 al 1999. Con le immagini disponibili è stato possibile generare svariate coppie interferometriche, caratterizzate da baseline temporali e spaziali diverse. I dettagli sono riassunti in Fig. 13, in cui il primo parametro indicato è la distanza temporale (baseline temporale) fra due acquisizioni [misurata in giorni] e il secondo è la distanza perpendicolare fra le due orbite (baseline spaziale) [in metri]. Vi sono numerose altre coppie di immagini della zona considerata che permettono di applicare la tecnica dell’interferometria differenziale. Si sono trovate anche coppie, rilevate a distanza di più di 400 giorni e con una baseline spaziale di 2, 3 o 4 metri, che permetterebbero la accurata rilevazione di spostamenti del suolo tramite l’analisi di un singolo interferogramma. 23 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale Figura 13: Tabella riassuntiva delle immagini acquisite ed utilizzate per la sperimentazione 1.4.5 Risultati preliminari ottenuti Nel corso della sperimentazione, le immagini acquisite sono state elaborate combinandole in vario modo allo scopo di individuare la combinazione migliore che permette di identificare gli spostamenti. Sono state applicate sia la tecnica interferometrica classica, utile per la generazione di mappe di elevazione digitale (DEM – Digital Elevation Maps) dell’area di interesse, sia la versione differenziale del metodo al fine di osservare eventuali variazioni di elevazione. In Fig. 14-a è possibile osservare la mappa di elevazione ottenuta elaborando con la tecnica interferometrica una coppia di immagini radar della zona di S. Stefano d’Aveto. A scopo comparativo, in Fig.14-b è rappresentata una mappa della stessa zona ottenuta vettorializzando e successivamente visualizzando un insieme di dati puntuali messi a disposizione dalla Provincia di Genova. E’ possibile osservare facilmente, sebbene le proiezioni siano differenti, come le due rappresentazioni presentino un elevato grado di corrispondenza. Infine, in Fig. 14-c è rappresentato un interferogramma differenziale ottenuto elaborando due coppie di immagini acquisite in tempi diversi (DInSAR 4-pass). Si notano molte frange residue anche se, allo stato attuale della ricerca, risulta difficoltoso stabilire con certezza se tali frange corrispondono ad un effettivo movimento del suolo o non siano piuttosto dovute ad errori di elaborazione. Ulteriori studi saranno necessari per chiarire in maniera inequivocabile questo punto. 1.4.6 Conclusioni Il problema affrontato presenta non poche difficoltà di soluzione poiché la qualità delle immagini interferometriche dipende da innumerevoli fattori: la geometria di acquisizione dei dati SAR di partenza, la coerenza fra i dati, il periodo di acquisizione, la presenza di vegetazione nella regione d’interesse, la morfologia del territorio. Inoltre l’elaborazione dei dati iniziali risulta estremamente complessa e, in particolare, la necessità di impostare manualmente un vasto insieme di parametri fa si che la tecnica interferometrica risulti di difficile utilizzo per utenti non esperti. I risultati preliminari presentati e gli sviluppi della metodologia attualmente in corso consentono comunque di ritenere che esistono i presupposti concreti per un uso applicativo dell’interferometria radar nell’ambito della mappatura della superficie terrestre e del monitoraggio dei suoi movimenti. Ulteriori ricerche avranno come obiettivo finale una completa e approfondita valutazione qualitativa e quantitativa dei risultati ottenibili, allo scopo di rendere una realtà l’utilizzo quotidiano ed operativo delle tecniche descritte. 24 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale b a c Figura 14: a) DEM dell'area di interesse ottenuta tramite Interferometria SAR; b) DEM della stessa area ottenuta vettorializzando un insieme di misure puntuali; c) Interferogramma differenziale ottenuto con tecnica DInSAR a 4 passi. 1.4.7 Bibliografia [1] [2] [3] [4] Gens R., Van Genderen, “Review Article: SAR Interferometry – Issues, Techniques, Applications”, Int. J. Remote Sensing, Vol. 17-10, 1996, pp. 1803-1835; Gabriel A.K., Goldstein R.M., Zebker H.A., “Monitoring small elevation changes over large areas:Differential radar interferometry”, Journal of Geophysical Research, Vol. 94 (B7), 1989, pp. 9183-9191; Wegmuller U, Strozzi T., Bitelli G., “Validation of ERS Differential SAR interferometry for Land subsidence mapping: the Bologna Case study”, Proc. IGARSS ‘99, Hamburg, Germany, 1999; Refice A., Bovenga F., Wasowski J., Guerriero L., “Use of InSAR data for landslides monitoring: a case study from southern Italy”, IEEE, 2000, pp. 2504-2506. 25 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale 1.5 Estrazione di feature per l’indicizzazione di database di immagini telerilevate 1.5.1 Introduzione L’aumento del volume di dati telerilevati disponibili pone grossi problemi dal punto di vista della loro archiviazione e dell’accessibilità da parte dei potenziali utenti. Attualmente la gestione di immagini da satellite prevede l’immagazzinamento in database centralizzati (ESA, Eurimage, ecc.) in cui la fase di recupero di un dato specifico è pilotata mediante “chiavi di ricerca” o indici basati su informazioni quali il tipo di sensore, la data di acquisizione o le coordinate geografiche. Molto più utile ed efficace sarebbe una ricerca basata sul contenuto dell’immagine, in maniera tale da poter definire query del tipo: “tutte le immagini acquisite dal satellite LANDSAT e contenenti una città”. Negli ultimi anni molti sforzi sono stati dedicati alla definizione di strategie content based per il recupero di informazioni da database di immagini. In genere tali tecniche si basano su una “rappresentazione logica” di alto livello di ogni singola immagine contenuta nell’archivio. La rappresentazione logica è costituita da un insieme di informazioni estratte da ogni singola immagine secondo uno schema prestabilito. L’indicizzazione dei dati può essere effettuata utilizzando chiavi multidimensionali che fanno riferimento a tale informazione o a parte di essa, in base alla specifica query. Evidentemente la rappresentazione logica è particolarmente sensibile al tipo di dati presenti nell’archivio e allo specifico contesto operativo. Proiettando i concetti esposti nell’ambito dei dati telerilevati, scopo della ricerca, condotta in collaborazione con l’Ing. Michele Bruzzo del Dipartimento di Ingegneria Biofisica ed Elettronica (Università di Genova), è stato uno studio di fattibilità volto alla definizione di un insieme di descrittori (colore, forma, tessitura) che rappresentino adeguatamente il contenuto informativo dell’immagine, dato un certo tipo di dati (SAR, AVHRR, METEOSAT) ed un determinato contesto applicativo. A partire, quindi, dalla necessità di poter disporre di “database intelligenti” che siano in grado di gestire e catalogare in modo automatico l’informazione naturalmente presente nei dati, l’attività principale è stata l’ideazione e implementazione metodi idonei per l’estrazione e la gestione del contenuto informativo dell’immagine sulla base di semplici tecniche per l’elaborazione e l’analisi di immagini. Lo sviluppo concreto delle metodologie è stato preceduto da uno studio accurato ed approfondito delle proprietà dei dati da archiviare. Infatti, affinchè l’informazione estratta sia utile per la costruzione di una rappresentazione significativa dell’immagine telerilevata, è necessario considerare svariati fattori quali per esempio le caratteristiche del sensore, la scala o la risoluzione del dato finale. Il risultato finale della ricerca è il prototipo di un DBMS (Database Management System), chiamato Kingfisher, per la gestione intelligente di archivi di dati telerilevati. Tra le svariate funzionalità messe a disposizione dal sistema, una risulta particolarmente interessante: la possibilità di interrogare il database tramite immagini di esempio. In pratica l’utente fornisce una immagine rappresentativa della propria query e il sistema procede nella ricerca delle immagini più simili sulla base di opportuni criteri selezionati dall’utente stesso. Kingfisher costruisce una rappresentazione logica dell’immagine applicando dapprima tecniche di segmentazione per la localizzazione degli “oggetti” significativi (scomposizione dell’immagine in regioni omogenee) e successivamente estraendo informazioni relative alle caratteristiche locali e globali dell’immagine, quali per esempio parametr di colore,forma e tessitura. In altri termini, la rappresentazione logica è un modello semantico che memorizza i descrittori di ogni elemento significativo presente nell’immagine telerilevata. Per esempio, nel caso delle immagini SAR, elementi come fiumi, laghi, campi coltivati, infrastrutture create dall’uomo possono essere agevolmente ed automaticamente localizzati e analizzati. Un concetto analogo può essere espresso, nel caso di un archivio di immagini METEOSAT, per quanto riguarda tipi di nuvole, cellule temporalesche o fronti perturbati. 26 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale Il sistema opera integrando i descrittori ricavati durante la fase di analisi con i meta-data contenuti nell’immagine stessa. Tale scelta permette di aumentare le prestazioni di recupero, ma soprattutto permette a Kingfisher di trattare le immagini in maniera adattiva a seconda delle specifiche contenute nei meta-data (risoluzione, tipo di acquisizione, polarizzazione ecc.). Attualmente si stanno valutando le prestazioni e l’efficacia dell’approccio descritto su due archivi di immagini telerilevate. Il primo è costituito da una collezione di circa cento immagini SAR (99 quick-look X-SAR), mentre il secondo contiene un insieme di 722 immagini METEOSAT (722 immagini su 3 canali fornite da EumetSat). I risultati preliminari dimostrano che il sistema, oltre ad essere particolarmente semplice e user-friendly, riesce ad effettuare recuperi significativii rispetto alle esigenze dell’utente. 1.5.2 Metodologia La realizzazione del sistema si è sviluppata attorno a due problematiche principali: l’individuazione di un set di descrittori efficaci (content based retrieval) e l’organizzazione dei dati. Inoltre è stato necessario individuare il migliore insieme di meta-data utilizzabili come indici discreti per la catalogazione. A causa della grande eterogeneità dei dati telerilevati disponibili e della grande varietà di possibili applicazioni pratiche, il sistema è stato concepito in modo tale da garantire un’alta flessibilità rispetto ai requisiti imposti dalle singole applicazioni. Il risultato, mostrato in Fig. 15, è un’architettura di sistema che realizza la descrizione numerica delle immagini calibrata sulle caratteristiche peculiare dei dati di interesse. Fase di Popolazione Fase di recupero Segmentazione Parametri di cablatura off-line Meta data Estraz. descrittori Indice Indicizzazione Schema di Rappr. Confronto Immagini recuperate Database di imm. Descrizione logica Figura 15: Architettura di gestione, basata sul contenuto, di database di immagini telerilevate. Il cuore di questa architettura è il modulo che realizza lo schema di rappresentazione delle immagini: la descrizione avviene sia in termini di contenuto (metodi numerici e tecniche contestuali: estrazione descrittori, segmentazione) sia in termini di indici che classificano l’immagine (meta-data: posizione geografica, data di acquisizione, sensore di acquisizione, informazioni sul satellite etc.) (Vaccaro, 1997). La fase di estrazione dei descrittori e la modalità con cui descrittori e indici sono amalgamati per formare la rappresentazione numerica dell’immagine sono customizzabili sulla base di opportuni parametri. L’impostazione di tali parametri permette di calibrare il sistema di archiviazione in base alle caratteristiche delle immagini da catalogare. 27 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale Per rappresentare le caratteristiche fondamentali di un’immagine il sistema calcola dei descrittori, detti di “basso livello”, tra i quali il colore la forma e la tessitura (Smits, 1997) (vedere Tab. 3). Per poter trattare in modo più appropriato la complessità delle immagini, vengono usati algoritmi che permettono l’individuazione di regioni omogenee all’interno della scena in esame (aggregazione di pixel con caratteristiche omogenee) come fiumi, laghi, tipi di nuvole ecc. L’obbiettivo raggiunto da questa elaborazione è localizzare gli oggetti significativi in una immagine e rappresentarne il contenuto in termini di descrittori di basso livello (colore, forma, tessitura locale). Purtroppo gli algoritmi di segmentazione sono fortemente dipendenti dal tipo di immagine in analisi e spesso richiedono la validazione dei risultati attraverso strumenti di editing. Per questo motivo si sono implementati due algoritmi di segmentazione (multithresholding, split&merge) e altri sono allo studio. Descrittori geometrici Descrittori di colore Descrittori di Tessitura Momenti invarianti Istogramma colore Luv Matrice di Co-Occorrenza ridotto a 1D Descrittori di Fourier Istogramma colore 3D Gabor Wavelets Luv(locale e globale) Grado di elongazione Colore medio Analisi frattale Rappresentazione polare Distribuzione del colore Auto-correlazione spaziale Tabella 3: Insieme dei descrittori usati per la rappresentazione logica dell'immagine. Allo stato attuale della nostra ricerca, l’attenzione è stata rivolta essenzialmente all’analisi e archiviazione dei dati acquisiti dal satellite meteorologico METEOSAT. Nella prossima sezione verranno descritti i principali requisiti che il sistema deve avere per gestire efficacemente archivi di immagini METEOSAT. 1.5.3 Gestione di un archivio di immagini METEOSAT Le immagini METEOSAT vengono acquisite e memorizzate a 8 bit su tre bande spettrali diverse: VS (visibile: 0.5-0.9 µm), WV (vapor acqueo: 5.7-7.1 µm) e IR (infrarosso: 10.5-12.5 µm). I canali ad infrarosso e vapor acqueo sono costituiti da una matrice di 2500x2500 pixel che ricopre l’intero disco terrestre, mentre per il visibile si ha una matrice 5000x5000 pixel. Questo implica che nel primo caso la risoluzione è pari a 2.5 x 2.5 Km, mentre nel secondo è 5 x 5 Km. Le immagini METEOSAT forniscono molte informazioni, sia se esaminate singolarmente sia combinandole fra di loro. A partire da queste considerazioni, dopo aver effettuato un sottocampionamento dell’immagine nel visibile per ottenere la stessa risoluzione in tutte le riprese, si sono combinate le tre immagini a livelli di grigio in una unica a colori in formato RGB (Fig. 16, sinistra). La combinazione delle immagini è avvenuta sulla base del seguente schema: • • • Il canale del rosso (RED) è stato associato all’immagine nell’infrarosso; Nel canale verde (GREEN) è stata posta l’immagine nel visibile; Nel canale blu (BLUE) si è memorizzata l’immagine nel vapor acqueo. Tale combinazione è stata scelta arbitrariamente, ma permette di memorizzare una sola immagine ed avere a disposizione le informazioni delle tre bande in forma compatta. 28 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale Figura 16: Immagine RGB del 01/01/’99 (sinistra) e maschera utilizzata da Meteo-KingFisher (destra) Per permettere una ricerca più raffinata, si è deciso di suddividere l’immagine in 25 aree. Ciò è stato possibile mediante la creazione di una maschera delle stesse dimensioni dell’immagine, ma suddivisa in 25 quadrati di dimensioni 125x125 pixel ciascuno (Fig. 16, destra). Ad ogni riquadro della maschera è stato associato un livello di grigio che va da 10 a 250, secondo multipli di 10.Questo particolare tipo di maschera permette di “far capire” al sistema che devono essere considerati 25 oggetti separati, e permette di implementare interrogazioni del database sulla base dell’informazione locale presente nei dati. In realtà ogni quadrato della maschera in non corrisponde ad una porzione di superficie terrestre sempre delle stesse dimensioni, in quanto non si è tenuto presente della forma quasi sferica della Terra e delle conseguenti deformazioni geometriche sull’immagine. E’ possibile porre rimedio a questa imprecisione semplicemente applicando una opportuna conversione delle coordinate geografiche e partendo dal presupposto che le coordinate dei quattro punti A,B, C e D che delimitano le immagini del nostro database (Fig. 16, destra)sono note a priori: point A = 27.0 N, 9.3 W point B = 27.2 N, 20.3 E point C = 67.2 N, 61.9 E point D = 76.1 N, 41.9 W Allo scopo di adattare KingFisher al particolare tipo di dati considerato, le immagini vengono elaborate per individuare le varie tipologie di nubi presenti nella scena (Jain, 1988) (Fig. 17), e per stimare la mappa termica. Figura 17: Partizionamento dello spazio delle feature proposto dal Bureau of Meteorology 29 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale Inoltre per ogni immagine vengono estratti gli istogrammi delle 3 bande. L’informazione che si ottiene in questo caso non rappresenta alcuno schema di classificazione e per questo motivo risulta molto utile per risolvere delle query di similarità secondi criteri più generici. Il programma è stato testato con 730 immagini per ogni banda disponibile. Sono state utilizzate tutte le immagini dell’anno 1999, acquisite alle 11.30 e alle 15.30 UTC. A causa della scarsa illuminazione solare presente nei mesi invernali, in alcune immagini risulta particolarmente evidente la componente rossa già nelle prime ore del pomeriggio (Fig. 16, sinistra). Questo fa sì che in fase di recupero il sistema riconosca come più simili immagini prese a distanza di un giorno alla stessa ora, piuttosto che quelle dello stesso giorno, ma ad orari diversi. Una volta che il database è stato popolato con uno o più elementi, è possibile passare alla fase di recupero delle immagini. A tal fine è stata sviluppata un’interfaccia apposita, che permette di scegliere tra vari descrittori, selezionabili singolarmente o in modo combinato. A questo punto è possibile procedere in due modi: 1. eseguire le query impostando i valori di ricerca nelle aree editabili, cioè impostando le percentuali dei parametri da ricercare (temperatura media, percentuale di nuvolosità bassa…) 2. fornire un’immagine campione in ingresso e utilizzarla come termine di paragone nelle ricerche. Utilizzando i menu disponibili è possibile effettuare query che tengano conto di feature relative al colore, sia in scala RGB che LUV, analizzare la texture, le forme e le dimensioni degli oggetti. Tra le query disponibili, merita particolare attenzione quella che individua il tipo di nuvolosità simile a quella presente nell’immagine campione. Infatti, il risultato di questo genere di interrogazione valuta la similitudine tra immagini sulla base degli istogrammi relativi alle tre bande. In questo modo si ottiene un recupero indipendente da schemi precostituiti di classificazione e quindi più robusto, nel senso che non dipende da alcun parametro stabilito a priori. 1.5.4 Risultati Sperimentali I criteri che sono stati tenuti in considerazione durante la fase di test e validazione dell’intero sistema riguardano sia l’accuratezza dei risultati ottenuti durante le interrogazioni del database, sia il tempo necessario per ottenerli. Entrambi questi fattori risultano essere fondamentali per rendere accettabile all’utente un sistema di questo tipo. Come già accennato, il sistema implementato è stato testato su un database di 730 immagini, di 625x625 pixel ciascuna su 3 canali di acquisizione, per una dimensione totale di 1146KB ognuna. I risultati sono stati ottenuti elaborando i dati con un Personal Computer dotato di un processore Pentium III a 766 MHz con 256 MB di memoria RAM. La prima osservazione possibile è che la grandezza delle immagini limita notevolmente la velocità del sistema, in quanto richiede un tempo computazionale dell’ordine di alcuni minuti. Nel seguito verranno prese in esame le varie fasi di gestione dei dati e verrà specificato per ognuna di esse il tempo impiegato per arrivare al termine. Come primo criterio di validazione dei risultati ottenuti, è stato preso in considerazione il tempo di elaborazione dei dati e successivamente il tempo di risposta del sistema. Questa scelta è motivata dal fatto che l’applicazione realizzata assume particolare importanza se in grado di offrire un servizio di tipo “real time”, cioè se è in grado di estrarre e gestire informazioni in tempi estremamente ridotti. Nel grafico di Fig. 18 sono rappresentati i tempi richiesti da alcune operazioni fondamentali per il corretto funzionamento di MeteoKingFisher: • Fase di popolazione: volendo popolare il database con 10 contemporaneamente il tempo impiegato è stato di circa 300 secondi. immagini 30 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo • • Relazione Finale Fase di valutazione dell’immagine campione: il tempo stimato in questa fase è di circa 60 secondi. Fase di recupero delle immagini: si può notare che la velocità di recupero è dell’ordine del secondo. Questo risultato è particolarmente significativo, soprattutto considerando le possibili applicazioni su web che potrebbero essere implementate sulla base dei risultati del presente lavoro. secondi 300 300 POPOLAZIONE 200 VALUTAZIONE 100 60 2 RECUPERO 0 Figura 18: Tempi registrati per le varie operazioni di gestione del database. Inoltre è stato possibile valutare le prestazioni del sistema in termini di capacità di recupero di immagini realmente significative rispetto alle esigenze dell’utente. Nel nostro caso le immagini recuperate e visualizzate sullo schermo sono dieci. Il database di training è costituito da un insieme di dati suddiviso in classi con proprietà note a priori, ciascuna rappresentata da un insieme di istanze. Utilizzando in modo esaustivo le immagini del database di training durante la fase di interrogazione è stato possibile stimare i parametri medi di Recall, Precision ed Exact Match per ciascuna classe (Fig. 19). 1 Precis ion Recall 0,5 0 Te mp Nu .m ed ia v.b as Nu sa v.a lta Pe rc. nu v Figura 19: Prestazioni di recupero registrate per le varie tipologie di query. 1.5.5 Bibliografia [1] [2] [3] A.K. Jain, R. Dubes, “Algorithms for clustering data”, Prentice-Hall, 1988; P.C.Smits, R. Vaccaro, S. Dellepiane, “Automated hierarchical classification of SAR images”, International Geoscience and Remote Sensing Symposium IGARSS ’97. R.Vaccaro, F. Fontana, D. Silva, V. Pellegrini, “Content based image retrieval in database System”. Proceedings of the European Multimedia, Microprocessor System and Electronic Conference (EMMSEC), 1997, pp. 537-544. 31 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale 1.6 Valutazione della qualità dell’informazione geospaziale estratta da dati telerilevati 1.6.1 Introduzione Il mercato europeo dell’informazione geografica e dei prodotti che si basano su informazione geografica si sta attualmente sviluppando molto più lentamente rispetto ai corrispondenti mercati negli Stati Uniti, in Giappone e persino in altri paesi dell’area asiatica. Per portare un esempio, solamente due compagnie in Europa hanno un ruolo di rilievo nel mercato dei database stradali digitali: la Navigation Technologies in Best, Paesi Bassi, e TeleAtlas che si trova a Gent, in Belgio. Tra le ragioni di tale scenario si possono includere la mancanza di layers cartografici digitali con una diffusione sufficiente da permettere lo sviluppo di nuovi prodotti e i costi che sarebbe comunque necessario sostenere per la creazione e l’aggiornamento di tali layers. In passato la maggior richiesta di prodotti cartografici di alta qualità proveniva essenzialmente dagli Enti Governativi, soprattutto a causa del numero limitato di applicazioni non militari e dei costi elevati. Più recentemente, grazie anche alle sinergie venutesi a creare fra telecomunicazioni, tecnologie dell’informazione e sistemi di navigazione, il mercato “civile” ha ricevuto un nuovo impulso e l’interesse per dati cartografici fondamentali come reti stradali e ferroviarie, reti idriche e sviluppo costiero è progressivamente aumentato in relazione alla crescente diffusione di applicazioni commerciali che su di essi si basano. In altri termini, queste nuove applicazioni contribuiscono a rendere più pressante la necessità di mappe digitali dettagliate, estremamente accurate e aggiornate. Fino a questo momento, il telerilevamento non ha contribuito significativamente a supportare il mercato della cartografia digitale per due ragioni principali: 1. i dati satellitari disponibili hanno una risoluzione spaziale troppo grossolana per poter soddisfare i requisiti stringenti imposti dalle Agenzie Cartografiche Nazionali e tipici della topografia tradizionale; 2. lo sviluppo di nuove tecniche produttive orientate all’utente e la loro integrazione nel processo di produzione dell’informazione geografica non vanno di pari passo con le possibilità offerte dalla tecnologia esistente. Sebbene il primo vincolo possa essere superato grazie ai sensori satellitari di nuova generazione, caratterizzati da risoluzioni sempre più elevate, attualmente il valore aggiunto dato dalle immagini telerilevate alla produzione cartografica si limita a mappe in cui comunque le infrastrutture sono disegnate a mano. Pertanto emerge chiaramente la necessità di disporre di tools orientati all’utente in grado di estrarre informazione di elevata qualità da immagini satellitari ad alta risoluzione, in modo automatico o semi-automatico. Riassumendo, gli aspetti chiave che influenzano la minore o maggiore diffusione nell’uso di dati telerilevati in cartografia sono: la politica di distribuzione dei dati, il costo dei dati, la qualità dei dati e dell’informazione estratta, la standardizzazione. 1.6.2 Metodo proposto per la valutazione della qualità Tenendo conto del contesto sopra delineato, si è deciso di concentrare l’attenzione sul problema della qualità dell’informazione estratta da dati telerilevati. Tale scelta è motivata da due ragioni principali. Innanzitutto la possibilità di valutare la qualità dell’informazione è strettamente legata al valore economico dei dati telerilevati stessi e dei prodotti sviluppati per la loro analisi. Una elevata qualità rappresenta il fattore discriminante per la fattibilità di molte applicazioni e inoltre la misurabilità della qualità offerta da una applicazione giustifica il suo valore sul mercato e ne aumenta la competitività. Da un altro punto di vista, più legato al 32 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale mondo della ricerca, la possibilità di avere uno o più criteri per stimare in maniera univoca la qualità di feature estratte da immagini telerilevate è di fondamentale importanza per valutare l’efficacia e la reale applicabilità di una metodologia specifica di analisi. La situazione attuale per quanto riguarda la qualità dell’informazione geospaziale può essere riassunta nei seguenti punti: • • • • • non esiste un concetto di qualità dell’informazione spaziale universalmente accettato; la qualità dei set di dati spaziali è spesso sconosciuta; la qualità all’interno di un singolo set di dati non è necessariamente omogenea; la mancanza di informazioni relative alla qualità può rappresentare un ostacolo per le applicazioni; le caratteristiche delle nuove immagini satellitari sono largamente inesplorate. In questo ambito e con particolare riferimento a elementi “lineari” eventualmente presenti nelle immagini, quali strade, canalizzazioni e litorali, obiettivo della mia ricerca, svolta in collaborazione con il Dott. Paul Smits del Joint Research Centre di Ispra, è stato la definizione di un protocollo semplice e generalizzabile per il calcolo di misure di affidabilità da associare agli elementi estratti dai dati. Dal momento che risulta estremamente complesso, se non impossibile, fornire una misura assoluta direttamente sui dati, si è pensato di ricorrere ad un confronto delle feature estratte con le corrispondenti informazioni vettorializzate contenute in un Sistema Informativo Geografico preesistente. In altri termini, si ricorre ad una fonte di conoscenza a priori certificata e con caratteristiche note. In pratica, l’approccio proposto prevede una elaborazione in diversi passi: 1. preparazione dei dati satellitari (registrazione geometrica, ecc.); 2. definizione del tipo di “struttura lineare” d’interesse, allo scopo di selezionare valori appropriati per i parametri; 3. estrazione delle strutture dai dati mediante opportuno operatore; 4. calcolo di una mappa di verosimiglianza ([0,1]) per le strutture di interesse nell’immagine; 5. conversione della poli-linea di interesse dal formato vettoriale del GIS a formato binario ({0,1}); 6. calcolo della correlazione bidimensionale tra dato vettoriale binarizzato e mappa di verosimiglianza. Come “case study” si è deciso di verificare, mediante la metodologia descritta, l’accuratezza spaziale di un set di dati vettoriali utilizzando immagini satellitari multispettrali. L’obiettivo di questo esempio è ottenere una misura dell’accuratezza spaziale dei dati vettoriali rispetto al dato immagine. Gli esperimenti preliminari effettuati applicando il metodo proposto all’estrazione di reti stradali in immagini LANDSAT hanno portato a risultati confortanti che confermano l’efficacia dell’approccio. Nel concreto, i passi sono: 1. Preparazione dei dati satellitari: l’immagine satellitare e l’insieme di dati vettoriali devono trovarsi nello stesso sistema di proiezione geometrica. L’immagine deve essere geo-rettificata tramite opportuni GCP (Ground Control Points). La Figura 21-a mostra le bande 1, 2 e 3 di una immagine ETM+ della regione di Hasselt, Belgio, dopo la rettificazione geometrica. L’errore RMS della geo-rettificazione è circa 0.2 pixels; 2. Scelta della struttura lineare d’interesse: l’utente deve avere le idee chiare rispetto al tipo di struttura lineare che vuole estrarre. Ovviamente, la struttura deve essere visibile nell’immagine in analisi. Nel caso specifico si è deciso di studiare la rete stradale. 3. Mappa di verosimiglianza per la struttura lineare prescelta: l’obiettivo del calcolo della mappa di verosimiglianza è quello di ottenere una matrice di valori in [0,1], dove 1 corrisponde a “presenza probabile della feature lineare” e 0 a “ presenza improbabile 33 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale della feature lineare “. La verosimiglianza si stima per ogni punto dell’immagine mediante il metodo proposto in [8], una variante del “road operator” proposto da Duda. L’immagine viene elaborata con svariate finestre mobili, una per ogni direzione di interesse. La Fig. 20 mostra l’operatore in grado di individuare segmenti orizzontali di spessore fissato. b 1 b2 b3 b4 b 5 b 6 b 7 y a 1 a2 a3 a4 a5 a 6 a7 c1 c2 c3 c4 c5 c6 c7 x Figura 20: “Road operator” modificato L’elaborazione avviene in due passi. Con il primo, per un certo pixel nell’immagine, vengono calcolati i parametri ai, bi e ci. Nel secondo passo, viene calcolata una funzione di costo che tiene in considerazione l’omogeneità fra le “a” e il contrasto fra “a” e “b”, nonchè fra “a” e “c”: Score = G ( a1 − a 2 )× G ( a 2 − a3 )× G ( a3 − a 4 )× G ( a 4 − a5 )× G ( a5 − a 6 )× G ( a 6 − a 7 ) 7 7 max ∑ F (ai − bi ), ∑ F (ai − ci ) i =1 i =1 [9] L’equazione precedente rappresenta la somma dei punteggi per ogni direzione di interesse e per ogni banda. 4. Conversione in formato binario della polilinea vettoriale d’interesse: prima di procedere al calcolo della correlazione è necessario convertire i dati vettoriali in formato binario raster. La figura 21-d mostra una porzione di strada convertita. E’ importante tenere a mente due problemi. Innazitutto, la dimensione dei pixel risultanti deve essere uguale a quella dei pixel nell’immagine. Inoltre, idealmente la larghezza del segmento di strada dovrebbe corrispondere alla larghezza reale. 5. Calcolo della correlazione bidimensionale fra dato vettoriale e mappa di verosimiglianza: il valore del coefficiente di correlazione è una misura dell’acuratezza dell’informazione. La posizione del massimo fornisce informazioni sullo scostamento della sezione di strada. Va sottolineato che il metodo presentato è illustrativo e alcuni dei problemi incontrati potevano facilmente essere previsti. Ad esempio, se nell’immagine e nel database vettoriale sono presenti molti segmenti paralleli è probabile che la misura di qualità risultante non sia stabile. Inoltre è importante una stima corretta dei parametri rilevanti, quali ad esempio la larghezza della strada e la risoluzione dell’immagine. Inoltre, è necessario considerare che la misura di qualità proposta è una quantità relativa. La correlazione fra immagine e dati vettoriali può essere bassa anche se dal punto di vista visivo sembra esserci buona corrispondenza fra i due. Nel caso delle immagini ETM+ è possibile ottenere soddisfacenti risultati con strade, canali e fiumi. Ulteriori ricerche sono necessarie per verificare l'effettiva utilizzabilità e generalizzabilità delle misure che, fino ad ora, sono state ottenute per un contesto applicativo specifico. 34 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale Inoltre, dovrà essere valutata la possibilità di sfruttare misure di accuratezza diverse dalla correlazione bidimensionale. Il concetto più importante che emerge dal nostro lavoro può essere sintetizzato nel modo seguente: per progettare e realizzare un sistema per lo sfruttamento commerciale dei dati telerilevati e dell’informazione da essi estratta è necessario sviluppare una metodologia robusta ed affidabile per la valutazione della qualità dell’informazione stessa. a b c d Maximum correlation: g = 0.178 Displacement of middle of polyline section: X-direction 1.5 pixel Y-direction 1 pixel e Figura.21: Descrizione dell’approccio: (a) rettificazione geometrica dell’immagine satellitare. Sono mostrate le bande 1, 2 and 3 di una immagine ETM+, (b) selezione delle strutture da analizzare, (c) mappa di verosimiglianza estratta da immagine ETM+, (d and e) dati vettoriali convertiti a binary raster. 35 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale L'algoritmo per l'estrazione del litorale precedentemente descritto nella presente relazione ha già fornito ottimi risultati, dal punto di vista qualitativo. Per una verifica della reale applicabilità pratica del metodo è comunque necessario procedere ad una valutazione quantitativa, allo scopo di testare l'accuratezza e l'affidabilità dell'informazione estratta. In tal senso, l'approccio appena descritto per la stima della qualità dell'informazione geospaziale potrebbe essere proficuamente sfruttato. Test quantitativi potrebbero essere effettuati su immagini con caratteristiche diverse, allo scopo di verificare l'efficacia delle feature di tessitura utilizzate. 1.6.3 Sistemi per l’Elaborazione, Gestione e Diffusione di Informazione Telerilevata Per svariati decenni la ricerca nell’ambito del telerilevamento è stata orientata prevalentemente all’individuazione delle strategie migliori e degli algoritmi più efficienti per il trattamento dei dati telerilevati (satellitari ed aerei) e l’estrazione di informazioni utili. Le metodologie sembrano ormai aver raggiunto un livello di sviluppo tale da giustificare un uso applicativo concreto del telerilevamento nella pratica lavorativa quotidiana di coloro che si occupano di gestione e monitoraggio del territorio, di prevenzione dei disastri naturali, di produzione cartografica, ecc. Contrariamente a quanto ci si potrebbe aspettare, però, il mercato dei dati telerilevati stenta a svilupparsi. Le ragioni possono essere riassunte in quattro punti principali: • • • • L’uso delle immagini telerilevate comporta costi molto elevati per l’utente finale Esiste una sostanziale diffidenza da parte dell’utente potenziale nei confronti di tali dati rispetto all’uso delle tecniche tradizionali L’accesso al dato e alle informazioni relative risulta complesso e dispendioso in termini di tempo Anche qualora il dato fosse disponibile, la sua analisi risulta complessa e richiede comunque specifiche competenze Buona parte di tali limiti potrebbe essere superata facendo ricorso a sistemi integrati complessi che, a partire dal dato grezzo, siano in grado di estrarre e distribuire informazioni di alto livello su specifica richiesta dell’utente. In Fig. 22 è riportata la rappresentazione schematica di una proposta per un sistema di questo genere e delle funzionalità principali che dovrebbe mettere a disposizione. Prodotti Cartacei: •Mappe •Atlanti •Stampe • …….. Database di Immagini Database di Informazioni Cartografia Prodotti Software: Estrazione ed Integrazione di Informazioni: •Image Processing •Data Fusion •Superimposition •Layers Presentazione: •2D, 3D •Navigabile •Dinamica •CD-ROM •GIS •Downloadable clients Servizi Web: •Analisi “on Demand” •Accesso a database distribuiti •Servizi catastali •Distribuzione di informazionii (HTML, XML, SVG) •E-learning Servizi Mobili: •Wap •Palm Top •Wearable PC •UMTS • …… Figura 22: Rappresentazione schematica di un ipotetico sistema integrato per l’elaborazione, gestione e distribuzione di dati telerilevati e dell’informazione da essi estratta. 36 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale Organizzato sulla base di una architettura three-tier, il sistema dovrebbe integrare le più moderne tecnologie per la gestione e distribuzione dell’informazione, con particolare attenzione all’implementazione degli standard emergenti nell’ambito dei Sistemi Informativi Geografici (OpenGIS). Inoltre, l’utilizzo del linguaggio XML (Extended Markup Language) dovrebbe garantire l’interoperabilità e la comunicazione di sistemi distribuiti sul territorio e connessi attraverso Internet o, all’interno di singole organizzazioni, tramite Intranet adeguate. Infine, un sistema così concepito offrirebbe la possibilità di accedere all’informazione tramite dispositivi di output estremamente diversificati, da un comune PC ad un ricevitore UMTS. L’utente avrà la possibilità di navigare layer informativi precedentemente archiviati in databse dedicati, oppure potrà richiedere una particolare elaborazione che verrà eseguita in remoto su opportuni server (tecnologia ASP, server JAVA). Nel caso particolare dei servizi Web, oltre allo sviluppo di portali dedicati, devono essere previste due strategie alternative per garantire all’utente l’accesso ai dati: • • Browser Web per utenti non abituali Downloadable Client per utenti abituali Dovranno inoltre essere previsti opportuni oggetti software, chiamati “Conflation Server”, dedicati alla combinazione di informazioni di natura diversa allo scopo di creare, sempre su richiesta dell’utente, nuovi layer informativi in grado di soddisfare una specifica esigenza. Per fare un esempio, si supponga di dover pianificare la deviazione del traffico veicolare durante una alluvione. Il piano di redirezionamento (Re-routing Plan) può essere ottenuto semplicemente sovrapponendo due layer differenti: la mappa della rete stradale, contenuta in un database permanente, e la mappa di distribuzione delle zone alluvionate ricavata a partire da dati satellitari. E’ interessante notare come in questo caso si effettuerebbe semplicemente una “integrazione visiva” di informazioni provenienti da sorgenti differenti, senza applicare alcun cross-processing o metodologia di fusione dati. Se l’informazione relativa alla rete stradale e contenuta nel database è stata estratta da immagini telerilevate, la risoluzione diviene un importante criterio per la valutazione della qualità del risultato finale (come posso stabilire se una certa strada è allagata o no nel caso in cui la risoluzione del sensore sia insufficiente?). Questo esempio sottolinea l’importanza di definire un “concetto di qualità” adeguato, tenendo presente la particolare applicazione in analisi rispetto ai dati disponibili. In altri termini, la qualità di un prodotto geografico derivato da dati telerilevati dipende dalla applicazione specifica, dalla qualità dei dati originali, dalla affidabilità ed accuratezza degli algoritmi di elaborazione, ecc. Quanto discusso rappresenta, chiaramente, un proposta preliminare per un sistema la cui effettiva realizzazione comporterebbe un considerevole impegno di risorse, sia economiche che umane. E’ sembrato comunque fondamentale, a completamento di un triennio dedicato allo studio delle problematiche relative all’uso del telerilevamento per il monitoraggio territoriale, dedicare uno spazio adeguato all’analisi degli aspetti più legati ad uno sfruttamento commerciale ed applicativo delle tecniche sviluppate. 1.6.4 Bibliografia [1] [2] [3] [4] [5] [6] M. Fischler, J. Tannenbaum, H. Wolf, "Detection of roads and linear structures in low-resolution aerial imagery using a multisource knowledge integration technique", Computer Graphics and Image Processing, Vol. 15, pp. 201223, 1981; D.B. Mandal, C.A. Murthy, S.K. Pal, "Analysis of IRS Imagery for Detecting Man-Made Objects With a Multivalued Recognition System", IEEE Trans. on Systems, Man and Cybernetics-PartA, Vol.26, N°2, March 1996, pp. 241-247; N. Merlet, J. Zerubia, "New Prospects in Line Detection by Dynamic Programming", IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol.18, N°4, April 1996, pp. 426-431; F. Leymarie, N. Boichis, S. Airault, O. Jamet, "Towards the Automation of Road Networks Extraction Processes", Proc. Europto96, Taormina, 23-26 September 1996, SPIE Vol. 2960, pp. 84-95; Gruen, H. Li, "Semi-automatic linear feature extraction by dynamic programming and LSB-Snakes", Photogrammetric Engineering and Remote Sensing, Vol. 63(8), 1997, pp. 985-995; W. Guan, S. Ma, "A List-Processing Approach to Compute Voronoi Diagrams and The Euclidean Distance Transform", IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol.20, N°7, July 1998, pp. 757-761; 37 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] Relazione Finale D. Rosenholm, V. Schumacher, C. Mahlander, "Customer Workshops to define the Requirements of Specific Customer Segments: Land Navigation/Digital Mapping Industry", Final Report for Centre for Earth Observation (CEO), European Commission, Joint Research Centre, Ispra, Italy, Project Reference RGC 16/97, 1998; Kanungo T., M.Y. Jaisimha, J. Palmer, and R.M. Haralick, 1995, “A methodology for quantitative performance evaluation of detection algorithms”, IEEE Trans. Image Processing, Vol. 4, No. 12, Dec., pp. 1667-1674. P. Haunold, W. Kuhn, “A keystroke level analysis of manual map digitizing”, In: A.U. Frank, I. Campari (Eds.), Spatial Information Theory – A theoretical basis for GIS, Springer-Verlag: Berlin, pp. 406-420. P.C. Smits, S.G. Dellepiane, and R. Schowengerdt, “Quality assessment of image classification algorithms for landcover mapping: a review and a proposal for a cost-based approach”, Int. Journal of Remote Sensing, 20 (8), May 1999, pp. 1461-1486. J. Qiu and G. J. Hunter, "Towards Dynamic Updating of Data Quality Information", in: G.B.M. Heuvelink and M.J.P.M. Lemmens (eds.), Proceedings Accuracy 2000. Delft University Press, 2000. J. Michael and M. Krolikowski, "Digital Orthophotography - Principles, Project design Issues, Utility, Accuracy, Economics”, In: Proceedings GIS/GPS Conference '97. Online. http://www.gisqatar.org.qa/conf97/p1.html U.S. Geological Survey, National Mapping Division. Standards for 1:24,000-Scale Digital Line Graphs-3 Core. pp. 1.141.18. Online. http://www.fgdc.gov/ ASPRS Interim accuracy standards for large-scale maps. Photogrammetric engineering & Remote Sensign, vol. 54, no. 7, pp. 1079-1081. M. Craglia, A. Annoni, I. Masser (Eds.). “Geographic Information Policies in Europe: National and Regional perspectives”, Proceedings of the EUROGI-EC Data Policy workshop in Amersfoort, 15 November 1999. Report EN19522 EN. Joint Research Centre: Ispra (Italy), 2000. J. Desachy, V. Bessettes, and P. Dherete, “Remote sensing images processing and geographic features”, in: C.H. Chen (Ed.), Information processing for remote sensing, World Scientific, 1999, pp. 433-457. 38 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale 2 Attività didattica svolta [1] Attività di supporto alla didattica per il corso di Comunicazioni Elettriche (a.a. 2000/2001, corsi di laurea in Ingegneria Elettronica, Informatica e Biomedica) tenuto dal Prof. Gianni Vernazza. L'attività ha riguardato la preparazione e lo svolgimento di esercitazioni software di laboratorio in ambiente MATLAB. [2] Attività di supporto alla didattica (art.33 del nuovo statuto) per il corso di Comunicazioni Elettriche (a.a. 1999/2000, corsi di laurea in Ingegneria Elettronica, Informatica e Biomedica) tenuto dal Prof. Gianni Vernazza. L'attività ha riguardato la preparazione e lo svolgimento di esercitazioni software di laboratorio in ambiente MATLAB. 3 Partecipazione a corsi e/o scuole [1] Seminario in "Impresa, Ricerca e Innovazione", Repubblica di San Marino - Università degli Studi - Dipartimento di Economia e Tecnologia, 11-15 Ottobre 1999. 4 Partecipazione a convegni e/o congressi [1] “Monitoring and Control of Marine and Harbour Structures - International Conference”, Genova - Palazzo San Giorgio, 1-4 Giugno 1999. [2] “IEEE - International Geoscience and Remote Sensing Symposium - IGARSS'99”, Amburgo - Congress Centrum Hamburg, 28 Giugno-2 Luglio 1999. [3] “The EOS/SPIE Symposium on Remote Sensing - EUROPTO'99”, Firenze - Palazzo degli Affari, 20-24 Settembre 1999. [4] “IEEE-International Geoscience and Remote Sensing Symposium - IGARSS 2000”, Honolulu - Hilton Hawaiian Village, 24-28 Luglio 2000. [5] “The EOS/SPIE Symposium on Remote Sensing - EUROPTO 2000”, Barcellona - Barcelò Sants Hotel, 25-29 Settembre 2000. [6] “4a Conferenza Nazionale ASITA”, Genova - Magazzini del Cotone, 3-6-Ottobre 2000. [7] “IEEE-International Geoscience and Remote Sensing Symposium - IGARSS 2001”, Sydney - University of New South Wales, 9-13 Luglio 2001. [8] “The 8th International Symposium on Remote Sensing”, Tolosa - Centre de Congrès Pierre Baudis, 17-21 Settembre 2001. [9] “5a Conferenza Nazionale ASITA”, Rimini - Palacongressi, 9-12-Ottobre 2001. 5 Appartenenza ad Associazioni [1] Dal 2000, Student Member dell'IEEE-Institute of Electrical and Electronic Engineers. Membro di IEEE-Geoscience and Remote Sensing Society, di IEEE-Signal Processing Society e dal 2001 di IEEE-Computer Society. Membro di IEEE-Data Fusion Committee; [2] Dal 2000, socio dell'AEI - Associazione Elettrotecnica Italiana; [3] Membro del Consorzio Nazionale Interuniversitario per le Telecomunicazioni (CNIT); 39 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale 6 Pubblicazioni [1] G. Bo, S. Garzarelli Doria, L. Renzi, F. Rossi, A. Ramella, R. Berardi, R. Passalacqua "Uso dell'Interferometria Differenziale per l'Analisi di Movimenti Lenti del Terreno", Atti 5a Conferenza Nazionale ASITA, 9-12 October 2001, Rimini, Italy. [2] R. De Laurentiis, S. Dellepiane, G. Bo, "Texture Features Analysis for Coastline Extraction in Remotely Sensed Images", Proc. The 8th International Symposium on Remote Sensing, 17-21 September 2001, Toulouse, France, (to be published SPIE Vol.4541). [3] S. Dellepiane, G. Bo, S. Garzarelli Doria, "Differential Interferometry and Slow Terrain Motion Analysis", Proc. The 8th International Symposium on Remote Sensing, 17-21 September 2001, Toulouse, France, (to be published SPIE Vol.4543). [4] M. Bruzzo, F. Giordano, L. Pagani, S. Dellepiane, G. Bo, "Content-based Retrieval for Remotely Sensed Images", Proc. The 8th International Symposium on Remote Sensing, 17-21 September 2001, Toulouse, France, (to be published SPIE Vol.4540). [5] G. Bo, S. Dellepiane, R. De Laurentiis, "Coastline Extraction in Remotely Sensed Images by means of Texture Features Analysis", Proc. The International Geoscience and Remote Sensing Symposium - IGARSS 2001, 9-13 July 2001, Sydney, Australia. [6] G. Bo, S. Dellepiane, P.C. Smits, A. Annoni, "Issues in Geographic Data Quality Assessment by Remote Sensing Techniques", Proc. The International Geoscience and Remote Sensing Symposium - IGARSS 2001, 9-13 July 2001, Sydney, Australia. [7] G. Bo, S. Dellepiane, "Iterative approach for multi-resolution phase-model reconstruction", Il Nuovo Cimento, Vol. 24 C, N°1, January-February 2001. [8] G. Bo, S. Dellepiane, S. Monni, C. Buck, "Valutazione dei danni da alluvione tramite interferometria SAR", Atti 4a Conferenza Nazionale ASITA, 3-6 October 2000, Genova, Italy, pp.217-222. [9] S. Dellepiane, G. Bo, S. Monni, C. Buck, "Improvements in flood monitoring by means of interferometric coherence", Proc. The EOS/SPIE Symposium on Remote Sensing - EUROPTO 2000, 25-29 September 2000, Barcelona, Spain, SPIE Vol.4173. [10] G. Bo, S. Dellepiane, F. Giorgini, M. Bartolini, "A detail preserving solution to the problem of shoreline detection in remotely sensed images", Proc. The EOS/SPIE Symposium on Remote Sensing - EUROPTO 2000, 25-29 September 2000, Barcelona, Spain, SPIE Vol.4170. [11] G. Bo, S. Dellepiane, P.C. Smits, A. Annoni, "On linear feature extraction for roadnetworks detection and updating", Proc. The EOS/SPIE Symposium on Remote Sensing - EUROPTO 2000, 25-29 September 2000, Barcelona, Spain, SPIE Vol.4170. [12] S. Dellepiane, G. Bo, S.Monni, C. Buck, "SAR images and interferometric coherence for flood monitoring", Proc. The International Geoscience and Remote Sensing Symposium - IGARSS 2000, 24-28 July 2000, Honolulu, USA, pp.2608-2610. [13] G. Bo, S. Dellepiane, R. De Laurentiis, "Semiautomatic coastline detection in remotely sensed images", Proc. The International Geoscience and Remote Sensing Symposium - IGARSS 2000, 24-28 July 2000, Honolulu, USA, pp.1869-1871. 40 Dottorato in Scienze e Ingegneria dello Spazio - XIV Ciclo Relazione Finale [14] S. Dellepiane, S. Monni, G. Bo, C. Buck, "Flood damage assessment using SAR Interferometry: a quantitative evaluation of results", Proc. FRINGE '99-Second International Workshop on ERS SAR Interferometry, 10-12 November 1999, Liège, Belgium, (in press). [15] R. De Laurentiis, G. Bo, S. Dellepiane, A. Del Grosso, "Identificazione Semiautomatica del Litorale in Immagini Telerilevate", Atti 3a Conferenza Nazionale ASITA, 9-12 November 1999, Naples, Italy, pp.689-694. [16] G. Bo, S. Dellepiane, G. Beneventano, "A Locally adaptive noise filtering approach for phase-unwrapping improvement", Proc. The EOS/SPIE Symposium on Remote Sensing - EUROPTO 99, 20-24 September 1999, Florence, Italy, SPIE Vol. 3869. [17] G. Bo, S. Dellepiane, G. Beneventano, "A Locally Adaptive Approach for Interferometric Phase Noise Reduction", Proc. The International Geoscience and Remote Sensing Symposium - IGARSS'99, 28 June-2 July 1999, Hamburg, Germany, pp.264-266. [18] S. Dellepiane, G. Bo, P.C. Smits, "Multi-Resolution Phase Model Reconstruction for Phase Unwrapping", Proc. The International Geoscience and Remote Sensing Symposium - IGARSS'99, 28 June-2 July 1999, Hamburg, Germany, pp. 2395-2397. [19] R. De Laurentiis, G. Bo, S. Dellepiane, A. Del Grosso, "Remote Sensing and Coastal Monitoring: methods and applications", Proc. International Conference on Monitoring and Control of Marine and Harbour Structures, 1-4 June 1999, Genoa, Italy, (in press). [20] G. Bo, S. Dellepiane, P.C. Smits, "Weighted multi-resolution phase unwrapping method", Proc. EUROPTO 98 - The European Symposium on Remote Sensing, 21-25 September 1998, Barcelona, Spain, SPIE Vol.3497, pp. 146-154. [21] P.C. Smits, A. Trucco, G. Bo, G. Vernazza, "Iterative model reconstruction for phase unwrapping", Proc. 3rd ERS Symp. on Space at the service of our Environment, 17-21 March 1997, Florence, Italy, (ESA SP-414, 3 Vols., May 1997). 41