ESTRAZIONE DI TEMATISMI DA IMMAGINI SATELLITARI E AEREE MEDIANTE RETI NEURALI Fabio Del Frate 21-6-2011 L’ESTRAZIONE AUTOMATICA DEI TEMATISMI LO SCHEMA DI CLASSIFICAZIONE BANDA 1 BANDA 2 BANDA 3 BANDA 4 BANDA 5 BANDA 6 RETE NEURALE MAPPA TEMATICA TIPO DI CLASSIFICAZIONE ESTRAZIONE SU: BASE PIXEL O SU BASE OGGETTO ? CLASSIFICAZIONE SU BASE PIXEL PRE-PROCESSING IMMAGINE/I DI INPUT CARATTERIZZAZIONE PIXEL ALGORITMO NEURALE ASSEGNAZIONE CLASSE ELEMENTI INTRODUTTIVI SULLE RETI NEURALI INTRODUZIONE RETI NEURALI ¾ Il cervello umano è un calcolatore complesso non lineare e parallelo complesso, ¾ I suoi elementi di elaborazione, i neuroni sono molto semplici neuroni, ¾ Nonostante ciò il cervello è in grado di eseguire computazioni complesse, come il riconoscimento, la percezione e il controllo del movimento ¾ Nel cervello non esiste un controllo centralizzato, nel senso che le varie zone del cervello funzionano insieme, influenzandosi reciprocamente e contribuendo alla realizzazione di uno specifico compito. compito IL MECCANISMO DELLE SINAPSI I contatti tra i neuroni avvengono attraverso la sinapsi, lo spazio anatomico di contiguità e non continuità della rete nervosa. ¾ Decine di migliaia di messaggi eccitatori ed inibitori giungono ad ogni istante al neurone attraverso le sue sinapsi Il neurone analizza ed integra questi segnali e, a seguito di un processo di somma algebrica, emette o meno un segnale nervoso attraverso il suo assone. A livello della sinapsi si verificano così i primi eventi molecolari che regolano e controllano le nostre emozioni i i e i nostri t i pensieri. i i http://www.politicheantidroga.it/droghe/sostanze-psicoattive/il-neurone-e-la-sinapsi.aspx IL NEURONE Funzione Gradino: F ( Y ) = { Threshold es o d X1 θ W1 X2 W2 Wn Σ - 1 Y> 0 0 Y≤ 0 F(Y) Y Activation function Xn Una rete formata da tali unità è, con la scelta degli opportuni coefficienti, in linea di principio capace di rappresentare qualsiasi funzione logica XOR NETWORK INPUT HIDDEN 1 1 Input 1 Input 2 Output 0 0 0 1 1 0 0 1 1 1 0 1 -11 OUTPUT -11 1 1 THRESHOLD = .01 IL PERCEPTRON OFF ON IL PERCEPTRON Osserviamo che una rete di questo tipo è adatta per un tipico problema di classificazione. A sinistra (strato di ingresso) entrano le quantità misurate, a destra (strato di uscita) abbiamo il responso del decisore: la classe è quella associata al neurone nello strato d’uscita che si attiva Quando il mapping desiderato è complesso e prevede la presenza di diverse unità neuronali trovare i coefficienti moltiplicativi delle connessioni non è banale Principio della regola di addestramento: presentare degli esempi alla rete e modificare i pesi delle connessioni per ottenere un miglioramento del risultato, così da avvicinarsi alle uscite desiderate CONCETTO DI SUPERVISIONE LA BACK BACK-PROPAGATION PROPAGATION ¾ Risolve la difficoltà dell’addestramento, soprattutto per quanto riguarda i pesi dei neuroni interni. ¾ Si considera una rete con funzioni di attivazione differenziabili, cosicché i hé lle ffunzioni i i di attivazione tti i d dell’uscita ll’ it di diventano t ffunzioni i i differenziabili sia delle variabili di ingresso che dei pesi e dei valori di soglia. ¾ Le derivate possono essere utilizzate per trovare i valori dei coefficienti ffi i ti che h minimizzano i i i lla ffunzione i errore 1 E = 2 ∑ p Noutput ∑ k =1 (y k − tk ) 2 LA BACK BACK-PROPAGATION PROPAGATION ¾ La back-propagation è un algoritmo iterativo dove all’inizio il valore dei coefficienti è definito in modo casuale ¾ L’iterazione consiste nel presentare alla rete il set degli esempi selezionati l i ti più iù volte, lt fifinché hé l’l’errore ttotale t l commesso d dalla ll rete t è inferiore a una certa soglia ¾ Ogni ciclo di ripetizione viene chiamato epoca di addestramento Nel 1989 Hornik et al. dimostrano che il perceptron multistrato è in grado di approssimare qualsiasi funzione continua a valori reali: le reti perceptron multistrato costituiscono una classe di approssimatori universali [1] VARI TIPI DI RETI NEURALI Possiamo distinguere 3 elementi fondamentali di distinzione: 1. Topologia della rete: Feedforward ricorsiva, Feedforward, ricorsiva completamente connessa 2. Caratteristiche del neurone: Funzione di attivazione sigmoidale, a gradino, gaussiana 3. Regola di apprendimento: Con supervisione Senza supervisione Scelta d ll’i dell’input te dell’output Generazione d id dei dati ti di addestramento PROGETTAZIONE Input PreElaborazione Definizione della topologia Definizione dei coefficienti ffi i ti via i addestramento Rete Neurale Elaborazione Neurale PostElaborazione O t t Output MODALITÀ OPERATIVA REAL-TIME ASPETTI PROGETTUALI SCELTA DELL’INPUT E DELL’OUTPUT Identificare le migliori tra le informazioni disponibili da usare come ingresso alla rete, per esempio quelle con più alto rapporto segnale g rumore,, e definire precisamente p l’uscita della rete. GENERAZIONE DATI DI ADDESTRAMENTO Fornire F i alla ll rete t un iinsieme i di esempii statisticamente t ti ti t significativo i ifi ti e rappresentativo dello scenario in cui andrò ad operare. Nella modalità operativa la rete dovrà essere in grado di associare a quello che gli viene presentato qualche esempio memorizzato nella fase di addestramento RETI NEURALI RETI A MEMORIA ASSOCIATIVA PROBLEMA: Riconoscimento automatico di un individuo Generazione dai dati di addestramento ASPETTI PROGETTUALI Il resto della progettazione è soprattutto dedicato ad evitare il problema dell’overfitting: dell overfitting: La rete funziona sull’insieme di addestramento ma non è in grado di generalizzare correttamente su dati fuori da questo insieme. Per non cadere in overfitting occorre: ¾ Non eccedere nel numero di epoche di addestramento ¾ Non eccedere nella complessità topologica, cioè nel numero di unità di processamento (neuroni) COME SI FA ? ESEMPIO PROBLEMA DI CLASSIFICAZIONE y x IL TEMPO DI ADDESTRAMENTO OTTIMO Tecnica dell’EARLY STOPPING E TEST S ADDESTRAMENTO t’ t NUMERO DI NEURONI OTTIMO Tecniche per tentativi si provano numeri differenti di unità nascoste e si seleziona la rete che dà l’errore minore sul test set Tecniche di pruning Si allena una rete inizialmente sovradimensionata. I pesi meno importanti vengono eliminati. La rete ottenuta viene poi nuovamente riaddestrata Nota. Estendendo le tecniche di pruning fino ad arrivare a interessare lo strato di ingresso può essere un utile metodo per individuare i canali con maggiore contenuto applicativo Tecniche di growing Si parte con una rete sottodimensionata e man mano durante l’addestramento vengono aggiunte nuove unità o strati congelando i coefficienti determinati nelle fasi precedenti. LA TOPOLOGIA OTTIMA Nella modalità operativa l’implementazione della rete neurale richiede solo l’inserimento di poche p righe di codice ULTERIORI CONSIDERAZIONI ¾ COSTRUISCONO LE REGOLE DI DECISIONE INTERNE DIRETTAMENTE DAI DATI E NON NECESSITANO ASSUNZIONI A-PRIORI A PRIORI DI TIPO STATISTICO ¾ ATTENZIONE AL PROBLEMA DEI MINIMI SECONDARI ¾ NELLA FASE DI ADDESTRAMENTO POSSIBILI SINERGIE TRA DATI SIMULATI E DATI SPERIMENTALI ¾ CAPACITÀ NEL DATA FUSION CLASSIFICAZIONE DI IMMAGINI SATELLITARI Hard decision 0.75 0.12 0.10 0.08 1 0 0 0 Possibilità di unmixing CLASSIFICAZIONE DI IMMAGINI SATELLITARI La scelta dell’insieme di addestramento ESEMPIO CON IMMAGINI MULTISPETTRALI 4 BANDE: R, G, B, IR 4 CLASSI: ASFALTO, VEGETAZIONE SUOLO NUDO, EDIFICATO MAPPA TEMATICA: ACCURATEZZA 93% LA MATRICE DI CONFUSIONE VERITÀ A TERRA CLASSIFICATO COME VEGETAZIONE ASFALTO EDIFICATO SUOLO NUDO VEGETAZIONE 14864 33 750 2207 ASFALTO 132 44785 68 27 EDIFICATO 1225 29 12634 783 SUOLO NUDO 230 2 512 3229 DOMANDA: QUANTO LA RETE È IN GRADO DI GENERALIZZARE AL DI FUORI DELL’IMMAGINE PER LA QUALE È STATA PROGETTATA [[2]] ? STESSA RETE, STESSA AREA, ANNO DIFFERENTE: ACCURATEZZA 44% NUOVA RETE OTTIMIZZATA PER LA SINGOLA IMMAGINE: ACCURATEZZA 95% PROGETTAZIONE DI UNA RETE ROBUSTA RETE ROBUSTA: ACCURATEZZA 87% SAR RISOLUZIONE DECAMETRICA [3] [2] [2] DETTAGLIO DI RISULTATO SAR RISOLUZIONE VHR © ASI 2010 DATA SET [2] Periodi di acquisizione: acquisizione: ¾ Da marzo ad ottobre per emisfero boreale; ¾ Da novembre a febbraio per emisfero australe. Set di immagini: immagini: ¾5 continenti; i i ¾32 set immagini Landsat; ¾Oltre 50 contesti urbani; ¾26 capitali mondiali; RIO DE JANEIRO LONDRA MILANO PARIGI WASHINGTON BUDAPEST Copertura nuvolosa BERLINO NEW YORK NEUMAPPER You can download the “request form” via connection to the following web-page (look for it at the bottom of the ESA page): htt // iki http://wiki.services.eoportal.org/tikii t l /tiki index.php?page=Neumapper RIFERIMENTI BIBLIOGRAFICI [ ] [1] K. Hornik, M. Stinchcombe, A. White, Multilayer feedforward networks are universal , , , y approximators, Neural Networks, 1989. [2] F. Del Frate , F. Pacifici, G. Schiavon, C. Solimini, “Use of neural networks for automatic classification from high resolution imagery, imagery ” IEEE Transactions on Geoscience and Remote Sensing, vol. 45, n. 4, pp. 800‐809, April 2007 [3] F. Del Frate, F. Pacifici, D. Solimini, “Monitoring Urban Land Cover in Rome, Italy, and its Changes h b Single‐polarization by l l Multi‐temporal l l SAR Images,”” IEEE Journall off Selected l d Topics in Applied Earth Observation and Remote Sensing, vol 1, n. 2, pp. 87‐97, June 2008 [4] I.A. Basheer, M. Hajmeerb, [4] I A Basheer M Hajmeerb ”Artificial Artificial neural networks: fundamentals, computing, neural networks: fundamentals computing design, and Application,” Journal of Microbiological Methods 43 (2000) 3–31 [5] J. F. Mas, J. J. Flores, “The application of artificial neural networks to the analysis of [5] J F M J J Fl “Th li ti f tifi i l l t k t th l i f remotely sensed data,” International Journal of Remote Sensing, 29: 3, 617 — 663, 2008.