ESTRAZIONE DI TEMATISMI DA
IMMAGINI SATELLITARI E AEREE
MEDIANTE RETI NEURALI
Fabio Del Frate
21-6-2011
L’ESTRAZIONE AUTOMATICA DEI TEMATISMI
LO SCHEMA DI CLASSIFICAZIONE
BANDA 1
BANDA 2
BANDA 3
BANDA 4
BANDA 5
BANDA 6
RETE
NEURALE
MAPPA TEMATICA
TIPO DI CLASSIFICAZIONE
ESTRAZIONE SU:
BASE PIXEL O SU BASE OGGETTO ?
CLASSIFICAZIONE SU BASE PIXEL
PRE-PROCESSING
IMMAGINE/I
DI INPUT
CARATTERIZZAZIONE
PIXEL
ALGORITMO
NEURALE
ASSEGNAZIONE
CLASSE
ELEMENTI INTRODUTTIVI
SULLE RETI NEURALI
INTRODUZIONE RETI NEURALI
¾ Il cervello umano è un calcolatore
complesso non lineare e parallelo
complesso,
¾ I suoi elementi di elaborazione, i
neuroni sono molto semplici
neuroni,
¾ Nonostante ciò il cervello è in grado
di eseguire computazioni complesse,
come il riconoscimento, la percezione
e il controllo del movimento
¾ Nel cervello non esiste un controllo centralizzato, nel senso
che le varie zone del cervello funzionano insieme, influenzandosi
reciprocamente e contribuendo alla realizzazione di uno specifico
compito.
compito
IL MECCANISMO DELLE SINAPSI
I contatti tra i neuroni avvengono attraverso la sinapsi, lo spazio
anatomico di contiguità e non continuità della rete nervosa.
¾ Decine di migliaia di messaggi eccitatori ed inibitori
giungono ad ogni istante al neurone attraverso le sue sinapsi
Il neurone analizza ed integra questi segnali e, a seguito di un
processo di somma algebrica, emette o meno un segnale nervoso
attraverso il suo assone. A livello della sinapsi si verificano così i
primi eventi molecolari che regolano e controllano le nostre
emozioni
i i e i nostri
t i pensieri.
i i
http://www.politicheantidroga.it/droghe/sostanze-psicoattive/il-neurone-e-la-sinapsi.aspx
IL NEURONE
Funzione Gradino: F ( Y ) =
{
Threshold
es o d
X1
θ
W1
X2
W2
Wn
Σ
-
1 Y> 0
0 Y≤ 0
F(Y)
Y
Activation
function
Xn
Una rete formata da tali unità è, con la scelta degli opportuni coefficienti, in
linea di principio capace di rappresentare qualsiasi funzione logica
XOR NETWORK
INPUT
HIDDEN
1
1
Input 1
Input 2
Output
0
0
0
1
1
0
0
1
1
1
0
1
-11
OUTPUT
-11
1
1
THRESHOLD = .01
IL PERCEPTRON
OFF
ON
IL PERCEPTRON
Osserviamo che una rete di questo tipo è adatta per un tipico
problema di classificazione. A sinistra (strato di ingresso) entrano
le quantità misurate, a destra (strato di uscita) abbiamo il
responso del decisore: la classe è quella associata al neurone
nello strato d’uscita che si attiva
Quando il mapping desiderato è complesso e prevede la
presenza di diverse unità neuronali trovare i coefficienti
moltiplicativi delle connessioni non è banale
Principio della regola di addestramento: presentare degli esempi
alla rete e modificare i pesi delle connessioni per ottenere un
miglioramento del risultato, così da avvicinarsi alle uscite
desiderate
CONCETTO DI SUPERVISIONE
LA BACK
BACK-PROPAGATION
PROPAGATION
¾ Risolve la difficoltà dell’addestramento, soprattutto per quanto
riguarda i pesi dei neuroni interni.
¾ Si considera una rete con funzioni di attivazione differenziabili,
cosicché
i hé lle ffunzioni
i i di attivazione
tti
i
d
dell’uscita
ll’
it di
diventano
t
ffunzioni
i i
differenziabili sia delle variabili di ingresso che dei pesi e dei valori
di soglia.
¾ Le derivate possono essere utilizzate per trovare i valori dei
coefficienti
ffi i ti che
h minimizzano
i i i
lla ffunzione
i
errore
1
E =
2
∑
p
Noutput
∑
k =1
(y k
− tk
)
2
LA BACK
BACK-PROPAGATION
PROPAGATION
¾ La back-propagation è un algoritmo iterativo dove all’inizio il
valore dei coefficienti è definito in modo casuale
¾ L’iterazione consiste nel presentare alla rete il set degli esempi
selezionati
l i
ti più
iù volte,
lt fifinché
hé l’l’errore ttotale
t l commesso d
dalla
ll rete
t è
inferiore a una certa soglia
¾ Ogni ciclo di ripetizione viene chiamato epoca di addestramento
Nel 1989 Hornik et al. dimostrano che il perceptron multistrato è in
grado di approssimare qualsiasi funzione continua a valori reali: le
reti perceptron multistrato costituiscono una classe di
approssimatori universali [1]
VARI TIPI DI RETI NEURALI
Possiamo distinguere 3 elementi fondamentali di distinzione:
1. Topologia della rete:
Feedforward ricorsiva,
Feedforward,
ricorsiva completamente connessa
2. Caratteristiche del neurone:
Funzione di attivazione sigmoidale, a gradino, gaussiana
3. Regola di apprendimento:
Con supervisione
Senza supervisione
Scelta
d ll’i
dell’input
te
dell’output
Generazione
d id
dei
dati
ti di
addestramento
PROGETTAZIONE
Input
PreElaborazione
Definizione
della topologia
Definizione dei
coefficienti
ffi i ti via
i
addestramento
Rete
Neurale
Elaborazione
Neurale
PostElaborazione
O t t
Output
MODALITÀ OPERATIVA REAL-TIME
ASPETTI PROGETTUALI
SCELTA DELL’INPUT E DELL’OUTPUT
Identificare le migliori tra le informazioni disponibili da usare come
ingresso alla rete, per esempio quelle con più alto rapporto
segnale
g
rumore,, e definire precisamente
p
l’uscita della rete.
GENERAZIONE DATI DI ADDESTRAMENTO
Fornire
F
i alla
ll rete
t un iinsieme
i
di esempii statisticamente
t ti ti
t significativo
i ifi ti
e rappresentativo dello scenario in cui andrò ad operare.
Nella modalità operativa la rete dovrà essere in grado di associare
a quello che gli viene presentato qualche esempio memorizzato
nella fase di addestramento
RETI NEURALI
RETI A MEMORIA ASSOCIATIVA
PROBLEMA:
Riconoscimento
automatico di un individuo
Generazione dai dati di
addestramento
ASPETTI PROGETTUALI
Il resto della progettazione è soprattutto dedicato ad evitare il
problema dell’overfitting:
dell overfitting:
La rete funziona sull’insieme di addestramento ma non è in grado
di generalizzare correttamente su dati fuori da questo insieme.
Per non cadere in overfitting occorre:
¾ Non eccedere nel numero di epoche di addestramento
¾ Non eccedere nella complessità topologica, cioè nel
numero di unità di processamento (neuroni)
COME SI FA ?
ESEMPIO
PROBLEMA DI CLASSIFICAZIONE
y
x
IL TEMPO DI ADDESTRAMENTO OTTIMO
Tecnica dell’EARLY STOPPING
E
TEST
S
ADDESTRAMENTO
t’
t
NUMERO DI NEURONI OTTIMO
Tecniche per tentativi
si provano numeri differenti di unità nascoste e si seleziona la rete che
dà l’errore minore sul test set
Tecniche di pruning
Si allena una rete inizialmente sovradimensionata. I pesi meno
importanti vengono eliminati. La rete ottenuta viene poi nuovamente
riaddestrata
Nota. Estendendo le tecniche di pruning fino ad arrivare a interessare
lo strato di ingresso può essere un utile metodo per individuare i canali
con maggiore contenuto applicativo
Tecniche di growing
Si parte con una rete sottodimensionata e man mano durante
l’addestramento vengono aggiunte nuove unità o strati congelando i
coefficienti determinati nelle fasi precedenti.
LA TOPOLOGIA OTTIMA
Nella modalità
operativa
l’implementazione
della rete neurale
richiede solo
l’inserimento di poche
p
righe di codice
ULTERIORI CONSIDERAZIONI
¾ COSTRUISCONO LE REGOLE DI DECISIONE INTERNE
DIRETTAMENTE DAI DATI E NON NECESSITANO
ASSUNZIONI A-PRIORI
A PRIORI DI TIPO STATISTICO
¾
ATTENZIONE AL PROBLEMA DEI MINIMI SECONDARI
¾ NELLA FASE DI ADDESTRAMENTO POSSIBILI SINERGIE
TRA DATI SIMULATI E DATI SPERIMENTALI
¾
CAPACITÀ NEL DATA FUSION
CLASSIFICAZIONE DI IMMAGINI SATELLITARI
Hard decision
0.75
0.12
0.10
0.08
1
0
0
0
Possibilità di unmixing
CLASSIFICAZIONE DI IMMAGINI SATELLITARI
La scelta
dell’insieme di
addestramento
ESEMPIO CON IMMAGINI MULTISPETTRALI
4 BANDE: R, G, B, IR
4 CLASSI: ASFALTO, VEGETAZIONE
SUOLO NUDO, EDIFICATO
MAPPA TEMATICA: ACCURATEZZA 93%
LA MATRICE DI CONFUSIONE
VERITÀ A TERRA
CLASSIFICATO
COME
VEGETAZIONE
ASFALTO
EDIFICATO SUOLO NUDO
VEGETAZIONE
14864
33
750
2207
ASFALTO
132
44785
68
27
EDIFICATO
1225
29
12634
783
SUOLO NUDO
230
2
512
3229
DOMANDA:
QUANTO LA RETE È IN GRADO DI GENERALIZZARE
AL DI FUORI DELL’IMMAGINE PER LA QUALE È
STATA PROGETTATA [[2]] ?
STESSA RETE, STESSA AREA, ANNO DIFFERENTE:
ACCURATEZZA 44%
NUOVA RETE OTTIMIZZATA PER LA SINGOLA IMMAGINE:
ACCURATEZZA 95%
PROGETTAZIONE DI UNA RETE ROBUSTA
RETE ROBUSTA: ACCURATEZZA 87%
SAR RISOLUZIONE DECAMETRICA [3]
[2]
[2]
DETTAGLIO DI RISULTATO
SAR RISOLUZIONE VHR
© ASI 2010
DATA SET
[2]
Periodi di acquisizione:
acquisizione:
¾ Da marzo ad ottobre per
emisfero boreale;
¾ Da novembre a febbraio per
emisfero australe.
Set di immagini:
immagini:
¾5 continenti;
i
i
¾32 set immagini Landsat;
¾Oltre 50 contesti urbani;
¾26 capitali mondiali;
RIO DE JANEIRO
LONDRA
MILANO
PARIGI
WASHINGTON
BUDAPEST
Copertura
nuvolosa
BERLINO
NEW YORK
NEUMAPPER
You can download the “request form” via
connection to the following web-page (look for it
at the bottom of the ESA page):
htt // iki
http://wiki.services.eoportal.org/tikii
t l
/tiki
index.php?page=Neumapper
RIFERIMENTI BIBLIOGRAFICI
[ ]
[1] K. Hornik, M. Stinchcombe, A. White, Multilayer feedforward networks are universal ,
,
,
y
approximators, Neural Networks, 1989.
[2] F. Del Frate , F. Pacifici, G. Schiavon, C. Solimini, “Use of neural networks for
automatic classification from high resolution imagery,
imagery ” IEEE Transactions on Geoscience
and Remote Sensing, vol. 45, n. 4, pp. 800‐809, April 2007
[3] F. Del Frate, F. Pacifici, D. Solimini, “Monitoring Urban Land Cover in Rome, Italy, and its
Changes
h
b Single‐polarization
by
l
l
Multi‐temporal
l
l SAR Images,”” IEEE Journall off Selected
l
d Topics in
Applied Earth Observation and Remote Sensing, vol 1, n. 2, pp. 87‐97, June 2008
[4] I.A. Basheer, M. Hajmeerb, [4]
I A Basheer M Hajmeerb ”Artificial
Artificial neural networks: fundamentals, computing, neural networks: fundamentals computing
design, and Application,” Journal of Microbiological Methods 43 (2000) 3–31
[5] J. F. Mas, J. J. Flores, “The application of artificial neural networks to the analysis of [5]
J F M J J Fl
“Th
li ti
f tifi i l
l t
k t th
l i f
remotely sensed data,” International Journal of Remote Sensing, 29: 3, 617 — 663, 2008.
Scarica

estrazione di tematismi da immagini satellitari e aeree mediante reti