Corso di Sistemi di Telecomunicazione 1
A.A 2009/2010
TEORIA DELLA DECISIONE
Ref. ‘Detection, Estimation and Modulation
Theory, Part I’, H.L.Van Trees, ed. John
Wiley&Sons, Inc. 1968
Prof. Carlo S. Regazzoni
1
CONTENUTI
• Introduzione
• Test di ipotesi binaria
• Criteri di decisione
• Misure di prestazione: curve ROC
• M-ipotesi
2
INTRODUZIONE:
Il problema della decisione
• Componenti del problema della decisione:
1. Sorgente
2. Meccanismo probabilistico di rumore
3. Spazio dell’osservazione
4. Regola di decisione
H0
Sorgente
H1
Meccanismo
probabilistico
di rumore
Spazio
della
osservazione
Regola di
decisione
DECISIONE
3
INTRODUZIONE:
Il problema della decisione
• Sorgente
La sorgenete genera un’uscita che, nel caso più semplice
è una tra due possibili scelte H 0 e H 1
ESEMPIO
Un sistema di comunicazione digitale trasmette
informazioni mandando ‘0’ e ‘1’:
H 1 = è stato trasmesso ‘1’
H 0 = è stato trasmesso ‘0’
• Meccanismo probabilistico di rumore
Può essere visto come un dispositivo che sa
quale ipotesi è vera. Sulla base di questa
conoscenza, genera un punto nello spazio delle
osservazioni, in accordo con date leggi
probabilistiche.
• Spazio delle osservazioni: ESEMPIO
• Quando H1 è vera, la sorgente genera +1.
• Quando H0 è vera, la sorgente genera -1.
4
INTRODUZIONE:
Il problema della decisione
Un problema di decisione:
Fig. a: Modello
Fig. b: Densità di probabilità
• Una variabile casuale discreta indipendente n la cui
densità di probabilità è mostrata nella figura (b) è
aggiunta all’uscita della sorgente.
• L’osservazione r è data dalla somma dell’uscita della
sorgente con n.
• Sotto le due ipotesi abbiamo due possibili osservazioni
r le cui densità di probabilità sono mostrate in figura
(b).
• Regola di decisione
La regola di decisione assegna ogni punto dello spazio
dell’osservazione ad una delle ipotesi
5
IPOTESI BINARIA
• Ognuna delle due uscite della sorgente corrisponde
ad una ipotesi
• Ogni ipotesi viene mappata in un punto dello spazio
delle osservazioni
• Assumiamo che lo spazio delle osservazioni
corrisponde a un insieme di N osservazioni:
r1 , r2 ,...... , rN
 Ogni insieme può essere pensato come un punto in
uno spazio N-dimensionale e può essere denotato da
un vettore r:
 r1 
r 
 2
r  . 
 . 
r 
 N
• Il meccanismo probabilistico di rumore genera punti in
accordo con due densità di probabilità condizionali
 pr|H1 R | H1 
note pr|H 0 R | H 0 e
• OBIETTIVO: usare questa informazione per sviluppare
una buona regola di decisione
 vediamo diversi criteri di decisione
6
CRITERI DI DECISIONE
• Nell’ipotesi binaria sappiamo che una delle ipotesi H1
o H0 è vera.
• Confiniamo la discussione sulle regole di decisione
che sono richieste per prendere una decisione.
• Ogni volta che l’esperimento viene condotto, può
verificarsi una delle seguenti 4 situazioni:
1. H0 è vera - scelgo H0;
2. H0 è vera - scelgo H1;
3. H1 è vera - scelgo H1;
4. H1 è vera - scelgo H0;
• La prima e la terza alternativa corrispondono a scelte
corrette.
• La seconda e la quarta alternativa corrispondono a
scelte sbagliate.
• Lo scopo di un criterio di decisione è quello di dare una
importanza relativa ai possibili quattro eventi.
7
CRITERIO DI BAYES
• Il test di Bayes è basato si due assunzioni:
1. Prima assunzione
Le uscite sono governate da assegnazioni
probabilistiche, che sono denotate da P1 e P0 e sono
chiamate probabilità a priori.
Queste probabilità rappresentano l’informazione che
ha l’osservatore sulla sorgente, prima che
l’esperimento sia condotto.
2. Seconda assunzione
Ad ogni possibile azione viene associato un costo
C00, C10, C11, C01, dove il primo pedice indica l’ipotesi
scelta e il secondo l’ipotesi vera.
Ogni volta che l’esperimento viene eseguito, si paga
un certo costo.
C
C   00
C11
C01 

C10 
Cij  0
• Vogliamo progettare la nostra regola di decisione in
modo tale che il costo medio sia minimizzato.
8
CRITERIO DI BAYES
• Per minimizzare il costo medio, scriviamo un’espressione
per il costo aspettato (rischio):
R  C00 P0 Pr decido H 0 | H 0 vera  
C10 P0 Pr decido H1 | H 0 vera  
C11P1 Pr decido H1 | H1 vera  
C01P1 Pr decido H 0 | H1 vera 
• Siccome abbiamo assunto che la regola di decisione
possa decidere per H0 o per H1, questa può essere vista
come una regola che divide lo spazio di osservazione Z
in due parti, Z0 e Z1:
Decido per Z0
pr|H 0 R | H 0 
R
Sorgente
pr|H1 R | H1 
R
Z0
Z0
Z1
dove:
p0  pr H0vera
Decido per Z1
p0 pr  dec.H0 / H0vera  pr dec.H0 / H0vera
9
CRITERIO DI BAYES
• Possiamo scrivere l’espressione per il rischio in
termini di probabilità di transizione e di regioni di
decisione:
R  C00 P0 Z pr|H 0 ( R | H 0 )dR 
0
C10 P0 Z pr|H 0 ( R | H 0 )dR 
1
C11P1 Z pr|H1 ( R | H1 )dR 
1
(1)
C01P1 Z pr|H1 ( R | H1 )dR
0
• Assumiamo che il costo relativo ad una decisione
sbagliata sia più alto del costo relativo ad una
decisione corretta(data la stessa Hi vera):
C10  C00
C01  C11
(2)
• Per trovare il test di Bayes dobbiamo scegliere
le regioni di decisione in modo tale che il rischio
sia minimizzato
• Siccome vogliamo che una decisione venga comunque
presa, occorre che lo spazio di osservazione Z sia
tale che:
Z  Z0  Z1  Z0  Z1
10
CRITERIO DI BAYES
• La (1) può essere riscritta nel seguente modo:
R  C00 P0 Z pr|H 0 ( R | H 0 )dR  C10 P0 Z  Z pr|H 0 ( R | H 0 )dR 
0
0
 C11P1 Z  Z pr|H1 ( R | H1 )dR  C01P1 Z pr|H1 ( R | H1 )dR
0
0
• Osserviamo che:
Z pr|H 0 ( R | H 0 )dR  Z pr|H1 ( R | H1 )dR  1

 R  C10 P0  C11P1  Z [ P1( C01  C11 ) pr|H1 ( R | H1 )] 
0
(3)
- [ P0 ( C10  C00 ) pr|H ( R | H 0 )] dR
0

• I primi due termini rappresentano il costo fissato se
decido H1 sempree l’ integrale rappresenta il costo
controllato da quei punti R che assegniamo a Zo.
• L’assunzione (2) implica che i due termini dentro le
parentesi tonde siano positivi.
 tutti i valori di R per cui il secondo termine è più
grande del primo dovrebbero essere inclusi in Zo
perché danno contributo negativo all’integranda;
 tutti i valori di R per cui il primo termine è più
grande del secondo dovrebbero essere esclusi da Zo
(assegnati a Z1).
11
CRITERIO DI BAYES
• Le regioni di decisione sono definite dalla seguente
relazione:
SE
P1( C01  C11 ) pr|H1 ( R | H1 )  P0 ( C10  C00 ) pr|H 0 ( R | H 0 )
(4)
 ASSEGNIAMO R A Z1, QUINDI SCELGO L’IPOTESI
H1 E’ VERA.
• La (4) può essere riscritta nel seguente modo:
pr|H1 ( R | H1 ) H1 P0 ( C10  C00 )

( R ) 

pr|H 0 ( R | H 0 )
P1( C01  C11 )
(5)
H0
• (R) è chiamato rapporto di verosimiglianza ed è una
variabile aleatoria.
• La quantità a destra della (5) è la soglia del test:
P0 ( C10  C00 )

P1( C01  C11 )
12
CRITERIO DI BAYES
OSSERVAZIONI
• Il criterio di Bayes può essere riscritto come segue:
H1

( R ) 
(6)
H0
• Tutta l’elaborazione è contenuta nel calcolo del
rapporto di verosimiglianza e non dipende dalle
probabilità a priori o dall’assegnazione dei costi.
• Siccome il logaritmo naturale è una funzione
monotona ed entrambi i termini della (6) sono positivi,
un test equivalente è il seguente:
H1
 ln
ln ( R ) 
(7)
H0
13
CRITERIO DI BAYES
Esempio 1
• Ipotesi H1 uscita della sorgente = tensione m
• Ipotesi H0 uscita della sorgente = tensione 0
• Prima dell’osservazione la tensione è corrotta da un
rumore additivo.
• Campioniamo la forma d’onda in uscita ogni secondo
e otteniamo N campioni.
• Ogni campione di rumore è una variabile aleatoria
2
Gaussiana a media nulla e varianza 
• I campioni di rumore sono indipendenti tra di loro e
sono indipendenti dall’uscita della sorgente.
14
CRITERIO DI BAYES
Esempio 1
• Le osservazioni sotto le due ipotesi sono:
e
H1 : ri  m  ni
i  1,2, ... , N
H0 : ri  ni
i  1,2, ... , N
 X2 
1

pni ( X ) 
exp 
 2 2 
2 


• La densità di probabilità dell’osservazione sotto le
due ipotesi risulta essere:
 ( R  m )2 
1

pri|H1 ( Ri | H1 ) 
exp  i

2 
2 2 

e
 R2 
1
pri|H 0 ( Ri | H 0 ) 
exp  i 
 2 2 
2 


15
CRITERIO DI BAYES
Esempio 1
• Siccome i campioni di rumore sono statisticamente
indipendenti, è possibile scrivere:
 ( R  m )2 
1

pr|H1 ( R | H1 )  
exp  i

2 2 
i 1 2 

N
e
 R2 
1
pr|H 0 ( R | H 0 )  
exp  i 
 2 2 
i 1 2 


N
• Il rapporto di verosimiglianza risulta essere:
 ( R  m )2 
1

exp  i

2


2

i 1 2 


( R ) 
N 1
 R2 
exp  i 

 2 2 
i 1 2 


N
m N
Nm2
 ln ( R ) 
 Ri 
2
 i 1
2 2
16
CRITERIO DI BAYES
Esempio 1
• Il test di verosimiglianza è:
H
m N
Nm2 1
 Ri 
 ln
2
2
 i 1
2 H
0
o, equivalentemente:
H1
2

Nm

ln 

 Ri 
N
i 1
H0
m
2
• Il processore semplicemente somma i campioni
osservati e confronta la somma con una soglia.
• L’operazione:
N
l( R )   Ri
i 1
è chiamata statistica sufficiente.
17
CRITERIO DI BAYES
Esempio 2
• L’osservazione consiste di un insieme di N valori:
r1 ,r2 , ... , rN
che sono indipendenti, identicamente distribuiti, con
distribuzione Gaussiana a media nulla.
• Sotto l’ipotesi H1, i campioni osservati hanno varianza
 2 e sotto l’ipotesi Ho  2
1
0
• Siccome le variabili sono indipendenti:
N
 R2 
1
pr|H1 ( R | H1 )  
exp  i 
 2 2 
i 1 2 1

1 
 R2 
pr|H 0 ( R | H 0 )  
exp  i 
 2 2 
i 1 2  0

0 
N
1
• Il test di verosimiglianza diventa:
H
 0 1
1  1
1  N 2

 Ri N ln
 ln
2
2


2   0 1 i 1
1
H0
18
CRITERIO DI BAYES
Esempio 2
• In questo caso la statistica sufficiente è data da:
N
l( R )   Ri2
i 1
• Un test equivalente per
è:
2 0212 
 02 

l( R ) 
ln  N ln

2
2
2


1 
H 0 1   0 
H1
2
2
• Per 1   0 si ha invece:

2 0212 
 02

l( R ) 
N ln
 ln   
2
2
2





H1 0

1 
1
H0
19
CRITERIO DI BAYES
Caso particolare:
ricevitore a minima probabilità di errore
• Supponiamo che:
C00  C11  0
C01  C10  1
• La funzione di rischio (1) diventa:
R  P0 Z pr|H 0 ( R | H 0 )dR  P1 Z pr|H1 ( R | H1 )dR
1
0
• L’espressione (8) rappresenta la probabilità totale
di fare un errore, che viene perciò minimizzata.
• Il test di verosimiglianza è:
H1
 ln P0  ln P0  ln(1  P0 )
ln ( R ) 
P1
H0
• Quando le due ipotesi sono equiprobabili, la soglia
è nulla. Questa ipotesi è generalmente vera
nei sistemi di comunicazione digitale. Questo tipo di
criterio viene normalmente chiamato ricevitore a
minima probabilità di errore.
 H1
P0  R

 H 1   P0
  P1
P1  R

 H0  H0
  MAP
 P P  R
P1 P  R



0
 H1  
 H0 
20
(8)
CRITERIO MINIMAX
• Il criterio minimax è un caso particolare del test di
Bayes in cui le probabilità a priori non sono note.
• Introduciamo le seguenti quantità, con analogia al
problema del radar, in cui l’ipotesi H1 corrisponde
alla presenza di un target, e l’ipotesi Ho corrisponde
alla sua assenza:
PF  Z pr|H 0 ( R | H 0 )dR
1
(9)
PD  Z pr|H1 ( R | H1 )dR
1
(10)
PM  Z pr|H1 ( R | H1 )dR  1  PD
0
(11)
• PF è la probabilità di falso allarme (il target è
rilevato quando in realtà non c’è);
• PM è la probabilità di mancato allarme (il target non è
rilevato quando in realtà c’è);
• PD è la probabilità di detection (il target è rilevato
correttamente).
21
CRITERIO MINIMAX
• La funzione di rischio (3) può essere riscritta nel
seguente modo:
R  P0C10  P1C11  P1( C01  C11 )PM 
 P0 ( C10  C00 )( 1  PF )
(12)
• Poiché P0  1  P,1 è possibile scrivere:
R(P1 )  C00 ( 1  PF )  C10 PF 
(13)
 P1 [( C11  C00 )  ( C01  C11 )PM  ( C10  C00 )PF ]
• In figura è riportata la funzione di rischio Bayesiana
in funzione di P1; si può osservare come P1 cambia le
regioni di decisione e quindi le probabilità PF e PM.
22
CRITERIO MINIMAX
• Fissiamo P1=P1* e costruiamo il corrispondente test di
Bayes;
• Fissiamo la soglia e ora assumiamo che P1 possa
cambiare;
• Denotiamo il rischio per questa soglia fissata come:
R F ( P1* , P1 )
• Siccome la soglia è fissata, allora PF e PM sono fissate
e la (13) rappresenta una retta;
• Se vediamo come è definita la soglia , osserviamo che
questa cambia continuamente al variare di P1
 ogni volta che P1  P1,*la soglia nel test di Bayes
sarà differente.
• Siccome il test di Bayes minimizza il rischio, allora:
R F ( P1* , P1 )  R B ( P1 ) RF ( P1* , P1* )  RB ( P1* )
• Se  è una variabile aleatoria continua con funzione
di distribuzione probabilistica strettamente monotona,
allora cambiando  viene cambiato il rischio;
• RB ha concavità verso il basso;
*
P

P
1.
• RF è tangente a RB nel punto 1
• Queste curve dimostrano l’effetto della conoscenza
errata delle probabilità a priori.
23
CRITERIO MINIMAX
• Il criterio minimax minimizza il massimo rischio
 P1 è scelto in modo da massimizzare il rischio RF.
ESEMPIO 1
Il massimo di Rb si ha in
P1=0  per minimizzare
il massimo rischio usiamo
il test di Bayes con P1=0.
ESEMPIO 2
Il massimo di Rb si ha in
P1=1  per minimizzare
il massimo rischio usiamo
il test di Bayes con P1=1.
24
CRITERIO MINIMAX
ESEMPIO 3
 R 

( 1  P )

P1*
*
1
P1* 
P1*  ?
• Il massimo di RB cade nell’intervallo (0,1), quindi
scegliamo RF orizzontale. Questop implica che il
coefficiente di P1 nella (13) deve essere nullo
(equazione del minimax)  t1c1
( C11  C00 )  ( C01  C11 )PM  ( C10  C00 )PF  0
• Nel caso particolare in cui
C01  CM
C11  C00 , 0indicando:
C10  CF
l’equazione del minimax è:
CM PM  C F PF
25
CRITERIO DI NEYMAN-PEARSON
• In molti casi reali è difficile assegnare costi
realistici o probabilità a priori;
• Una procedura semplice per evitare questo problema
è lavorare con le probabilità condizionali PF e PD;
• In generale, vogliamo minimizzare PF e massimizzare
PD;
• In molti casi pratici questi due obiettivi sono in
conflitto
 un criterio ovvio consiste nel limitare una delle
probabilità e massimizzare o minimizzare l’altra.
• Il criterio di Neyman-Pearson la probabilità di falso
allarme:
PF  '  
e progetta un test per massimizzare la probabilità
di detection (o minimizzare la probabilità di
mancato allarme), con questo vincolo.
26
CRITERIO DI NEYMAN-PEARSON
• La soluzione è facilmente ottenuta usando i
moltiplicatori di Lagrange.; costruiamo la funzione F:
F  PM   [ PF  ' ]
o
F  Z Pr|H1 ( R | H1 )dR   [ Z Pr|H 0 ( R | H 0 )dR  ' ]
0
1
 F  ( 1  ' )  Z [ Pr|H1 ( R | H1 )  Pr|H 0 ( R | H 0 )] dR
0
• Se PF  ', minimizzare F equivale a minimizzare PM.
• Per ogni valore positivo di , un rapporto di
verosimiglianza minimizzerà F, infatti per
minimizzare F noi assegniamo un punto R a Zo solo
quando il termine tra parentesi è negativo; questo
equivale al test:
Pr|H1 ( R | H1 )
Pr|H 0 ( R | H 0 )

 assegno il punto a Zo
 F è minimizzata dal test di verosimiglianza:
H0
( R )


H1

27
CRITERIO DI NEYMAN-PEARSON
• Per soddisfare il vincolo scegliamo  in modo tale che:
PF  '
• Se indichiamo la densità di probabilità di  quando
Ho è vera come:
P|H 0 (  | H 0 )
allora deve essere:

PF   P|H 0 (  | H 0 )d  '

(14)
• Risolvendo la (14), si ottiene la soglia 
• Osserviamo che diminuire  è equivalente ad
aumentare Z1, la regione in cui decidiamo per H1;
 PD aumenta al diminuire di 
 diminuiamo  finché non otteniamo il valore più
alto possibile '  
28
PERFORMANCES:
Receiver Operating Characteristic
• Per il test di Neyman-Pearson i valori di PF e PD
specifica completamente le prestazioni del test;
• Osservando l’equazione (12), vediamo che il rischio di
Bayes RB è dato, se sono note le probabilità PF e PD
 ci concentriamo sul calcolo di PF e PD
• Riprendiamo l’esempio 1, in cui il test di
verosimiglianza è rappresentato da:
H1
2

Nm

ln 
 Ri 
N
i 1
H0
m
2
• Equivalentemente, il test di verosimiglianza può
essere espresso dalla seguente espressione:
H
1
1 N
  ln  N m
l
 Ri 
N i 1
Nm
2
H0
• Sotto l’ipotesi Ho, l è ottenuto aggiungendo N
variabili indipendenti con varianza  2e quindi
N
dividendo per
 l ha distribuzione Gaussiana normalizzata N(0,1)
29
PERFORMANCES:
Receiver Operating Characteristic
• Sotto l’ipotesi H1, l ha distribuzione Gaussiana
con media N m  e varianza 1.
• Le densità di probabilità di l sono mostrate nella
seguente figura, in cui è riportata anche la soglia
del test di verosimiglianza:
30
PERFORMANCES:
Receiver Operating Characteristic
• La probabilità di falso allarme PF è l’integrale di
Pl|H 0 ( L | H 0 )
a destra della soglia, cioè:
 x2 
1
PF 
exp  dx

 2 
(ln ) / d  d / 2 2



dove:
d
Nm

• d rappresenta la distanza tra i valori medi delle due
densità di probabilità.
• Introduciamo la seguente notazione:
Qx   erfc( X ) 


X
 x2 
exp  dx
 2 
2


1
(15)
 ln d 
 PF  erfc 
 
2
 d
31
PERFORMANCES:
Receiver Operating Characteristic
• Analogamente, la probabilità di detection PD è
l’integrale di:
Pl|H1 ( L | H1 )
a destra della soglia; dopo qualche calcolo elementare
si può ottenere che:
 ln d 
 PD  erfc 
 
2
 d
32
PERFORMANCES:
Receiver Operating Characteristic
• Nella seguente figura abbiamo tracciato PF per diversi
valori di d al variare di .
• Quando  = 0, ln  -, quindi il ricevitore decide
sempre per H1, quindi PF = 1 e PD = 1;
• quando  -, il decisore sceglie sempre H0, per
cui PF = 0 e PD = 0.
33
PERFORMANCES:
Receiver Operating Characteristic
• Come ci si aspetta dalle figure delle densità di
probabilità, le prestazioni crescono monotonicamente
con d.
• Le curve tracciate nel lucido precedente vengono
chiamate curve ROC (Receiver Operating
Characteristic);
• le curve ROC descrivono completamente le prestazioni
del test in funzione dei parametri di interesse.
• CASO PARTICOLARE: volgiamo minimizzare la
probabilità di errore totale:
Pr(  )  P0 PF  P1PM
• Quando P1 = Po la probabilità di errore totale è:
 1
  x2 
1
dx  erfc  d 
Pr(  )  ( PF  PM )  
exp
 2 
2
2
d / 2 2


34
PERFORMANCES:
Receiver Operating Characteristic
LIMITI DI ERFC*
• Il calcolo dei limiti della funzione erfc* ci permettono
di discutere analiticamente il suo comportamento
approssimato.
• Per X > 0, risolvendo l’integrale (15) per parti, si trova
che:
 X2
1 
1   X 2 
1

 erfc( X ) 
exp 
1 
 exp 
 2 
2 X  X 2   2 
2 X


• Un altro limite è, sempre per X > 0:
 X2
1

erfc( X )  exp 
 2 
2


35
PERFORMANCES:
Receiver Operating Characteristic
• La seguente figura mostra le 4 curve di interesse:
• Notiamo che erfc* decresce esponenzialmente.
36
PERFORMANCES:
Receiver Operating Characteristic
Esempio
Riprendiamo l’esempio 2 del test di Bayes in cui
avevamo ricavato che:
H1
2 2 
2
2



0 1  ln  N ln 0   
l( R )   Ri2
2
  2  2 

i 1
1
0
1 
H
N
1   0
0
• Il calcolo delle prestazioni per N arbitrario è molto
difficile. Consideriamo per semplicità il caso di N=2.
• Sotto l’ipotesi Ho, i valori ri sono variabili indipendenti
Gaussiane a media nulla e con varianza uguale a  02 :
PF  Pr( l   / H 0 )  Pr( r12  r22   / H 0 )
• Per valutare l’espressione sopra, consideriamo le
coordinate polari:
r1  z cos 
r2  zsin
z  r12  r22
r
  tan1 2
r1
37
PERFORMANCES:
Receiver Operating Characteristic
Esempio
2

 Z2 
1
2
dZ
 Pr( z   / H 0 )   d  Z
exp 
2
 2 2 
0
 2 0


• Integrando rispetto a  otteniamo:
 Z2 
dZ
PF   Z
exp 
2
 2 2 
 0



1
• Osserviamo che la statistica sufficiente l è uguale
a z2. Facendo un cambiamento di variabili, otteniamo:
  

L 

dL  exp 
PF  
exp 
2
 2 2 
 2 2 
 2 0

0
 1
(16)
• Analogamente si trova che:
  

PD  exp 
 2 2 

1 
(17)
38
PERFORMANCES:
Receiver Operating Characteristic
Esempio
• Per costruire le curve ROC, combiniamo le equazioni
(16) e (17) per eliminare la soglia :
 02
PD  ( PF )
12
• Applicando il il logaritmo naturale si ha::
ln PD 
 02
12
ln PF
• Come ci si poteva aspettare, le prestazioni aumentano
in modo monotono con il rapporto:
 12
 02
39
PERFORMANCES:
Receiver Operating Characteristic
Proprietà
• Riprendiamo l’espressione (14) della probabilità di
falso allarme e denotiamo la soglia con ; abbiamo che:

PF   p|H 0 ( X | H 0 )dX

• Se PF() è una funzione continua di , è possibile
raggiungere un valore desiderato compreso tra 0 e 1
per la probabilità di falso allarme, scegliendo
opportunamente ;
• Supponendo vera l’ipotesi precedente (test di
verosimiglianza continuo), è possibile ricavare
alcune propietà generali delle curve ROC.
PROPRIETA’ 1
Tutti i test di verosimiglianza continui hanno curve
ROC con concavità verso il basso.
Se così non fosse, allora sarebbe meglio usare un test
discreto, e questo è in contraddizione con l’ottimalità
del test di verosimiglianza.
40
PERFORMANCES:
Receiver Operating Characteristic
Proprietà
PROPRIETA’ 2
Tutti i test di verosimiglianza continui hanno curve
ROC che stanno sopra la retta PF = PD.
Questo è un caso particolare della proprietà 1, perché
tutte le curve ROC contengono i punti (PF = 0, PD = 0) e
(PF = 1, PD = 1).
PROPRIETA’ 3
La pendenza in ogni punto delle curve ROC è uguale al
valore della soglia  richiesta per raggiungere le
probabilità PF e PD in quel punto.
Dim.

PD   p|H1 (  | H1 )d


PF   p|H 0 (  | H 0 )d

41
PERFORMANCES:
Receiver Operating Characteristic
Proprietà
Differenziando rispetto a  e facendo il rapporto
tra le due equazioni si ottiene:
dPD / d  p|H 1 (  | H1 ) dPD


dPF / d  p|H 0 (  | H0 ) dPF
(18)
Dobbiamo dimostrare che:
p|H 1 (  | H 1 )
p|H 0 (  | H 0 )

Poniamo:
 p|H (  | H 1 )

1
 (  )  R | ( R )     R
 
 p|H 0 (  | H 0 )

Quindi:
PD (  )  Pr ( R )   / H1 


(  )

(  )
pr|H1 ( R | H1 )dR 
( R ) pr|H 0 ( R | H 0 )dR
L’ultima uguaglianza segue dalla definizione del
rapporto di verosimiglianza.
42
PERFORMANCES:
Receiver Operating Characteristic
Proprietà
Usando la definizione di (), l’ultimo integrale può
essere riscritto nel seguente modo:
E R / H 0 in  

PD (  )   ( R ) pr|H 0 ( R | H 0 )dR    p|H 0 (  | H 0 )d 
 ( )

Differenziando rispetto a  otteniamo:
dPD
 p|H 0 (  | H 0 )
d
Tenendo conto dell’equazione (18) possiamo ottenere
il risultato desiderato.
PROPRIETA’ 4
Ogni volta che il massimo valore del rischio di Bayes è
interno all’intervallo (0,1) sull’asse P1, il punto del
minimax è dato dall’intersezione tra la curva ROC
appropriata e la retta
( C11  C00 )  ( C01  C11 )( 1  PD )  ( C10  C00 )PF  0
43
PERFORMANCES:
Receiver Operating Characteristic
Proprietà
Nella figura seguente, osserviamo il caso speciale
del minimax definito dalla seguente espressione:
C F PF  CM PM  CM ( 1  PD )
Osserviamo che la retta del minimax parte dal punto
(PF = 0, PD = 1) e interseca la linea PF = 1 nel punto:
CF
PF  1 
CM
44
M-IPOTESI
• Generalizziamo i concetti della teoria della decisione
al caso in cui noi dobbiamo scegliere una tra M ipotesi
possibili.
• Abbiamo una sorgente che genera M uscite;
• assumiamo di dovere fare comunque una scelta, quindi
ci sono M2 possibili alternative che possono
verificarsi ogni volta che l’esperimento viene eseguito;
• il criterio di Bayes assegna un costo ad ognuna di
queste alternative, assume un insieme di probabilità a
priori, P0, P1, … PM e minimizza il rischio;
• la generalizzazione di Neyman-Pearson è possibile,
ma in pratica viene poco usata, quindi vediamo solo
il caso del test di Bayes.
45
M-IPOTESI
• Indichiamo i costi con la notazione Cij, analogamente
al caso binario;
• Il modello è mostrato nella seguente figura:
Ho
Zo
Zo
Sorgente
Zo
Z1
HM-1
ZM-1
• L’espressione per il rischio è:
M 1 M 1
R  
 Pj Cij  pr|H j ( R | H j )dR
i 0 j 0
Zi
• Il minimo rischio viene determinato facendo variare
Zi (equivalent a def. La regola di decisione).
 i  Z j   i  j
M 1
    i  spazio osservaz
i 0
46
M-IPOTESI
=3
ESEMPIO:
• Si ha che:
Z0=Z – Z1 - Z2
perché le regioni sono disgiunte e coprono tutto Z
• Facendo qualche calcolo si ottiene:
Ci
j
 C ji
j ,i  j
R  P0C00  P1C11  P2C22 
  [ P2 ( C02  C22 ) pr|H 2 ( R | H 2 ) 
Z0
 P1( C01  C11 ) pr|H1 ( R | H1 )] dR 
  [ P0 ( C10  C00 ) pr|H 0 ( R | H 0 ) 
Z1
(19)
 P2 ( C12  C22 ) pr|H 2 ( R | H 2 )dR 
  [ P0 ( C20  C00 ) pr|H 0 ( R | H 0 ) 
Z2
 P1( C21  C11 ) pr|H1 ( R | H1 )dR 
47
M-IPOTESI
• Indicando le funzioni integrande con I0(R), I1(R) e
I2(R), abbiamo la seguente regola di decisione :
I 1(R  ) 
i ,R
se I0(R )  I1(R ) e I 2(R )  scelgo H0
se I 1(R)  I 0(R) e I 2(R)  scelgo H 1
 1 
se I 2(R)  I 0(R) e I1(R)  scelgo H 2
 2 
• Questi termini possono essere scritti in termini di
rapporti di verosimiglianza definendo:
1(R) 
 2(R) 
pr|H1 ( R | H1 )
pr|H 0 ( R | H 0 )
(20)
pr|H 2 ( R | H 2 )
pr|H 0 ( R | H 0 )
(In generale M-1 rapporti di verosimiglianza)
48
M-IPOTESI
• Usando le espressioni (19) e (20), si ottiene:
P1(C01  C11 )1(R)
H1 or H 2


P0(C10  C00 )  P2(C12  C02 ) 2(R)
H 0 or H 2
P2(C02  C22 ) 2(R)
H 2 or H1


P0(C20  C00 )  P1(C21  C01 )1(R)
H 0 or H1
P2(C12  C22 ) 2(R)
H 2 or H1


P0(C20  C10 )  P1(C21  C11 )1(R)
H 0 or H1
• Le regole di decisione corrispondono a tre linee nel
piano 1, 2 (in generale,
H 0 1 , M 1 ,quindi spazio(M  1 )  dim
 i sono def . in 
2
0
1
49
Scarica

04_teoria_decisione