Determinazione Orbitale di Satelliti
Artificiali
Lezione 5
Alessandro Caporali
Università di Padova
Stima ‘ottima’ delle costanti di
modello
In assenza di errori sistematici, la ‘migliore’ stima X0* delle p costanti X0
viene ottenuta minimizzando rispetto a X0 il funzionale



T
l


J ( X 0 )   Yi  G ( X 0 , t 0 ; t i ) Yi  G ( X 0 , t 0 ; t i )    iT  i
l
i 1
i 1
Il valore del vettore Xo che minimizza la somma dei quadrati degli scarti
‘osservato – calcolato’ (oppure ‘o-c’) è quello più probabile, naturalmente nei
limiti del numero di osservazioni e della ‘bontà’ del modello delle
osservazioni. Condizione necessaria per il minimo è che le p X0 soddisfino il
sistema di p equazioni lineari, per X0= X0* :
J
X o
l
 0, ovvero  
X 0  X 0*
i 1

 *
T G ( X 0 , t 0 , t i )
i  G ( X 0 , t 0 , t i )
X 0


0
X 0  X 0*
Linearizzazione dei modelli dei processi
e dei modelli delle misure
• Se è disponibile una stima a priori delle p costanti
incognite di modello X’0 è conveniente linearizzare:
-il modello dei processi:

X  F ( X , t)  F ( X ', t) 
F ( X , t )
X
x, ove x  X  X ' , e X '  ( X ' 0 , t 0 , t )
X X '
- il modello delle osservazioni:
G X i , t i 
Yi  G X , t i    i  G( X , t i ) 
x  i
X
X X '
'
Modelli linearizzati
F ( X , t )
A(t ) 
X
~
X X '
; H (t ) 
G ( X , t )
X
X X '


x(t )  A(t ) x(t )  x(t )   (t , t 0 ) x0 con Φ(t , t o )  A(t ) (t , t o ),  (t o , t o )  1
yi 
~
H (t ) x  
i
i
 yi 
~
H (t )(t , t
i
0
) x0   i  H (t i ) xo   i
trascurand o gli indici, il modello linearizza to delle osservazio ni diventa
y  Hx  
Minimi quadrati – Equazioni normali
Modello degli osservabili
Stima di x mediante
minimizzazione del
funzionale
y  Hx  
J   T   ( y  Hx ) T ( y  Hx )
Condizione necessaria per il minimo di J:
J
x
 0  H T ( y  Hx * )  0  H T Hx *  H T y  x *  H T H  H T y
1
x  x*
Calcolo della varianza formale di x : xxT  H T H  H T yy T H H T H   H T H   y2
1
assumendo le y scorrelate : yy T   y2 I , ove I è la matrice identità
1
1
Minimi quadrati pesati
• Si assuma che ogni residuo i abbia una
probabilità 0<=wi <=1. Allora il funzionale J viene
ridefinito come segue:
J   W
T
Ove W è una matrice diagonale i cui elementi sono wi
Minimizzazione di J:
J
T
T
T
  H W ( y  Hx )  0  ( H WH ) x  H Wy
x
Minimi quadrati con equazioni di condizione
• Minimizzazione di J, ove i parametri X sono ulteriormente soggetti a
una o più equazioni di condizione del tipo
a1(X)=0,.. an(X)=0
• Linearizzazione delle eq.i di condizione:
a j (X )  a j (X ') 
a j
X
x0
X X '
• In pratica, disponiamo di ulteriori n equazioni di osservazione, una per
vincolo, e ciascuna affetta da un errore :
y  Hx  
a j (X ) a j (X ' ) 
a j
X
x
X X '
Minimi quadrati con informazioni a priori sui
parametri (1/2)
Si consideri il sistema di osservazioni
yi  H (t i ) x   i , (i  1,...l )

x k  x k   k (k  1, m  p, numero deiparametri da stimare)
Tale sistema descrive la circostanza che dei p parametri incogniti
di modello, m sono noti a priori con una certa incertezza . Questo
è il caso ad es.per il GM terrestre, o per certi coefficienti del campo
gravitazionale terrestre, che sono fissati convenzionalmente. Possiamo scrivere:
 y  H

 x  0
Assumiamo
0
 
x 

I
 


E k ,  l   Rk  kl ; Ek ,l   Pkl , E  k , ( x j  x 'j )  E k ,l   0
Minimi quadrati con informazioni a priori sui
parametri (2/2)
• Introdotta una matrice di peso delle osservazioni in questi termini:
 R 1
W 
 0
0 

P 1 
le equazioni delle osservazioni, incluse l’osservazione diretta dei parametri,
sono:
T
T
 H 0
 H 0
H
W
x

 0 I
 0 I
0





la cui soluzione è

1
x H R H P
T
 H
1 1
T
0
 y
W
 x
I 
 
R 1 y  P 1 x
la covarianza dei parametri è, infine,

 
E x, x T  H T R 1 H  P 1

1

Propagazione della stima e della covarianza
• Nota la stima di xj=x(tj) a un’epoca tj, fatta sulla base di osservazioni
y1,..,yj, nonché la covarianza Pj associata, si tratta di predirre all’epoca
tk (ad es. successiva) xk e Pk

x j  E x j y1 ,..., y j





x k  E x k y1 ,..., y j  (t k , t j ) E x j y1 ,..., y j propagazio ne della stima




P k  E ( x k  x k )( x k  x k ) T y1 ,..., y j  (t k , t j ) E ( x j  x j )( x j  x j ) T  T (t k , t j )  (t k , t j ) Pj  T (t k , t j )
propagazio ne della covarianza . In definitiva :
x k  (t k , t j ) x j
P k  (t k , t j ) Pj  T (t k , t j ) (sostanzia lment una ' rotazione' di P di un ' angolo' t k  t j
Filtro di Kalman vs. Minimi quadrati
Propagazio ne al tempo t k di una stima al tempo t j :
^
stato : x k  (t k , t j ) x j
covarianza : P k  (t k , t j ) Pj  T (t k , t j )
Si consideri l' osservazio ne a t k : y k  H k x k   k
^
Calcolo di x k , Pk :
Minimi
quadrati
Filtro di Kalman
1  1 T 1
1
T 1


H
R
H

P
H
R
y

P
xk  k k k k   k k k k xk
^

 
1  1
T 1

Pk  H k Rk H k  P k 





K k  P k H kT H k P k H kT  Rk
^

x k  x k  K k yk  H k x k
Pk I  K k H k P k


1
Esempio numerico
•
1.
2.
3.
4.
5.
6.
7.
8.
9.
Excel può essere usato per il problema piano ‘ranging da una Terra
puntiforme’:
Genera robs=a(1-e*cos(E-E0)), E=0..360, ponendo ad es a=6578137 m,
e=0.3, E0=1
Genera rcalc =a(1-e*cos(E-E0)), E=0..360, ponendo ad es a=6378137
m, e=0.5, E0=0
Genera robs-rcalc, E=0,360
Genera Ha=(1-e*cos(E-E0)), He=-a*cos(E-E0),HE0=-a*e*sin(E-E0)
Minimi quadrati: Risolvi per Da, De,DE0 con la funzione REGR. LIN
Filtro di Kalman: assegna valori a priori per Dx eP0
Calcola il guadagno del Filtro K
Aggiorna Dx e P sequenzialmente
Filtro esteso: aggiorna le derivate parziali, rcalc e robs-rcalc man mano che
diventano disponibili stime aggiornate di x+ Dx
Scarica

Lezione 5 Teoria della stima Minimi quadrati/ Filtro di Kalman