Cifre significative
Misura
Valore (s)
1
1.8
2
1.9
3
2.0
4
1.9
5
1.8
6
2.0
7
1.8
t 1.885714286 s
t 1.9 s
Valore
Cifra incerta
Cifra piu’
significativa
Numero di
cifre
significative
1.9
9
1
2
1.90
0
1
3
1.900
0
1
4
3751
1
3
4
10.10
0
1
4
0.0000002203
3
2
4
0.0000002200
0
2
4
3200
2
3
2
1.900 più preciso di 1.900 che è più preciso di 1.90.
L’errore deve avere la stessa precisione della misura a cui si riferisce.
3200 ha 2 cifre significative ma se volessimo affermare che ne ha 4 allora
scriveremmo 3.200 x 103
Per convenzione gli errori si arrotondano ad 1 cifra significativa
ma in alcuni casi è opportuno usarne 2.
Ad es. se dx = 0.0188761223011 allora dx = 0.02 (1 cifra significativa)
Ma se dx = 0.014178900113 allora dx = 0.014 (2 cifre significative) poiché
dx = 0.01 perde il 40% di informazione!!!
Quando si fanno dei calcoli la regola è che la misura finale e l’errore siano
dello stesso ordine di grandezza.
Ad es. non è valido
92.81 ± 0.3 poichè l’incertezza è sui decimi diventa 92.8 ± 0.3
Se l’errore fosse 3 allora 93 ± 3
Se l’errore fosse 30 allora 90 ± 30
Consideria mo una funzione esponenzia le
yi  Ae Bxi
Qui y ed x non seguono una relazione lineare
Linearizza zione
ln y  ln A  Bx
z  ln y
z  ln A  Bx
Quindi (x i , y i )  (x i , z i )
ma se le y avevano incertezza costante  y ora le z  ln y
hanno incertezza  z 

dz
y  y
dy
y
che non è piu' costante poiche' y varia, quindi a rigore non potremmo applicare il metodo dei minimi quadrati.. ...
Dobbiamo calcolare A e B usando il metodo dei minimi quadrati pesati
Se conoscessi mo le costanti A e B potremmo calcolare, per ogni x i il valore vero di Yi
Yi  A  B xi e  i rappresent a la larghezza della gaussiana centrata su Yi
La probabilit à di ottenere il valore osservato y i sarà
PA, B ( yi ) 
1
y

 yi  A  Bxi 2
2 y2
e
PA, B ( y 1 ,.... y N )  PA, B ( y1 ) ....PA, B ( y N )
ma poichè ogni incertezza sarà diversa
PA, B ( y 1 ,.... y N )  PA, B ( y1 ) ....PA, B ( y N ) 
P( y1 ) 
1
 12
1
1
2 12
; P ( y2 ) 
e

w1  y1  A  Bx1 2
2
N
1

e


1
2
; P ( y2 ) 
P( y 1 ,.... y N )  P( y1 ) ....P ( y N ) 
 i 1
 yN
e

2
N
2
 2 
con
 yi  A  Bxi 2
i 1
 y2
 y2  A  Bx2 2
2 22
e
; etc.
 w2 ; etc.
 22
1
 y1  A  Bx1 2
e
1
 w1 ;
P( y1 ) 

1
1
*2
2
1
1
N
1
2
e

e

w2  y 2  A  Bx2 2
2
w1  y1  A  Bx1 2
2

1
2
; etc.
e

w2  y 2  A  Bx2 2
2
.......
con  *   wi  yi  A  Bx i 
2
2
i 1
La probabilit à è massima quando l' esponente assume il valore minimo
 *  *

0
A
B
2
ossia quando
2
N
 *
  2  wi  yi  A  Bx i   0
A
i 1
2
N
 *
  2 xi wi  yi  A  Bx i   0
B
i 1
2
N
 *
  2  wi  yi  A  Bx i   0
A
i 1
2
N
 *
  2 xi wi  yi  A  Bx i   0
B
i 1
2
N



w
y

A

Bx

0

i
i
i


 i 1

N

 x w  y  A  Bx   0
i i
i
i


i 1
N
N

y
w

A
w

B
wi xi


i
 i i

 i 1

i 1
N
 Equazioni normali
N
N
2
 x y w A w x B w x 


i i i
i i
i i


i 1
i 1
i 1
 wx  wy   wx wxy
A
2
B

 w wxy   wx wy

   w wx 2   wx 
2
Calcolo coefficienti A e B di una retta del tipo
y=A+Bx
con il metodo dei minimi quadrati
A
 x  y    x  x y / 
2
i
i
i
i
i
  x y    x  y / 
B N
N
i
i
i
 x    x 
2
i
2
i
i
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
; Linear fit
c10=c0^2; X^2
c11=c0*c1; X*Y
c2=npts(c0)*csum(c10)-(csum(c0))^2; Denominatore per A e B
c3=(csum(c10)*csum(c1)-csum(c0)*csum(c11))/c2; Calcolo di A
c4=(npts(c0)*csum(c11)-csum(c0)*csum(c1))/c2; Calcolo di B
c5=csum(c0)/npts(c0); media dei valori X
c6=csum(c1)/npts(c1); media dei valori Y
c12=c0-c5; X-X(medio)
c13=c1-c6; Y-Y(medio)
c14=c12*c13; [X-X(medio)]*[Y-Y(medio)]
c15=(c12)^2; [X-X(medio)]^2
c16=(c13)^2; [Y-Y(medio)]^2
c7=csum(c14); Covarianza
c8=sqrt(csum(c15)*csum(c16)); Prodotto deviazioni standard
c9=c7/c8; r
In molte titolazioni eseguite tramite metodi spettroscopici 2 composti
interagiscono e si osserva la variazione di un parametro secondo un’equazione del
tipo
do=dbb + dff
dove
do= variazione del segnale che si osserva durante la titolazione
db= variazione del segnale che si osserva alla fine della titolazione
do= variazione del segnale che si osserva all’inizio della titolazione
Assumendo un’equilibrio del tipo
R + L ↔ RL
dove R potrebbe essere un recettore ed L un ligando. Quindi
b = frazione molare della specie legata (R o L)
f = frazione molare della specie libera (R o L)
Provare ad ottenere una serie di dati con
KD=0.01; f =7; b =10
R va da 0.001 a 0.01 in step di 0.0005
L va da 0.010 a 0.10 in step di 0.005
ed eventualmente risolvere il problema del fit
d o   f d f  bd b
 f   b 1   f 1  b
d o  1  b d f   b d b
d o  d f   b d b d f 
x   b ; y d o
 b dipende da K D che non conosco
b 
RL
Ro

Ro  R  RL ;
Lo  L  RL
 Lo  RL 
R  L Ro  RL 

RL
RL
2
K D RL  Ro Lo  Ro RL  Lo RL  RL 
KD 
RL  2  RL Ro  Lo  K D  Ro Lo  0
Ro  Lo  K D  Ro  Lo  K D 2  4Ro Lo
RL 
2
RL Ro  Lo  K D  
b 

Ro
Ro  Lo  K D 2  4Ro Lo
2 Ro
1) Inserisci KD
2) Calcola b
3) Tramite minimi quadrati trova intercetta e pendenza della retta
4) Con i valori di intercetta e pendenza calcola dc
5) Calcola la somma quadratica degli errori tra dc e do e tieni in memoria il
valore (Error)
Torna al punto 1)
Il valore minore di Error corrisponde alla miglior KD
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
; c0= observed; c1=Receptor; c2= Ligand
;
;Kd=cell(0,5)
c10=((cell(0,5)+c1+c2)-sqrt((cell(0,5)+c1+c2)^2-4*c1*c2))/(2*c1);
bound fraction
; Linear fit
c11=c10^2; X^2
c12=c10*c0; X*Y
c13=npts(c10)*csum(c11)-(csum(c10))^2; Denominatore per A e B
c14=(csum(c11)*csum(c0)-csum(c10)*csum(c12))/c13; Calcolo di A
c15=(npts(c10)*csum(c12)-csum(c10)*csum(c0))/c13; Calcolo di B
c16=c10*c15+c14;
c17=(c16-c0)^2;
c18=csum(c17);
;Kd=cell(1,5)
……..
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
;grafico errore
cell(0,6)=csum(c17);
cell(1,6)=csum(c27);
cell(2,6)=csum(c37);
cell(3,6)=csum(c47);
cell(4,6)=csum(c57);
cell(5,6)=csum(c67);
cell(6,6)=csum(c77);
cell(7,6)=csum(c87);
cell(8,6)=csum(c97);
cell(9,6)=csum(c107);
cell(10,6)=csum(c117);
cell(11,6)=csum(c127);
cell(12,6)=csum(c137);
cell(13,6)=csum(c147);
cell(14,6)=csum(c157);
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
cell(0,7)=log(cell(0,5));
cell(1,7)=log(cell(1,5));
cell(2,7)=log(cell(2,5));
cell(3,7)=log(cell(3,5));
cell(4,7)=log(cell(4,5));
cell(5,7)=log(cell(5,5));
cell(6,7)=log(cell(6,5));
cell(7,7)=log(cell(7,5));
cell(8,7)=log(cell(8,5));
cell(9,7)=log(cell(9,5));
cell(10,7)=log(cell(10,5));
cell(11,7)=log(cell(11,5));
cell(12,7)=log(cell(12,5));
cell(13,7)=log(cell(13,5));
cell(14,7)=log(cell(14,5));
10bp DNA titrated with C-HNS
2.0
1.4
1.2
1.0
0.8
Kd = 3·10-6
0.6
0.4
0.2
0.1
0.0
14.50
ppm (t1)
14.00
13.50
13.00
12.50
12.00
C-HNS/DNA
G26
12,34
12,32
12,3
12,28
12,26
12,24
12,22
12,2
-0,5
0
0,5
1
1,5
2
2,5
[Ligand]/[Receptor]
3
3,5
Analysis G26
0,004
0,0035
0,003
0,0025
0,002
0,0015
0,001
0,0005
0
0
-2
-4
-6
Log K
d
-8
-10
Un caso limite si ha se l' affinita' e' bassa.
In tal caso
RL
b 
 Ro  R  RL; Lo  L
Ro
R L Ro  RL Lo

RL
RL
K D RL Ro Lo  Lo RL
KD 
RL 
Ro Lo
Lo  K D
b 
RL
Lo

Ro Lo  K D
d o   f d f  bd b
 f   b 1   f 1  b
d o  1  b d f   b d b
d o  d f   b d b d f 
d o  d f  b d b d f 
1
1

d o  d f  b d b d f

1
L K D
 o
d o  d f Lo d b d f

1
KD
1


d o  d f Lo d b d f  d b d f
ponendo

1
1
y e
x
do d f
Lo
La retta risultante avra' come intercetta
e come pendenza
KD
d b d f
da cui si ricava K D

1
d b d f

G26 retta
1,4 10
5
y = 4,1309 + 0,00065087x R= 0,99695
1,2 10
1 10
8 10
6 10
4 10
2 10
5
5
KD = 1.6 ∙ 10-4
4
4
4
4
0
0
20
40
60
1/(observed-free)
80
100
Per un equilibrio del tipo P  A  PA con P  Proteina, Recettore ed A  Ligando
nKA
PA
PA
r
;
dove r 
;K 
;
1 KA
PT
P A
n  numero di siti identici aventi la stessa K a
Esistono varie linearizza zioni di questa equazione
1 1 1 1
 

r n nK A
A 1 1

 A
r nK n
r
 Kn  Kr detta Scatchard plot
A
Se esistono m classi di siti indipenden ti, ciascuna classe con n siti con la stessa K a
m
nK A
r   i i ; dove no 
i 1 1  K i A
m
n
i 1
i
è il numero totale di siti
non avremo piu' delle rette ma delle curve da cui è ancora possibile estrarre
i valori corretti ma non come spesso erroneamen te si crede
Ad esempio uno Scatchard plot in questo caso assume la seguente forma
Questo viene talvolta ( spesso) interpreta to come costituito da 2 rette
le cui rispettive pendenze sono le diverse affinità di 2 classi diverse di
siti e le 2 intercette sull' asse X il numero n di siti per ogni classe
in caso di equilibri multipli
PAi 1  A  PAi
Ki 
PAi
; costante di equilibrio stechiomet rico
PAi 1  A
B  moli di A legato per moli di recettore
B

....K  L  ...  K

 L
K1  L  2  K1  K 2  L2  ...  i K1  K 2 ....K i  Li  ...  n K 1  K 2 ....K n  Ln
1 K1  L  K1  K 2  L2  ...  K1  K 2
i
i
1
 K 2 ....K n
n
Come rappresentare i dati ?
1)Scala diretta r vs. L
Ma i punti possono essere poi troppo ravvicinati e non permette di capire quando si è
giunti a saturazione
2) Scala semi-logaritmica
Permette di capire quando si sia effettivamente giunti a saturazione. Anche se non
permette un’analisi quantitativa dei dati è molto utile per capire se il nostro
esperimento è giunto a conclusione
3) Altre forme di grafico, ad es. Scatchard plot.
Possono essere causa di errori se non utilizzate opportunamente.
Scatchard plot
L’intercetta sull’asse X rqppresenta il
numero di siti di legame nel caso di n
siti identici e indipendenti.
Scatchard plot
L’intercetta sull’asse X rqppresenta il
numero di siti di legame nel caso di n
siti identici e indipendenti.
Estrapolare l’intercetta sull’asse delle
ascisse può dare risultati controversi.
Inoltre la concavità può esser dovuta:
1) Siti con diversa affinità e non
interagenti tra di loro
2) Siti diversi la cui affinità cambia
durante il binding (cooperatività)
Scatchard plot
L’intercetta sull’asse X rqppresenta il
numero di siti di legame nel caso di n
siti identici e indipendenti.
Estrapolare l’intercetta sull’asse delle
ascisse può dare risultati controversi.
La concavità è stata erroneamente
attribuita a 2 specie con diversa
affinità e le costanti di equilibrio
stimate in modo errato.
PLi 1  L  PLi
per ogni passaggio si può definire una costante di equilibrio stechiometrico K i
Ki 
r
PLi
PLi 1  L
K1L  2 K1K 2 L2 ... nK1K 2 ...K n Ln
1 K1L  K1K 2 L2 ... K1K 2 ...K n Ln
un fit di r vs. L permette il calcolo delle K
Una forma alternativa di scrivere r è la seguente
r
K L
KL
K L  K L
  ...    
1 K  L 1 K  L
1 K L  1 K  L
dove il numero di termini eguaglia il numero di siti.
Le costanti calcolate in questo modo non riflettono in alcun modo
le costanti di equilibrio e non hanno un significat o fisico.
Sono detti costanti fantasma e possono essere reali o immaginari e.
Ma sono legate alle costanti di equilibrio .
Ad es. se è noto che esistono 2 siti di legame
K L
K1L  2 K1K 2 L2
K L
 r   
2
1 K  L 1 K  L
1 K1L  K1K 2 L
da cui si ricava
K1  K  K 
K1K 2  K K 
Site binding constant
se consideria mo le costanti sito specifiche la situazione diventa molto più complessa.
Ad es. in un sistema con 2 siti di legame il ligando puo' legarsi prima al sito 1 e poi al sito 2
o viceversa e la seconda costante può risentire del primo binding
Avremo cioè
P  L  1PL
con costante sito specifica k1
1
PL  L  1, 2 PL2
P  L  2 PL
2
PL  L  1, 2 PL2
con costante sito specifica k1, 2
con costante sito specifica k 2
con costante sito specifica k 2,1
e le 4 costanti possono essere diverse
cioè il legame ad un sito influenza il legame al sito successivo !!!
Numero di siti di
legame
Numero totale di
costanti sito
specifiche, k1
Numero di costanti
sito specifiche
indipendenti
Numero di costanti
di legame
stechiometriche, Ki
Numero di costanti
di legame fantasma,
K
2
4
3
2
2
3
12
7
3
3
4
32
15
4
4
6
192
63
6
6
8
1024
255
8
8
12
24576
4095
12
12
t-test di Student
2 campioni con
lo stesso numero
di elementi
n1 = n 2
Quindi va calcolata la differenza tra i due valori medi in rapporto alle larghezze di
riga, ossia in rapporto alle deviazioni standard dalla media
t
x1  x2

L' errore nella differenza tra due medie è la
differenza nelle deviazioni s tan dard dalla
media, presa in quadratura.
2
2
  
  
  1    2  
 n 
 n 
 1
 2
ma poichè n1  n2  n
 
t
t
 12   22
n
x1  x2

x1  x2
s12  s22
n
 12
n1

 22
n2
Se i 2 gruppi hanno un numero diverso
di elementi n1  n2 allora la var ianza terrà
conto del gruppo più numeroso
n1 s12  n2 s22
 
n1  n2
2
in realtà

2

n1  1 s12  n2

 1s22
n1  n2  2
che va divisa per il numero di elementi
( poichè è la deviazione s tan dard dalla media )
1
1

n1 n2
quindi
t
x1  x2
n1  1 s12  n2
 1s22
n1  n2  2
1
1
  
 n1 n2 
Partecipante
n1
x1
Controllo
35
31
29
22
25
23
28
39
41
29
30
28
37
39
38
30
33
31
33
29
10 n2
35 x2
10
27
In questo caso n1  n2 10

 1, 2 
xi
i
 
t
 x
n 1
2
 12   22
n
x1  x2

 12  20.7;  22  16.0;
  1.915; x1  x2  8;
t
8
1.915
 4.178
p (0.05)  2.10
t  p (0.05) molto significat ivo
2 popolazion i dist int e
F test
Abbiamo una serie di dati e vogliamo analizzarli con un’equazione.
Y= 0 + 1x1 + 2x2 + 3x1x2 (forma ridotta)
Scopriamo che un’equazione più complessa risulta in un fitting migliore
Y= 0 + 1x1 + 2x2 + 3x1x2 + 4x12 + 5x22 (forma completa)
Il fitting migliore è dovuto ad un’equazione che realmente fitta meglio i
dati o semplicemente all’aggiunta di altri parametri?
Se il modello più semplice è corretto l’aumento relativo della somma dei
quadrati è dello stesso ordine dell’aumento relativo dei gradi di libertà.
(RSS1-RSS2)/RSS2 ~ (p1-p2)/p2
RSS 
n
 y 
i 1
f ( xi )
2
Se il modello più complicato è corretto l’aumento relativo della somma dei
quadrati è maggiore dell’aumento relativo dei gradi di libertà.
(RSS1-RSS2)/RSS2 > (p1-p2)/p2
1 si riferisce al modello più semplice, 2 a quello più complicato, p sono i
gradi di libertà ed RSS la somma delle differenze dei quadrati.
Possiamo dare una valutazione quantitativa?
Qual’ è la probabilità che un modello più complesso spieghi meglio i dati
perché si adatta meglio e non perché contiene semplicemente più variabili?
 RSS1  RSS 2 


p2  p1 
F 
;
RSS 2
n  p2
RSS 
n
  yi
i 1
 f ( xi ) ;
2
n  numero di punti sperimentali ;
p  gradi di libertà ;
Se F  F( 1 , 2 ) l ' ipotesi più semplice viene rigettata
2
Upper critical values of the F
Distribution for 1 numerator
degrees of freedom and 2
denominator degrees of freedom
5% significance level
F.05(1,2)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
\ 1
1
2
3
4
5
6
7
8
9
10
161.448 199.500 215.707 224.583 230.162 233.986 236.768 238.882 240.543 241.882
18.513 19.000 19.164 19.247 19.296 19.330 19.353 19.371 19.385 19.396
10.128 9.552 9.277 9.117 9.013 8.941 8.887 8.845 8.812 8.786
7.709 6.944 6.591 6.388 6.256 6.163 6.094 6.041 5.999 5.964
6.608 5.786 5.409 5.192 5.050 4.950 4.876 4.818 4.772 4.735 6
5.987 5.143 4.757 4.534 4.387 4.284 4.207 4.147 4.099 4.060 7
5.591 4.737 4.347 4.120 3.972 3.866 3.787 3.726 3.677 3.637 8
5.318 4.459 4.066 3.838 3.687 3.581 3.500 3.438 3.388 3.347 9
5.117 4.256 3.863 3.633 3.482 3.374 3.293 3.230 3.179 3.137 10
4.965 4.103 3.708 3.478 3.326 3.217 3.135 3.072 3.020 2.978 11
4.844 3.982 3.587 3.357 3.204 3.095 3.012 2.948 2.896 2.854 12
4.747 3.885 3.490 3.259 3.106 2.996 2.913 2.849 2.796 2.753 13
4.667 3.806 3.411 3.179 3.025 2.915 2.832 2.767 2.714 2.671 14
4.600 3.739 3.344 3.112 2.958 2.848 2.764 2.699 2.646 2.602 15
4.543 3.682 3.287 3.056 2.901 2.790 2.707 2.641 2.588 2.544 16
4.494 3.634 3.239 3.007 2.852 2.741 2.657 2.591 2.538 2.494 17
4.451 3.592 3.197 2.965 2.810 2.699 2.614 2.548 2.494 2.450 18
4.414 3.555 3.160 2.928 2.773 2.661 2.577 2.510 2.456 2.412 19
4.381 3.522 3.127 2.895 2.740 2.628 2.544 2.477 2.423 2.378 20
4.351 3.493 3.098 2.866 2.711 2.599 2.514 2.447 2.393 2.348 21
4.325 3.467 3.072 2.840 2.685 2.573 2.488 2.420 2.366 2.321 22
4.301 3.443 3.049 2.817 2.661 2.549 2.464 2.397 2.342 2.297 23
4.279 3.422 3.028 2.796 2.640 2.528 2.442 2.375 2.320 2.275 24
4.260 3.403 3.009 2.776 2.621 2.508 2.423 2.355 2.300 2.255 25
4.242 3.385 2.991 2.759 2.603 2.490 2.405 2.337 2.282 2.236 26
4.225 3.369 2.975 2.743 2.587 2.474 2.388 2.321 2.265 2.220 27
4.210 3.354 2.960 2.728 2.572 2.459 2.373 2.305 2.250 2.204 28
4.196 3.340 2.947 2.714 2.558 2.445 2.359 2.291 2.236 2.190 29
4.183 3.328 2.934 2.701 2.545 2.432 2.346 2.278 2.223 2.177 30
4.171 3.316 2.922 2.690 2.534 2.421 2.334 2.266 2.211 2.165 31
4.160 3.305 2.911 2.679 2.523 2.409 2.323 2.255 2.199 2.153 32
4.149 3.295 2.901 2.668 2.512 2.399 2.313 2.244 2.189 2.142 33
4.139 3.285 2.892 2.659 2.503 2.389 2.303 2.235 2.179 2.133 34
4.130 3.276 2.883 2.650 2.494 2.380 2.294 2.225 2.170 2.123 35
4.121 3.267 2.874 2.641 2.485 2.372 2.285 2.217 2.161 2.114 36
4.113 3.259 2.866 2.634 2.477 2.364 2.277 2.209 2.153 2.106 37
4.105 3.252 2.859 2.626 2.470 2.356 2.270 2.201 2.145 2.098 38
4.098 3.245 2.852 2.619 2.463 2.349 2.262 2.194 2.138 2.091 39
4.091 3.238 2.845 2.612 2.456 2.342 2.255 2.187 2.131 2.084 40
4.085 3.232 2.839 2.606 2.449 2.336 2.249 2.180 2.124 2.077 41
4.079 3.226 2.833 2.600 2.443 2.330 2.243 2.174 2.118 2.071 42
4.073 3.220 2.827 2.594 2.438 2.324 2.237 2.168 2.112 2.065 43
4.067 3.214 2.822 2.589 2.432 2.318 2.232 2.163 2.106 2.059 44
4.062 3.209 2.816 2.584 2.427 2.313 2.226 2.157 2.101 2.054 45
4.057 3.204 2.812 2.579 2.422 2.308 2.221 2.152 2.096 2.049 46
4.052 3.200 2.807 2.574 2.417 2.304 2.216 2.147 2.091 2.044 47
4.047 3.195 2.802 2.570 2.413 2.299 2.212 2.143 2.086 2.039 48
4.043 3.191 2.798 2.565 2.409 2.295 2.207 2.138 2.082 2.035 49
4.038 3.187 2.794 2.561 2.404 2.290 2.203 2.134 2.077 2.030 50
4.034 3.183 2.790 2.557 2.400 2.286 2.199 2.130 2.073 2.026
Esempio: distinguere tra una singola esponenziale ed una somma contenente
2 o 3 esponenziali per il fitting dei dati.
Model
No. parameters
1
2
3
2
4
6
n = 55
S
1843
69.01
61.95
F(2,49)
exponential
2.79
F(2,49) table
@80% CL= 2.42
@90% CL= 3.19
Run test
np = numero di residuals positivi
nn = numero di residuals negativi
R = numero di “runs” attesi
R2 = varianza di R
nR = numero di “runs” osservati
Scarica

SlidesCorso2009_2010