MODELLI NON PARAMETRICI
Uso dei Modelli in Statistica
• Modelli come generalizzazione delle
procedure
* Modello Lineare Generale (GLM)
* Regressione Logistica
• Modelli come descrizione di realtà
sperimentali complesse
*
*
*
*
Analisi Fattoriale
MDS
Analisi delle corrispondenze
Modello di Rasch
Analisi dei Modelli
1.
2.
3.
4.
Definizione del modello
Stima dei parametri
Valutazione della bontà del modello
(**Calcolo della significatività**)
Modelli a struttura
PREDETERMINATA
• Definizione della struttura del modello
sulla base di ipotesi a priori
• Stima del valore dei parametri
• Calcolo dei limiti di confidenza dei
parametri
• Calcolo della significatività
* Ipotesi nulla: parametri = 0
* Possibile inferenza
Modelli a struttura
STIMATA
• Stima della struttura del modello sulla base
dei dati sperimentali
• Stima del valore dei parametri
• *Calcolo dei limiti di confidenza dei
parametri
• *Calcolo della significatività (su nuovi dati
sperimentali)
* opzionale: calcolato solo in alcune situazioni
* Ipotesi nulla: valori sperimentali = valori del modello
* Solo valore descrittivo
Ipotesi nulla
• Test statistici creati per la falsificazione
dell’ipotesi nulla
• Asimmetria delle zone di falsificazione
e non-falsificazione dell’ipotesi nulla
• Inadeguatezza dei test per la conferma
dell’ipotesi nulla
Analisi della Regressione Lineare
Analisi della Regressione Polinomiale
100
90
80
70
60
50
40
potenza 1
potenza 3
30
potenza 5
20
0
5
10
15
20
25
30
35
40
Materiali e metodi
• 116 studenti divisi in modo random in
due sottogruppi
• Questionario sulle modalità di utilizzo
di Internet a cinque sottoscale con
punteggi da -4 a +4
• Analisi Fattoriale e Analisi della
Regressione
Analisi Fattoriale
Gruppo 1
Componenti
Sottoscale
1
2
A
0.792
-0.015
B
0.002
0.804
C
0.001
0.825
D
0.608
0.109
E
0.743
-0.109
Sottoscale
A
B
C
D
E
Gruppo 2
Componenti
1
2
0.761
-0.239
0.083
0.884
-0.066
0.197
0.823
0.310
0.461
-0.569
3
0.051
0.247
0.925
-0.073
0.514
Regressione Multipla
Gruppo 1
Model
Gruppo 2
Model
Unstandardized Coefficients
Standardized
t Coefficients
Sig.
B
Std. Error Beta
1 (Constant)
0.971
0.443
2.191
B
0.018
0.117
0.020
0.154
C
-0.014
0.121
-0.015
-0.116
D
0.176
0.118
0.189
1.489
E
0.402
0.147
0.346
2.730
Unstandardized Coefficients
Standardized
t Coefficients
Sig.
B
Std. Error Beta
1 (Constant)
1.388
0.528
2.626
B
-0.033
0.109
-0.044
-0.307
C
-0.043
0.115
-0.051
-0.374
D
0.217
0.109
0.263
1.985
E
0.331
0.162
0.287
2.052
0.033
0.878
0.908
0.142
0.009
95% Confidence Interval for B
Lower Bound
Upper Bound
0.082
1.860
-0.217
0.254
-0.257
0.229
-0.061
0.412
0.107
0.698
0.011
0.760
0.710
0.052
0.045
95% Confidence Interval for B
Lower Bound
Upper Bound
0.328
2.448
-0.252
0.185
-0.274
0.188
-0.002
0.435
0.007
0.655
Conclusione
 Nei modelli a struttura PREDETERMINATA
l’affidabilità dei parametri viene misurata
dalla loro variabilità, dai limiti di confidenza
che delimitano la regione entro cui potrebbe
trovarsi la ‘vera’ relazione, se le ipotesi sul
modello sono corrette
Conclusione
 Nei modelli a struttura STIMATA, la struttura
del modello viene determinata sui dati
sperimentali ma la variabilità del numero dei
parametri non viene fornita. Viene fornita
una misura della loro capacità di
rappresentare in modo ‘ADEGUATO’ i dati
sperimentali
CONFRONTO FRA
MODELLI PARAMETRICI E
NON PARAMETRICI
“Accuracy and certainty are competitors:
The surer we want to be,
the less we must demand”
Basic Ideas of Scientific Sampling di Alan Stuart, Griffin, London 1968
Variabili Qualitative
• In alcuni casi il fenomeno in esame può essere
valutato solo da variabili qualitative (Es.
dipendenza o non dipendenza da droga)
• VANTAGGI: corrispondono a situazioni più
definite (presenza o assenza di una patologia)
• SVANTAGGI: minor precisione nella misura
TEST NON PARAMETRICI
Una serie di dati
- Binomiale
- Chi quadrato
Due serie di dati correlati
- McNemar (proporzioni)
- Segno (distribuzione dei valori)
- Wilcoxon
Più serie di dati correlati
- Friedman
Due serie di dati indipendenti
- Mann-Whitney
- Kolmogorov-Smirnov
Più serie di dati indipendenti
- Kruskall-Wallis
MODELLI NON PARAMETRICI
Misure di associazione
• Tavole di contingenza: associazione fra due
variabili qualitative
• Modelli Log-Lineari: associazione fra più variabili
qualitative
Modelli Regressivi
• Regressione Logistica: modello generale in cui è
possibile esprimere una variabile qualitativa
(dicotomica) come funzione di una o più variabili
sia qualitative che quantitative.
Regressione Logistica
• Modello a struttura PREDETERMINATA per
variabili qualitative dicotomiche
• Tecnica non parametrica
Regressione Logistica
Procedura
1. La variabile è trasformata in logit ovvero
legata ai fattori che la influenzano da una
funzione logaritmica
logit (variabile)= b0 + b1  x1 + b2  x2 …
Regressione Logistica
Trasforma la variabile qualitativa dicotomica (evento, non
evento) in una variabile quantitativa utilizzando il
parametro odds
p(evento)
odds 
p(non evento)
• 1.Variabile
0,1
• 2.Probabilità 0
• 3.Odds
0
1

Regressione Logistica
Per poter utilizzare una equazione nel campo dei
numeri reali si esegue una ulteriore trasformazione
logarimica che prende il nome di logit
Odds
logit
(valore - --- 0 --- +)
p(evento)
logit  log
p(nonevento)
Regressione Logistica
• Logaritmo: funzione inversa dell’esponente
• Logaritmo naturale (Ln) di x è l’esponente
da dare a e (numero naturale e = 2.718) per
ottenere x
• Ln 5 = 1.6 perché 2.718 1.6 = 5
Regressione Logistica
Proprietà dei logaritmi
• Ln 1 = 0
• Ln 0 = - 
• Ln +  = + 
Regressione Logistica
La variabile può essere vista come funzione
dei fattori in un modello regressivo:
logit (variabile)= b0 + b1  x1 + b2  x2 + b3  x3
odds(var)  e  e
b0
b1  x1

Regressione Logistica
2. Procedura: VALUTAZIONE
della Bontà del modello - stima dei
parametri b
Diversi metodi di approssimazione
– A blocchi: valuta tutti i parametri assieme tramite il
criterio di tolleranza (esclude le variabili che apportano
poca informazione al modello)
– Per passi o per esclusione: toglie o aggiunge i
parametri a seconda dell’apporto di questi alla
significatività del modello
Regressione Logistica
Procedura
2. Stima dei Parametri (b)
viene fatta con metodo a
successive approssimazioni.
Il loro significato si può dedurre dall’odds ratio:
O.R. 
odds x1 1
odds x1 0
b1 1
e  e    b1

e
b0
e 
b0
Regressione Logistica
• Nella regressione logistica il modello non è lineare
ma esponenziale e i parametri vengono scelti
attraverso il principio del massimo likelyhood
• Il likelyhood ratio, utilizzato anche per il modello
Log lineare, è la probabilità che i dati sperimentali
siano stati generati dal modello
Regressione Logistica
3. Valutazione della bontà del modello
Statistica Wald
 b 
Wald  

 SE 
2
Tuttavia, la statistica Wald non può esser usata da sola poiché quando
il valore assoluto di b diventa molto grande, l’errore standard sarà
anche esso grande e la statistica Wald assumerà valori molto piccoli
che facilmente falsificheranno l’ipotesi nulla anche quando non
sarebbe da falsificare.
Regressione Logistica
Significatività
La significatività dei parametri relativi
ai fattori si può anche verificare
attraverso l’intervallo di confidenza
attorno all’esponenziale di b per ciascun
fattore
Regressione Logistica
La regressione logistica fornisce le
significatività per:
 il modello globale
 i singoli parametri, togliendo gli effetti dei
parametri già considerati
Regressione Logistica
Il contributo di ciascun fattore e il senso
della sua influenza sulla variabile
dipendente è stimato attraverso
l’esponenziale di b (odds ratio)
Expb1  
oddsb1 1
oddsb1 0

oddsb1
oddsb0
e b0 b1 e b0  e b1
b1
 b0 

e
e
e b0
Regressione Logistica
Esempio
logit (risposta aggressiva)= b0 + b1  x1 + b2  x2+ b3  x3
Dove il logit della probabilità di rispondere in modo aggressivo è visto
in funzione di una costante b0 sommata al contributo dato da
ciascun fattore al quale il modello ha attribuito il valore 1
moltiplicato per il suo coefficiente bn
Attraverso la regressione logistica tutte le variabili categoriche
vengono trasformate in variabili dicotomiche (con valori 0,1)
B1 è il parametro relativo all’essere maschi
B2 è il parametro relativo all’età
B3 è il parametro relativo alla professione di dipendente
Regressione Logistica
Categorical Variables Codings
profes s ione
genere
1.00
2.00
maschio
femmina
Frequency
18
19
16
21
Paramete
r coding
(1)
1.000
.000
1.000
.000
Regressione Logistica
Variables in the Equation
Step
a
1
genere(1)
eta
professione(1)
Constant
B
1.410
.000
-.093
-.856
S.E.
.724
.034
.725
1.121
Wald
3.800
.000
.017
.582
a. Variable(s) entered on step 1: genere, eta, professione.
df
1
1
1
1
Sig.
.051
.993
.898
.445
Exp(B)
4.098
1.000
.911
.425
95.0% C.I.for EXP(B)
Lower
Upper
.992
16.921
.936
1.068
.220
3.769
Regressione Logistica
Exp(b)
L’esponenziale di b relativo al genere è
dato dal rapporto fra l’odds di
rispondere con un comportamento
aggressivo essendo femmina diviso
l’odds di rispondere con un
comportamento aggressivo essendo
maschi.
Analisi Log - lineare
• SCOPO: studia la relazione fra più di
due variabili qualitative categoriche
• TIPO DI PROCEDURA: modello
logistico applicato a una tavola di
contingenza multidimensionale
Analisi Log lineare
Tavola di contingenza multidimensionale:
ogni cella è vista come combinazione di due
o più variabili
Esempio
T ip o di p erso nalità
T erap ia
Esito
negativo
far maco logica
Esito
positivo
A
B
C
120
46
38
int egrata
14
7
11
far maco logica
28
64
147
int egrata
17
22
80
Analisi Log lineare
• Applicare più test χ² per analizzare
ciascuna combinazione sarebbe una
procedura non corretta perché:
• Aumento dell’errore alpha
• Lettura dei risultati non comprensibile
Analisi Log lineare
• Date le tre variabili da studiare nella loro
relazione è possibile analizzare:
• Ogni confronto binario
• L’interazione fra tutte le variabili
Analisi Log lineare
Modello Log lineare attraverso un’unica
procedura di analisi rappresenta tutte le
possibili combinazioni in modo
indipendente le une dalle altre.
1. Struttura modello
2. Stima dei parametri e valutazione della
bontà del modello
Analisi Log lineare
Struttura: logaritmo delle frequenze di ogni
combinazione possibile in funzione dei valori
delle varie componenti di classificazione
Tuttavia…
Scopo del modello è rappresentare
adeguatamente i dati sperimentali con il
numero minore di relazioni fra le variabili.
Analisi Log lineare
Tutte le variabili sono considerate come
variabili indipendenti o fattori, la
variabile dipendente è il numero di casi
in ogni cella, ovvero la frequenza
osservata, che è proprio l’indice
dell’interazione fra le variabili in studio.
Analisi Log lineare
Stima dei parametri:
1. Calcolo del logaritmo delle frequenze
osservate in base al modello
2. Calcolo delle frequenze attese
3. Confronto frequenze attese con le
frequenze osservate
4. Valutazione della bontà del modello
Analisi Log lineare
• Una volta calcolate le frequenze attese per
ogni cella si calcolano i punti z dal rapporto
di ciascun parametro e il suo errore standard.
• Per verificare se il modello rappresenta
sufficientemente i dati si può considerare il
test sull’ipotesi nulla che λ sia uguale a zero
attraverso i limiti di falsificazione della
distribuzione z.
Analisi Log lineare
• I dati sperimentali possono produrre
diversi modelli Log Lineari.
• Il modello è definito saturo quando
rappresenta tutte le possibili
combinazioni fra le celle;
• non saturato quando solo alcune delle
interazioni sono considerate.
Analisi Log lineare
• Nel modello gerarchico l’effetto
interazione (definito termine di ordine
superiore in quanto comprende in sé
più termini) è accostato a termini di
ordine inferiore.
• Attraverso questo modello è possibile
considerare solo gli effetti di ordine
superiore o inferiore
Analisi Log lineare
Il Goodness of fit test è basato sul Χ2 e
testa la probabilità che quel particolare
modello (Fij ) rappresenti bene i dati
sperimentali (Fij ). È calcolato tramite la
formula:
  
2
i
j
Fij  Fˆij 
2
Fˆij
Analisi Log lineare
Il Likelyhood ratio test: la probabilità
che raccolti quei dati sperimentali essi
siano generati dal modello ed è dato dal
logaritmo del rapporto fra valori
sperimentali e teorici per tutte le
possibili condizioni.
Fij
L  2 F ln
Fˆ
i
j
2
ij
Tecniche descrittive
• Utilizzano modelli matematici per
semplificare le relazioni fra le
variabili in studio
• Il fine è la descrizione semplificata
del fenomeno attraverso il modello
di riferimento
Tecniche descrittive
• Metodo: il modello è creato ad hoc sui
dati sperimentali
• Diversi livelli di complessità del modello
a seconda del fenomeno in studio
• Esempi: distribuzioni di probabilità,
analisi fattoriale, analisi discriminante,
cluster analysis
Tecniche descrittive
Applicazioni:
• Indagini esplorative sui dati
sperimentali per la successiva
formulazione di idee
• Verifica della validità interna e
esterna di test psicometrici
Analisi Discriminante
Fine: suddividere il campione in
gruppi
Metodo
1. Fase di addestramento
2. Fase di analisi
Analisi Discriminante
Assunti:
• I fattori predittivi devono avere distribuzione
gaussiana
• I fattori devono essere scarsamente correlati fra
loro
• Le correlazioni devono essere costanti all’interno
dei gruppi
• Le medie e deviazioni standard dei fattori non
devono essere correlate fra loro
Analisi Discriminante
La fase di addestramento utilizza
un campione di soggetti, di cui si
conosce l’appartenenza a uno dei
gruppi considerati, per calcolare i
parametri necessari alla
classificazione di un nuovo
soggetto
Analisi Discriminante
I valori prodotti dalla funzione
discriminante hanno media = zero,
varianza = 1 e garantiscano la
massima differenza possibile fra le
medie di gruppo
Analisi Discriminante
La fase di analisi applica i parametri
calcolati per la classificazione di nuovi
soggetti in una delle classi possibili
La classificazione si basa sul calcolo di
una funzione in grado di fornire un
valore soglia opportunamente
determinato che discrimini i gruppi
Analisi Discriminante
Funzione ottenuta come combinazione lineare
dei parametri misurati, cioè come somma dei
parametri moltiplicati per opportuni coefficienti
dik= b0k+bjkxi1+…bpkxip
dik è il valore della k funzione discrimante
relativa al soggetto i
bjk è il valore del coefficiente j per la
funzione k
p è il numero dei fattori predittivi
xij è il valore dovuto al fattore j per il
soggetto i
Analisi Discriminante
Parametri determinati in modo che:
1. i valori prodotti dalla funzione
discriminante abbiano media zero,
varianza unitaria
2. garantiscano la massima differenza
possibile fra le medie di gruppo
Analisi Discriminante
Per ogni soggetto viene calcolata la
probabilità di appartenere a
ciascun gruppo e si procede
all’assegnazione del soggetto al
gruppo per cui è maggiore la
probabilità di appartenenza
Analisi Discriminante
2 gruppi: la soglia che divide i due
gruppi è situata nel punto di mezzo
delle due medie di gruppo
Più di 2 gruppi: le funzioni utilizzate
sono tante quante il numero dei gruppi
meno uno (non è possibile usare una
sola soglia ma occorre calcolare la
probabilità di appartenenza del soggetto
al gruppo)
Analisi Discriminante
• Al termine della fase di apprendimento
è possibile riassegnare i soggetti ai
gruppi di appartenenza utilizzando le
funzioni discriminanti calcolate
• Questa operazione permette di valutare
l’efficienza del sistema di classificazione
Analisi Discriminante
Successo dipende:
• dall’efficienza con cui abbiamo
creato le funzioni di classificazione
• dalle ipotesi che abbiamo
formulato
• dai parametri che abbiamo
conseguentemente considerato
Analisi Discriminante
Utilizzo:
• Sistema di classificazione in grado di
classificare ogni nuovo soggetto senza
conoscere realmente a quale gruppo
appartiene
• Individuare quali fattori incidono
maggiormente nella discriminazione fra
più gruppi
Cluster Analysis
Scopo: individuare la miglior
suddivisione in gruppi del campione
in esame
Cluster: addensamento attorno a un
valore centrale in uno spazio a n
dimensioni
Cluster Analysis
Assunti:
• Variabili che determinano la
suddivisione devono essere a
distribuzione gaussiana
• Individua i gruppi in modo che
siano massimamente omogenei al
loro interno e eterogenei fra loro
Cluster Analysis
La distanza fra i gruppi viene calcolata sulle
medie dei gruppi che devono essere il più
diverse possibili
Metodo per creare la distanza:
Distanza euclidea: la somma dei quadrati delle
differenze di tutte le variabili utilizzate
(trsformate in variabili z)
Cluster Analysis
Il numero dei gruppi è stabilito dal
ricercatore in base alle
considerazioni teoriche sul
fenomeno in studio
Cluster Analysis
La funzione dell’analisi dei cluster è quella
di classificare i casi in un certo numero
di gruppi senza che venga richiesta una
preliminare identificazione dei gruppi.
Questi gruppi possono essere utilizzati in
ulteriori analisi statistiche per la verifica
di ipotesi riguardanti nuove variabili non
utilizzate nella classificazione
ANALISI FATTORIALE
Tecnica esplorativa che indaga la relazione
fra più variabili al fine di individuare un
modello in grado di sintetizzare
l’informazione
Il modello di riferimento ha puro valore
descrittivo in quanto determinato dalla
procedura matematica con cui è stimato
Cos’è l’analisi fattoriale?
Statistica inferenziale
Confermare, dimostrare
un’ipotesi di partenza.
- H di partenza
- Variabili dipendenti
- Fattori
- Strumenti di raccolta
dati
- Analisi dei dati
- Eventuale falsificazione
dell’H0
vs
Statistica descrittiva
Rappresentazione delle
variabili in studio.
Aumentare la quantità di
informazioni relative ai
dati raccolti ed alle
variabili considerate.
Rappresentazione più
efficace ed utile possibile
dei dati.
Semplificazione dei dati
per migliorare la loro
interpretazione.
Cos’è l’analisi fattoriale?
Nasce in ambito medico-psicologico:
Utilizzata soprattutto per validare i questionari
perché fornisce informazioni relative alla struttura
dei dati.
E’ una procedura matematica.
Spesso viene sovrastimata da molti autori.
Non ci permette di arrivare alla conferma di un’H
di partenza ma è una tecnica vantaggiosa, per
questo ampiamente usata, che ci fornisce
informazioni difficili da ottenere in altro modo.
Come lavora l’Analisi Fattoriale
Variabili di
partenza
Operazioni
matematiche
Quantitative, gaussiane, correlate
fra loro che vengono analizzate allo
stesso livello.
Matrice di correlazione
Estrazione di fattori ortogonali
Rotazione
Scopi principali
1. Riduzione del numero di variabili in studio (ma non
dell’informazione).
2. Trasformazione delle varabili in studio in variabili
indipendenti fra loro*
3. Individuazione delle sorgenti delle variabili**
4. Assegnazione di significato reale a tali variabili***
Critiche:
Trova variabili artificiali, aleatorie, è possibile rintracciarne un
numero infinito.
Sono indipendenti tra loro, per questo non riflettono la realtà
psicologica dove è difficile trovare fenomeni non correlati.
Ruolo
indiscusso:
Validazione di questionari e riduzione
del numero di variabili in studio, non
correlate tra loro
- Riduzione delle variabili ma non
dell’informazione utile.
Vantaggi:
- Creazione di fattori che rappresentano la
stessa realtà ma che sono indipendenti fra
loro.
- Non vengono considerate le differenze fra le
diverse variabili.
I OPERAZIONE: Creazione della Matrice di Correlazione
La prima matrice di correlazione estratta dall’analisi è la
matrice di correlazione R.
Mostra tutte le relazioni possibili tra le variabili.
Le variabili vengono correlate a due a due.
Due variabili sono statisticamente correlate fra loro
quando al variare di una anche l’altra varia.
Avremo un numero di nuove variabili, fattori, corrispondente
al numero delle variabili iniziali, item.
Avremo una varianza complessiva uguale al numero delle
variabili iniziali, perché ogni item ha varianza 1 e media 0.
II OPERAZIONE: Estrazione dei
Fattori
Metodi di estrazione:
- Metodo delle componenti principali
- Metodo della massima verosimiglianza
- Metodo dei minimi quadrati
- ….
Standardizzazione dei dati raccolti
I punteggi grezzi vengono trasformati in punti z, ovvero
vengono standardizzati

x

Una variabile gaussiana è detta
variabile Z quando ha:
 =0;S=1
(N = 0; 1)
Semplifica i conti.
Permette il confronto di punteggi appartenenti a diversi
questionari.
Cos’è la varianza? Può essere vista come la quantità
d’informazione trasportata da ogni parametro.
Maggiore è la variabilità e maggiore è l’informazione.
La varianza complessiva risulta ora uguale al numero totale
delle variabili considerate.
Metodo delle componenti principali
Tale metodo permette di creare variabili artificiali, dette
fattori, fra loro ortogonali (correlazione = 0).
I fattori sono combinazioni lineari delle variabili sperimentali, si
ottengono cioè dalla somma dei prodotti delle singole variabili
sperimentali, o meglio dei loro valori z, per gli opportuni
coefficienti. Il valore e il segno di questi coefficienti indicano
quanto e come il singolo fattore sia legato alle diverse variabili
sperimentali.
I fattori non hanno più varianza = 1
Utilizza un processo a cascata per cui il primo fattore
spiega il massimo della varianza, ed è il più importante.
Si avvale del calcolo degli AUTOVALORI e degli
AUTOVETTORI dalla matrice di correlazione.
Cosa sono gli AUTOVALORI e gli AUTOVETTORI?
Vengono calcolati direttamente dalla matrice
di correlazione R attraverso un processo
algebrico.
Autovalori = la quantità di varianza di un
fattore, la comunalità.
Autovettori = sono i fattori o componenti.
R x AUTOVETTORE = AUTOVETTORE x
AUTOVALORE
AUTOVETTORE x R dev’essere uguale a se stesso
a meno di una costante che si chiama
AUTOVALORE.
Come decidere quanti fattori
tenere?
1. Posso decidere un numero preciso
da tenere (sottoscale).
2. Posso decidere la percentuale di
informazione spiegata che voglio
tenere (60-65%).
3. Tengo solo i fattori con varianza
maggiore o uguale ad 1.
A cosa mi servono le nuove variabili?
- Compattazione dei dati.
- Tengo un numero inferiore di dati, perdo una
parte accettabile d’informazione ed ho una
interpretazione delle variabili in studio.
- Guardo il legame tra fattori e variabili di partenza.
- Osservando la matrice per colonna posso
indagare quanto i singoli fattori sono correlati alle
variabili di partenza.
- Osservando la matrice per riga è possibile
decidere quali sono gli item da scartare in
relazione alla loro correlazione con i fattori (quelli
meno correlati).
E’ possibile calcolare il valore ad ogni
fattore soggetto per soggetto.
Tali punteggi saranno variabili Z con
media = 0 e varianza = 1.
Punteggio grezzo
del soggetto 1
all’item 1
X
Coefficiente di
correlazione tra
item 1 e fattore 1
Faccio la stessa cosa con tutti gli item (1,
2, 3, …), sommo tutti i prodotti ed ottengo il
punteggio del soggetto 1 al fattore 1.
Metodo dei minimi quadrati
Minimizza la somma dei quadrati
degli scarti fra i dati osservati e la
matrice di correlazione prodotta
dal modello.
Metodo della Massima Verosimiglianza
Questa tecnica affronta la casualità in termini
inversi rispetto alla probabilità:
Parte dai dati sperimentali e si chiede che
probabilità c’è di avere una distribuzione del
fenomeno di un certo tipo.
Lavora per approssimazioni successive e stima
una matrice di correlazione e un’insieme di
varianze che rappresentano i dati sperimentali,
eliminando la ridondanza con la minima
dispersione d’informazione.
Lo sopo principale è quello di rappresentare al
meglio la realtà.
L’Analisi Fattoriale è utilizzata per studiare modelli
che rappresentino al meglio la realtà, caratterizzati
da legami tra item e fattori, in altre parole modelli a
variabili artificiali, latenti.
La tecnica della Massima Verosimiglianza ci offre la
miglior rappresentazione della realtà possibile e ci
da anche la misura di quanto bene riesca a
rappresentarla!
Tale tecnica parte dall’estrazione dei fattori delle Componenti
Principali.
Vengono modificati i fattori per rappresentare al meglio gli
item sperimentali.
Aumenta e diminuisce la varianza dei fattori e
contemporaneamente vengono modificati anche gli altri fattori
finchè non trova la combinazione di fattori, varianze, che
rappresentano al meglio la realtà.
Quando fermarsi?
Ogni volta che si fa una modifica viene applicato il test del
Chi2 per misurare la bontà dell’adattamento dei dati. La
significatività indica che la modifica apportata è
significativamente migliore rispetto ai fattori delle Componenti
Principali (e della modifica precedente).
Il valore reale (dati grezzi) è differente dal valore dei
fattori (calcolato), così il Chi2 confronta le due situazioni
relative agli stessi dati e ci dice quanto è reale la
rappresentazione attuale.
Ottengo anche in questo caso delle variabili
ortogonali ma non avrò il primo fattore con la
maggior quantità d’informazione spiegata e i fattori
successivi con varianza man mano sempre minore.
C’è una distribuzione equa, più simile possibile alla
realtà dell’informazione.
Per creare fattori non ridondanti non è necessario
creare un fattore principale con effetto a cascata
sulla quantità di varianza degli altri, anzi la maggior
parte dei questionari distribuisce in modo equo
l’informazione fra i diversi item..
Componenti
Principali
• Calcola i fattori attraverso una
formula diretta.
• Offre la miglior condensazione
di varianza,con la minima
dispersione d’informazione;
questo non significa che
rappresenta la realtà nel
miglior modo.
• Al variare del numero di fattori
da tenere l’ analisi non cambia
Massima
Verosimiglianza
• Usa la tecnica delle
approssimazioni successive.
• Trova i fattori che meglio
rappresentano la realtà.
• Non lavora con troppe o
troppo poche variabili.
• Se vario il numero di fattori
che sono interessato a tenere
devo rifare l’analisi.
Maggiore sarà il numero delle variabili di partenza e
maggiore sarà la differenza dei risultati delle due
analisi.
III Operazione: Rotazione dei fattori
Modifica la relazione esistente tra item e fattori attraverso una rotazione
dei fattori.
Con la rotazione operiamo una combinazione lineare dei fattori di
partenza in modo da modificare la loro relazione con gli item.
Tali fattori possono rimanere fra loro ortogonali oppure divenire non
ortogonali.
Nasce principalmente da due critiche:
1. Vengono scoperte variabili latenti indipendenti.
2. Vengono dati dei nomi ai fattori.
La rotazione rende i fattori maggiormente interpretabili.
Una diversa interpretazione dei fattori, e del loro legame con gli item,
modifica l’interpretazione, il significato della ricerca!
La rotazione può essere ORTOGONALE oppure
OBLIQUA.
Mentre la rotazione ORTOGONALE mantiene l’indipendenza
dei fattori, la rotazione OBLIQUA rende i fattori correlati fra loro.
Le rotazioni sono meglio interpretabili attraverso un grafico
cartesiano dove gli assi rappresentano i fattori e le coordinate sono
date dalle correlazioni della matrice R.
Con la rotazione ORTOGONALE ruoto rigidamente gli assi
cartesiani ed essi rimangono ortogonali e la somma totale delle
varianze rimane uguale al totale della variabili di partenza.
Con la rotazione OBLIQUA gli assi cartesiani non sono più
perpendicolari fra loro ma obliqui, quindi non sono più indipendenti
ma correlati e la somma totale delle varianze non corrisponderà più
al numero totale delle variabili di partenza.
Tecniche di rotazione:
Varimax Method. Effettua una rotazione ortogonale che minimizza il
numero di variabili che sono fortemente correlate con ogni fattore. Il
peso dei fattori è così distribuito più uniformemente e l’interpretazione
dei fattori è semplificata.
Quartimax Method. Ha un funzionamento opposto a quello della
Varimax. Minimizza il numero di fattori necessari a spiegare ciascuna
variabile. Semplifica la spiegazione delle variabili osservate.
Equamax Method. È una combinazione fra il varimax e il quartimax.
Oblimin Rotation: Rotazione obliqua che cerca di adattare i fattori agli
item e li correla.
Promax Rotation. Rotazione obliqua. E’ un metodo più diretto che
cerca la rotazione che meglio si adatta a rappresentare i fattori con un
singolo item e lo fa direttamente.
MISURA della
CORRELAZIONE
Correlazione fra più variabili di
uno stesso campione
•
•
•
•
Analisi della correlazione
Analisi della regressione
Analisi della covarianza
Analisi della correlazione parziale
Analisi della Correlazione
Scopo: analizzare la relazione fra variabili
quantitative (a distribuzione gaussiana o
non gaussiana)
Fornisce sia il senso della relazione che la
significatività
Analisi della Correlazione
Correlazioni parametriche:
• r di Pearson
Correlazioni non parametriche:
• Tau di Kendall
• Rho di Spearman
Analisi della Correlazione
r di Pearson
• Misura dell’associazione lineare fa due
variabili. I valori del coefficiente vanno da
-1 a 1. Il segno del coefficiente indica una
relazione positiva o negativa. Il suo valore
assoluto indica la forza della relazione.
• Dipende dalla numerosità campionaria
quindi va associato alla significatività
Analisi della Correlazione
• Tau di Kendall
• Rho di Spearman
Entrambi misura dell’associazione non
parametrica basata su dati o ordinali o a ranghi.
• I valori di entrambi i coefficienti vanno da -1 a 1.
Il segno del coefficiente indica una relazione
positiva o negativa. Il suo valore assoluto indica
la forza della relazione.
• Dipendono dalla numerosità campionaria quindi
va associato alla significatività
Esempio
Analisi della Correlazione
Utilizzi
• Misura dell’associazione fra variabili
• Verifica dell’attendibilità e della validità di
questionari
Relazione fra risultati prodotti
da diverse ricerche
• Misura dell’effect-size
• Meta analisi
• Review
Effect size o forza dell’effetto
• Grado con cui il fenomeno è presente nella
popolazione
• Intensità della relazione fra fattore e
variabile dipendente
• Confronto fra variabilità dovuta ai fattori
e la variabilità totale
• Variabilità misurata come varianza
spiegata
• Diversi indici a seconda dei dati e dei test
utilizzati
Meta Analisi
Scopo: permette di confrontare i risultati di
diverse ricerche riguardanti uno stesso
argomento nonostante siano basate su
numerosità campionaria diverse e diversi test
statistici utilizzati
Finalità: comprendere il funzionamento del
fenomeno da studi diversi a volte discordanti
Meta Analisi
Per evitare di fare confronti inutili occorre
specificare ovvero delimitare l’ambito di analisi
in modo da semplificare il problema e quindi
l’interpretazione dei risultati
Limitare le variabili in studio e eventualmente
applicare più di una metanalisi
ES. Studio dell’effetto dell’ansia sulle prestazioni
cognitive: quali indici di ansia considerare?
Meta Analisi
Procedimento:
1. Raccolta e codifica degli studi
2. Calcolo degli indici di
confronto
3. Sintesi: calcolo dell’effetto
medio
4. Interpretazione dei risultati
Meta Analisi: 1. Raccolta e codifica
• Gli studi raccolti devono essere adeguati e di
ampia numerosità per evitare l’errore dovuto
alle pubblicazioni (pubblication bias) e all’errore
di campionamento
• Definire l’ipotesi di riferimento che specifica le
variabili da utilizzare (fattori o predittori,
covariate o moderatori)
• Pesare gli studi in base alla correttezza
metodologica (es attraverso intention to treat
analysis)
Meta Analisi:
2. Calcolo degli indici di confronto
Valutazione delle differenze fra le medie
rapportate alla deviazione standard
casuale
Tale valutazione, nel caso di due gruppi
indipendenti, può essere calcolata dalla
formula
effect size 
x1  x 2
s
2
Meta Analisi:
2. Calcolo degli indici di confronto
Nel caso conosciamo solo la numerosità dei
gruppi e il valore del parametro t
possiamo ottenere lo stesso indice dalla
formula
n1  n2
effect size  t 
n1  n2
Meta Analisi:
3. Calcolo dell’effetto medio
Effetto medio: media degli effetti nelle
diverse ricerche effettuate
Permette di ottenere una valutazione
complessiva dei risultati
Meta Analisi: 4. Interpretazione
Permette di trasformare le descrizioni delle
ricerche effettuate su un particolare argomento
in una valutazione obiettiva dei risultati ottenuti
Tuttavia necessitano di una interpretazione
dettagliata e motivata dell’analisi
Inoltre considera solo le ricerche pubblicate
Scarica

Analisi fattoriale