L`ANALISI DELLA VARIANZA - Facoltà di Medicina e Psicologia

Transcript

L`ANALISI DELLA VARIANZA - Facoltà di Medicina e Psicologia
L'ANALISI DELLA VARIANZA
(ANOVA, Analysis of Variance)
Scopo dell’analisi della varianza: verificare ipotesi relative a
differenze tra medie di due o più popolazioni.
Variabile dipendente: su scala a intervalli o rapporti equivalenti
Variabile indipendente: categoriale.
- Una sola V.I.: Disegni a una via
- Due o più V.I.: Disegni Fattoriali
- Una sola V.D.:
- Due o più V.D.:
Analisi univariata
Analisi multivariata (MANOVA)
L'ANALISI DELLA VARIANZA UNIVARIATA (ANOVA):
DISEGNI TRA I SOGGETTI AD UN SOLO FATTORE
Ad ogni livello della variabile indipendente corrisponde un
diverso gruppo di soggetti.
In ogni condizione ci sono soggetti diversi: un soggetto
esposto ad una condizione non viene esposto a nessuna altra
condizione.
OBIETTIVI
SI
S1
S2
…
NO
S6
S7
…
ANALISI DELLA VARIANZA - 1
MODELLO LINEARE DELL’ANOVA
Il punteggio yij di un soggetto “j” nel gruppo “i” è
scomponibile così:
yij = µ + αj + εij
- µ: media generale ("grand mean") dei punteggi sul campione
totale
- αi: effetto dovuto al trattamento (livello i della variabile
indipendente)
- εij: è una componente “residua”, di errore casuale, specifica
per ogni soggetto.
Stime campionarie dei parametri di popolazione:
µ̂ = y.. : media generale del campione
α̂ i = ( yi. - y.. ): differenza tra la media
del gruppo cui
appartiene il soggetto e la media generale del campione
(contributo della condizione “i” al punteggio del soggetto “j”)
ε̂ ij
= ( yij - yi. ): differenza tra punteggio del soggetto e media
del gruppo in cui è inserito (variabilità dei punteggi individuali
all'interno di ogni gruppo).
Punteggio del soggetto ij:
yij
=
y.. +( yi. - y.. )+( yij - yi. )
µ̂ + α̂ i + ε̂ ij
Scarto del punteggio ij dalla media totale:
yij - y..
= ( yi. - y.. )+( yij - yi. )
ANALISI DELLA VARIANZA - 2
Scomposizione della devianza totale
Devianza totale (SST): ΣiΣj( yij - y.. )
Somma dei quadrati degli scarti tra i singoli punteggi e la
media generale (tutti i soggetti possono essere considerati
come appartenenti ad un unico campione).
2
Devianza tra i gruppi (o between, SSB): ΣiΣj ( yi. - y.. )
Si calcola sostituendo ad ogni punteggio la media del gruppo
(come se tutti i soggetti sottoposti allo stesso trattamento
avessero ottenuto esattamente lo stesso punteggio).
2
Devianza entro i gruppi (o within, SSW): ΣiΣj ( yij - yi. )
Somma dei quadrati degli scarti tra i punteggi di ogni soggetto
e la relativa media di gruppo.
2
E’ possibile dimostrare che:
ΣiΣj( yij SST
y.. )2 = ΣiΣj ( yi. - y.. )2 + ΣiΣj ( yij - yi. )2
SSB
SSW
ANALISI DELLA VARIANZA - 3
GRADI DI LIBERTA' E "QUADRATI MEDI"
ΣiΣj( yij - y.. )2= n -1 (il gdl perso è quello della media totale)
y.. )2 = k-1 (il gdl perso è quello della media totale)
ΣiΣj( yij - yi. )2= n-k (1 gdl perso per ogni media di gruppo)
ΣiΣj( yi. -
La scomposizione che vale per le devianze vale anche per i
gradi di libertà: n-1=(k-1)+(n-k).
Dividendo le devianze per i rispettivi gdl si ottengono le
varianze ovvero i "quadrati medi" (mean squares).
Varianza totale (MST)= Devianza totale/(n-1)= SST/(n-1)
Varianza tra i gruppi (MSB)= Devianza tra i gruppi/(k-1)=
SSB/(k-1)
Varianza entro i gruppi (MSW)= Devianza entro i gruppi/(n-k)=
SSW/(n-k)
dove n = numero totale di soggetti e k = numero di gruppi.
SST
SSW
(n - k)
SSB
(k - 1)
ANALISI DELLA VARIANZA - 4
RAPPORTO “F”
Il rapporto tra le varianze MSB/MSw segue la distribuzione F
(che è tabulata) quindi può essere utilizzato per esaminare
ipotesi sulla significatività della differenza tra la variabilità
dovuta al trattamento e quella residua.
La F testa le seguenti ipotesi statistiche:
(H0):
(H1):
µ1=µ
µ2= .... =µ
µk (Le popolazioni di provenienza dei
campioni hanno medie uguali sulla V. D.)
almeno due µ diverse (Almeno due campioni
provengono da popolazioni con medie tra loro diverse)
Varianza tra i gruppi, o between: è data dalle differenze tra le
medie dei gruppi sottoposti a trattamenti diversi; riflette
l’effetto della VI.
La varianza entro i gruppi, o within: riflette le differenze tra i
punteggi di soggetti appartenenti allo stesso gruppo, può
essere attribuita all’errore casuale.
H0 vera: il trattamento non produce effetti, le due varianze
sono molto simili ed il rapporto F assume valori molto bassi
(vicini ad 1 o inferiori). I punteggi dei soggetti nei diversi
gruppi sono simili.
H0 falsa: varianza tra i gruppi (trattamento) maggiore della
varianza entro i gruppi (errore casuale), il rapporto F assumerà
valori elevati.
ANALISI DELLA VARIANZA - 5
a) F significativa (Rifiuto H0: µ1=µ
µ2= .... =µ
µk)
Se la varianza tra i gruppi è maggiore della varianza entro i
gruppi, le medie dei gruppi saranno piuttosto distanziate.
y1.
y..
b) F non significativa (Accetto H0:
y.2
µ1=µ
µ2= .... =µ
µk)
Se invece la varianza tra i gruppi non è significativamente
diversa dalla varianza entro i gruppi, le medie dei gruppi
saranno piuttosto ravvicinate.
ANALISI DELLA VARIANZA - 6
ASSUNZIONI
a) gli errori (εεij) seguono la distribuzione normale ed hanno
media uguale a 0.
Non normalità: ha un effetto debole sull’errore di tipo (leggera
inflazione) soprattutto nel caso in cui le celle non sono
bilanciate (numero di soggetti diversi nelle differenti
condizioni).
b) la varianza degli errori (σ
σε) è uguale in ogni gruppo
(OMOSCHEDASTICITA').
Eteroschedasticità: La F è “robusta” anche rispetto a questa
assunzione. Gli effetti più gravi si hanno nei disegni non
bilanciati. L’omoschedasticità viene valutata con il test di
Levene.
c) gli errori (εεij) sono indipendenti (il punteggio di un soggetto
non è correlato con quello di altri soggetti).
Non Indipendenza delle osservazioni: può avere effetti notevoli
sul livello di significatività (aumento incontrollato del livello
reale di α) e sulla potenza del test. L’indipendenza viene
valutata con il coefficiente di correlazione intraclasse (vedi pp.
195-197).
d) gli effetti hanno una natura additiva: la variabile
sperimentale “aggiunge” qualcosa alla condizione-base e lo fa
in maniera “identica” per tutti i soggetti.
Non additività degli effetti: aumenta debolmente l’errore
sperimentale e diminuisce la potenza del test. E’ un fattore di
cui non ci si deve molto preoccupare.
ANALISI DELLA VARIANZA - 7
Esempio
Si vuole verificare l’efficacia di programmi di formazione che
prevedono: a) l’assegnazione di obiettivi (condizione A); b)
l’assegnazione di obiettivi e un feedback sui risultati
(condizione B); c) una condizione di controllo in cui non si
danno né obiettivi né feedback (condizione C). Tre gruppi di
soggetti vengono sottoposti ognuno ad una condizione
diversa ottenendo i seguenti risultati (Y = numero di problemi
risolti):
10
Obiettivi (Y1):
Obiettivi + Feedback (Y2): 9
3
Controllo (Y3):
Disegno:
7
10
2
4
5
2
5
4
3
8
7
1
n=5
n=5
n=5
Analisi della varianza univariata (una sola V.D.) ad
un fattore (una sola V.I.) tra i soggetti (un diverso
gruppo di sogg. per ogni livello della V.I.)
Formulazione delle ipotesi statistiche
(H0): µ1 = µ2 = µ3
(le 3 medie sono relative a campioni
che provengono dalla stessa popolazione)
(H1): almeno due µ diverse, ovvero: µ1 ≠ µ2, o µ1 ≠ µ3, o µ2 ≠
µ3 (almeno due medie sono relative a campioni che
provengono da popolazioni diverse)
Valore critico di F e zona di rifiuto
k - 1 = numero di gruppi - 1 = 3 - 1 = 2 (g.d.l. al numeratore);
n - k = numero di soggetti - numero di gruppi = 15 - 3 = 12
(g.d.l. al denominatore).
Sulla tavola di probabilità di F, all'incrocio tra 2 g.d.l. al
numeratore e 12 g.d.l. al denominatore, troviamo:
F(2, 12) = 3.89 per α = 0.05, e F(2, 12) = 6.93 per α = 0.01.
Rifiuteremo l'ipotesi nulla per valori di F ≥3.89 (risultato
significativo al 5%). Se il valore calcolato di F sarà superiore
anche a 6.93, diremo che il risultato è significativo all'1%.
ANALISI DELLA VARIANZA - 8
Calcolo delle varianze e del rapporto F
Var. tra i gruppi = dev. tra i gruppi / (k - 1) = 73.73 / 2 = 36.87
Var. entro i gruppi = dev. entro i gruppi / (n - k) = 51.6 /12 = 4.3
F = Var. tra i gruppi/Var. entro i gruppi = 36.87/4.3 = 8.57
F empirico (8.57) > F critico al 1% (6.89): si rifiuta l'ipotesi nulla.
Tabella dei risultati dell’ANOVA:
Fonte
CONDIZIO
Errore
Totale
SS
73.73
51.60
125.33
df
2
12
14
MS
36.87
4.30
F
8.57
Sig.
.01
Medie e deviazioni standard dei tre gruppi sulla VD.
CONDIZIO
A (Obiettivi)
B (Ob.+ Feed.)
C (Controllo)
Totale
Media
6.8
7.0
2.2
5.3
DS.
2.4
2.5
.84
2.99
N
5
5
5
15
Confronti tra le medie dei gruppi
F significativo: esiste una differenza significativa tra almeno
due delle medie dei gruppi messi a confronto, ma non
sappiamo tra quali.
Confronto tra le medie dei gruppi con un test statistico
adeguato per individuare la fonte della significatività:
a) i confronti post hoc;
b) i confronti pianificati.
ANALISI DELLA VARIANZA - 9
a) I confronti post hoc
Ogni media in genere viene confrontata con tutte le altre. Il
ricercatore non stabilisce in anticipo i confronti rilevanti ai fini
della sua ipotesi.
Svantaggio: all'aumentare del numero di gruppi aumenta il
numero di confronti e aumenta la probabilità di commettere
l'errore di primo tipo (livello α), cioè rifiutare l'ipotesi nulla
quando è vera.
Esempio precedente. 3 possibili confronti di medie: la
condizione A con la condizione B, la A con la C e la B con la C.
Si esamina l’ipotesi che o il primo, o il secondo, o il terzo
confronto risultino significativi.
Livello α = 0.05 per ognuno dei 3 confronti:
La probabilità che almeno uno dei tre confronti risulti
significativa è uguale a .05 + .05 + .05 =.15
Livello reale di α per i 3 confronti: 3*.05 = .15.
Con k confronti post-hoc il livello di probabilità che almeno
uno di essi risulti significativo non è α ma kα
α.
Soluzione: scegliere un valore α minore di .05 (es., .05/3=.017,
e in genere .05/k).
b) I confronti pianificati.
Effettuare solo i confronti che appaiono più rilevanti ai fini
dell'ipotesi di ricerca. Il ricercatore pianifica in anticipo quali
medie (gruppi) verranno confrontate.
I confronti pianificati consentono di esaminare la differenza tra
2 medie.
Si possono confrontare 2 medie relative a 2 singoli gruppi.
Si possono anche “combinare” insieme le medie di più gruppi
e confrontare la media “aggregata” così ottenuta con la media
di un gruppo singolo, o con un’altra media “aggregata”,
ottenuta combinando più gruppi.
Il confronto comunque sarà sempre tra 2 medie.
ANALISI DELLA VARIANZA - 10
Esempio precedente: la presenza di una consegna ben precisa
(obiettivo, oppure obiettivo + feedback) rispetto all’assenza di
tale consegna si accompagna a maggiore facilità nella
soluzione dei problemi.
E’ sufficiente un set di due confronti tra le medie (invece dei tre
confronti previsti per i post hoc):
nel primo si contrasta il gruppo di controllo con i gruppi
“obiettivi” e “obiettivi+feedback” combinati insieme (come se
fossero un unico gruppo); nel secondo si contrastano tra loro i
due gruppi “obiettivi” e “obiettivi+feedback”.
Per effettuare i confronti (con il computer o manualmente) si
deve attribuire ad ogni media un coefficiente, con segno
positivo o negativo.
Le medie con segno diverso vengono contrastate tra loro,
quelle con segno uguale vengono combinate, quelle con
coefficiente 0 non vengono considerate nel confronto.
La somma dei coefficienti deve dare 0. Se anche la somma dei
prodotti tra i coefficienti di un set di confronti è uguale a 0, si
dice che i confronti sono tra loro ortogonali, cioè indipendenti.
Coefficienti per i dati dell’esempio:
1° confronto
2° confronto
Prodotti
Obiettivi
-1
1
-1
Ob. + Feed.
-1
-1
1
Controllo
2
0
0
Confronto 1
Fonte
SS
Contrasto
73.63
Errore
51.60
df
1
12
MS
73.63
4.30
F
Sig.
17.12 .001
Confronto 2:
Fonte
SS
Contrasto
.10
Errore
51.60
df
1
12
MS
.10
4.30
F
.023
Somme
0
0
0
Sig.
.881
Il denominatore utilizzato nella F dei due confronti è sempre
quello relativo alla varianza residua del test omnibus (“Errore”
= 4.30).
ANALISI DELLA VARIANZA - 11
Lo stesso risultato è ottenuto con un confronto in più e ad un
livello di probabilità più elevato (α
α = .05) tramite i post-hoc
effettuati con la procedura Tukey HSD.
N
CONDIZIO
Controllo
Obiettivi
Obiet + Feed
Sottoinsieme
1
2
2.20
6.80
7.00
5
5
5
Significato dell'ortogonalità
Confronti ortogonali: forniscono informazioni indipendenti,
cioè il risultato del primo non consente di ottenere indicazioni
sul possibile risultato del secondo, e viceversa. Numero
massimo di confronti ortogonali = k - 1.
In un set completo di k-1 confronti ortogonali la somma delle
devianze tra i gruppi dei singoli confronti è uguale alla
devianza spiegata dall'effetto “omnibus” nell'ANOVA. La
devianza spiegata dall'effetto viene scomposta in un certo
numero di "porzioni" tra loro indipendenti (nell’esempio: 73.63
+ .10 =73.73).
Set di confronti non ortogonali:
1° confronto
2° confronto
3° confronto
Obiettivi
1
0
1
Ob. + Feed.
-1
1
0
Controllo
0
-1
-1
Somme
0
0
0
I confronti sono tutti corretti (Somme = 0), ma non sono
ortogonali. Per verificare l’ortogonalità bisogna confrontare
ciascuna coppia di confronti. Per ognuna di esse la somma dei
prodotti dei coefficienti deve essere uguale a zero.
1° vs. 2°
1° vs. 3°
2° vs. 3°
0 (=1*0)
1 (=1*1)
0 (=0*1)
Prodotti
-1 (=-1*1)
0 (=-1*0)
0 (= 1*0)
ANALISI DELLA VARIANZA - 12
0 (=0*-1)
0 (=0*-1)
1 (=-1*-1)
Somme
-1
1
1
L'ANALISI DELLA VARIANZA UNIVARIATA (ANOVA):
DISEGNI FATTORIALI
Vengono definiti fattoriali (o a più vie) i disegni di analisi della
varianza in cui vi sono due o più variabili indipendenti.
Disegno fattoriale più semplice: Disegno "2X2". Due fattori,
ciascuno con due differenti livelli ("condizioni").
Vantaggi dei disegni fattoriali
1) Studio dell'interazione, cioè dell'effetto congiunto delle VI
sulla VD.
2) Aumento della potenza del test, perché viene ridotta la
varianza di errore.
3) Maggiore economia nel numero dei soggetti da esaminare,
mantenendo la stessa potenza del test.
EFFETTI PRINCIPALI E INTERAZIONI
Effetto principale: effetto medio di una
indipendentemente dai valori delle altre VI.
VI
sulla
VD,
Interazione: effetto di una VI sulla VD che si verifica solo a
determinati livelli dell'altra VI; effetto di una VI sulla VD che
non è lo stesso per tutti i livelli delle altre VI.
Esempio con un disegno fattoriale 2x3
Trattamento
Abilità
T1
T2
T3
mi.
Bassa
85.00 80.00 76.00 80.33
Alta
60.00 63.00 68.00 63.67
m.j
72.50 71.50 72.00
ANALISI DELLA VARIANZA - 13
Ipotesi per effetti principali e interazione.
Effetti principali:
Trattamento: ipotesi sulle medie delle colonne.
H0: µ.1 = µ.2 = µ.3 (A livello di campione: 72.5 = 71.5 = 72)
H1: Almeno due medie sono differenti
[(µ
µ.1 ≠ µ.2) o (µ
µ.1 ≠ µ.3) o (µ
µ.2 ≠ µ.3)]
Abilità: ipotesi sulle medie delle righe
H0: µ1. = µ2. (A livello di campione: 80.33 = 63.67)
H1: µ1. ≠ µ2
Interazione: Ipotesi sulle differenze delle medie nelle diverse
combinazioni delle condizioni sperimentali.
H0: (µ
µA - µB)T1 = (µ
µA - µB)T2= (µ
µA - µB)T3
A livello di campione: (85 -60) = (80 - 63) = (76 - 68)
(cioè, 25 =17= 8)
H1: Almeno una differenza tra differenze di medie
significativa
è
Tutte le volte che c'è un'interazione nei dati, sarebbe fuorviante
interpretare gli effetti principali senza discutere le interazioni
La rappresentazione grafica dei dati può
rilevazione della presenza di un’interazione.
ANALISI DELLA VARIANZA - 14
facilitare
la
Rappresentazione grafica dell'esempio precedente
TRATTAMENTO
90
85
80
75
70
65
60
55
50
T1
T2
T3
ABILITA'
90
85
80
75
70
65
60
55
50
Abilita' bassa
Abilita' Alta
INTERAZIONE
90
85
85
80
80
76
75
Abilita' Alta
70
68
65
63
60
60
55
50
T1
T2
ANALISI DELLA VARIANZA - 15
T3
Abilita' Bassa
Disegni fattoriali “Tra i soggetti” (Between Subjects):
Tutti i fattori sono tra i soggetti. I soggetti vengono assegnati
casualmente ad ognuna delle singole celle. Ogni soggetto è
esposto solamente ad una particolare combinazione delle
condizioni sperimentali.
FEEDBACK
OBIETTIVI
SI
SI
NO
S1
S6
S2
S7
…
…
NO
S11
S16
S12
S17
…
…
Ogni cella (incrocio di due livelli diversi dei due fattori)
contiene soggetti diversi.
Modello Teorico dei Disegni fattoriali “Tra i soggetti”
Modello teorico dell'ANOVA in un disegno fattoriale con 2
fattori F1 e F2: il punteggio yijk di un soggetto “k” contenuto
nella “cella” “ij” è scomponibile nel modo seguente:
yijk= µ + αi + βj + φij + εijk, dove
αi = µi..-µ
µ: effetto principale di F1 (deviazione della media della
i-esima riga dalla media generale)
βj = µ.j.-µ
µ: effetto principale di F2 (deviazione della media della
j-esima colonna dalla media generale)
φij = µij. - µ - (α
αi + βj): effetto dell’interazione. Parte della
media di una cella ij che non dipende dall’errore, e che non è
spiegata né dalla media generale, né dagli effetti principali.
εijk: termine residuale (“errore”)
ANALISI DELLA VARIANZA - 16
Stime campionarie dei parametri del modello:
A=1
A=2
B=1
B=2
y11.
y21.
y.1.
y12.
y22.
y.2.
y1..
y2..
y...
µ̂ = y...
α̂ i = ( yi.. - y... ) e quindi α̂ 1
= ( y1.. -
y... )
β̂ j
= ( y.j. -
= ( y.2. -
y... )
φ̂ij
αi + βj) =
= µij. - µ - (α
y... ) e quindi β̂2
yij. - y... - [( yi.. - y... ) + ( y.j. - y... )]=
φ̂ij = yij. - yi.. - y.j. + y... , quindi φ̂12 = y12.
ε̂ ijk = ( yijk - yij. )
-
y1.. - y.2. + y...
Allora:
yijk = y... +( yi.. - y... )+( y.j. - y... )+( yij. - yi.. - y.j. + y... )+( yijk - yij. )
µ̂
+
α̂ i
+
β̂ j
+
E quindi:
φ̂ij
+
ε̂ ijk
yijk - y... = ( yi.. - y... )+( y.j. - y... )+( yij. - yi.. - y.j. + y... )+( yijk - yij. )
ANALISI DELLA VARIANZA - 17
In base alle equazioni precedenti è possibile definire le
seguenti devianze:
ΣiΣjΣk( yijk - y... )2 =
(SST = dev. totale)
ΣiΣjΣk( yi.. - y... )2
(SSF1 = dev. eff. princ. di F1)
ΣiΣjΣk( y.j. - y... )2
(SSF2 = dev. eff. princ. di F2)
ΣiΣjΣk( yij. - yi.. - y.j. + y... )2
(SSF1XF2 = dev. interazione)
ΣiΣjΣk( yijk - yij. )2
(SSW = devianza residua)
La devianza totale può essere scomposta nel modo seguente:
SST = SSB + SSW = SSF1 + SSF2 + SSF1XF2 + SSW
Gradi di libertà e test di significatività (rapporto F):
SST
FF1= MSF1/ MSW
FF2= MSF2/ MSW
FF1xF2= MSF1xF2/ MSW
SSB
SSW
k1 = livelli di F1
k2 = livelli di F2
(n - k1k2)
SSF1
SSF2 SSF1XF2
(k1-1)
(k2-1)
(k1-1)(k2-1)
ANALISI DELLA VARIANZA - 18
ANALISI DEI DISEGNI FATTORIALI
1. ANALISI DEGLI EFFETTI PRINCIPALI
Esempio da Keppel et al., pp. 260 e segg.. 2 fattori (o variabili
indipendenti): Rinforzo e Compito; 1 variabile dipendente: n. di
problemi risolti.
Fattori tra soggetti
RINFORZO
COMPITO
1,00
2,00
3,00
1,00
2,00
Etichetta di
valore
LODE
CRITICA
SILENZIO
SEMPLICI
COMPLESSI
N
10
10
10
15
15
Risultati ottenuti tramite le formule definite per i disegni
ANOVA fattoriali:
Fonte
RINFORZO
COMPITO
RINFORZO X
COMPITO
Errore
Totale
SS
67.27
40.83
31.27
df
2
1
2
MS
33.63
40.83
15.63
84.00
223.37
24
29
3.50
F
9.61
11.67
4.47
Sig.
.001
.002
.022
Effetto principale del fattore “COMPITO”:
SEMPLICI
6.400
COMPLESSI
4.067
Effetto principale del fattore “RINFORZO”:
LODE
7.30
CRITICA
4.60
SILENZIO
3.80
Confronti post-hoc con il metodo di Tukey-HSD: i due tipi di
rinforzi Silenzio e Critica hanno medie uguali e
significativamente diverse dal rinforzo Lode.
ANALISI DELLA VARIANZA - 19
Confronti pianificati. Possiamo confrontare le condizioni di
Lode con quelle di Critica e Silenzio aggregate, e la condizione
di Critica con Silenzio.
Confronto 1: Coefficienti: (2 –1 –1)
Fonte
SS
Df
MS
F
Sig.
Contrasto
64.07
1
64.07 18.31 .000
Errore
84.00
24
3.50
Confronto 2: Coefficienti (0 1 –1)
Fonte
SS
Df
MS
F
Contrasto
3.20
1
3.20
.91
Errore
84.00
24
3.50
Sig.
.349
2. ANALISI DELL’INTERAZIONE- EFFETTI SEMPLICI
Nel nostro esempio l’interpretazione degli effetti principali può
condurre a conclusioni errate.
RINFORZO
LODE
COMPITO
Media
SEMPLICI
7.6
COMPLESSI
7.0
CRITICA
SEMPLICI
7.2
COMPLESSI
2.0
SILENZIO
SEMPLICI
4.4
COMPLESSI
3.2
La variabile Rinforzo produce un effetto sulla variabile
Risposte che è differente a seconda dei livelli della variabile
Compito.
8
7
6
5
4
3
COMPITO
2
SEMPLICI
COMPLESSI
1
LODE
CRITICA
SILENZIO
RINFORZO
ANALISI DELLA VARIANZA - 20
Analisi degli EFFETTI SEMPLICI: Per identificare le
combinazioni dei fattori che danno un’interazione significativa.
Effetti Semplici (“Simple Effects”): esame dei valori della
variabile dipendente associati ai valori di una VI, quando i
valori dell’altra VI sono mantenuti costanti.
- Disegno fattoriale: semplificato effettuando tanti disegni
“monofattoriali” quanti sono i livelli della VI che viene
mantenuta costante.
- Se c’è un’interazione significativa, gli effetti semplici relativi
ad una VI sono diversi nei livelli della VI che viene controllata.
- Gli ES consentono di evidenziare l’effetto di modulazione che
una VI ha sulla relazione tra un’altra VI e la VD.
- L’analisi degli effetti principali annulla tale effetto, poiché
confronta le medie marginali, nelle quali i livelli dell’altra
variabile indipendente vengono sommati tra di loro.
Analisi degli effetti semplici per il fattore “Compito”
mantenendo costante il fattore “Rinforzo” (l’analisi del fattore
“Rinforzo” mantenendo costante il fattore “Compito” dà
risultati analoghi).
RINFORZO
LODE
Contrasto
Errore
CRITICA Contrasto
Errore
SILENZIO Contrasto
Errore
Test univariati
SS
df
.90
1
84.00
24
67.60
1
84.00
24
3.60
1
84.00
24
MS
.90
3.50
67.60
3.50
3.60
3.50
F
.26
Sig.
.62
19.31
.000
1.03
.32
La devianza Between che viene scomposta è data dalla somma
della devianza del fattore “COMPITO” (40.83) più la devianza
dell’interazione (31.27), ovvero: .90+67.60+3.60=72.1 =
40.83+31.27. La devianza Within è quella del disegno fattoriale
completo (84.00).
ANALISI DELLA VARIANZA - 21
L'ANALISI DELLA VARIANZA UNIVARIATA (ANOVA):
DISEGNI ENTRO I SOGGETTI AD UN SOLO FATTORE
Disegni in cui si gli stessi soggetti sono utilizzati nelle diverse
condizioni sperimentali (ovvero, nei diversi livelli della
Variabile Indipendente). Non si parla di gruppi sperimentali e di
controllo, ma di trattamenti diversi o di condizioni sperimentali
e di controllo. L'analisi della varianza viene anche detta per
prove (o misure) ripetute.
Le singole celle sono composte sempre dagli stessi soggetti:
A=1
S1
S2
...
A=2
S1
S2
...
y 1.
y 2.
Sn
Sn
y n.
y.1
y.2
y..
...
Le medie marginali di riga ( y 1. , y 2. , .., y n. ) rappresentano il
punteggio medio di ogni soggetto rispetto alle k prove (in
questo caso k = 2) e consentono di isolare dalla variazione
totale dei punteggi la parte che dipende dalle differenze
individuali (ovvero dalle differenze tra i soggetti).
Le medie marginali di colonna ( y.1 , y.2 ) rappresentano il
punteggio medio per ognuna delle k prove, attraverso tutti gli n
soggetti. Sono le medie che devono essere confrontate per
esaminare se c’è differenza significativa tra i k trattamenti
effettuati.
ANALISI DELLA VARIANZA - 22
Scomposizione della devianza totale
La devianza tra le prove (SSK) è quella dovuta agli effetti del
trattamento.
La devianza entro le prove (SSW) viene scomposta in due parti
differenti: la devianza tra i soggetti (SSS) e la devianza residua
(SSres).
Le differenze individuali tra i soggetti non costituiscono
variabilità d'errore, perché rimangono costanti da una prova
all'altra. Questa variabilità può essere calcolata e eliminata
dall'analisi, e va a costituire la devianza tra i soggetti (SSS).
La devianza d'errore è prevalentemente dovuta alle fluttuazioni
casuali nelle risposte dei soggetti da una condizione
sperimentale all'altra, non spiegabili né in base agli effetti del
trattamento, né in base alle differenze individuali tra i soggetti
e costituiscono la variabilità d'errore, o residua (SSW).
SST
(nk-1)
SSK
SSW
(k-1)
SSres
SSS
(n-1)
(n-1)(k-1)
F= MSK/ MSres
ANALISI DELLA VARIANZA - 23
SST = Devianza Totale nk - 1 gdl
SSK = Devianza tra le prove k - 1 gdl
SSW = Devianza entro le prove k(n-1) gdl
SSS = Devianza tra i soggetti n-1 gdl
SSres =Devianza residua (n - 1)(k - 1) gdl
ANOVA - Disegni Within Subjects: Tabella riassuntiva
Devianza
Tra le Prove SSB
Tra i Soggetti SSS
Within SSw
Formule
2
2
GDL
k-1
ΣiΣj( yi. - y.. ) =kΣi( yi. - y.. )
2
n-1
ΣiΣj( y.j - y.. ) =nΣj( y.j - y.. )
2
ΣiΣj( yij - y.. )
2
k(n-1)=N-k
Residua SSres
SSw – SSS
(n-1)(k-1)
n = numero di soggetti, k = numero di prove, N = numero di
risposte (=n*k)
Vantaggi dei disegni entro i soggetti
- Riduzione dell’errore sperimentale (disegni più potenti)
- Meno soggetti (disegni più economici)
Svantaggi dei disegni entro i soggetti
- Necessità di controllare gli effetti di ordine e di sequenza
nella presentazione delle prove
Assunzioni per il modello entro i soggetti: sono le stesse
esaminate per il modello tra i soggetti.
L’omoschedasticità è sostituita dalla assunzione di
SFERICITA' o CIRCOLARITA': la varianza delle differenze tra
tutte le coppie delle misure ripetute deve essere uguale. Si
verifica con il test di Mauchley.
Nel caso di tre misure (ad esempio m1, m2 e m3) questa
condizione richiede che: σ2m1-m2= σ2m1-m3= σ2m2-m3
Nel caso di due misure questa assunzione ovviamente non è
verificabile.
ANALISI DELLA VARIANZA - 24
Esempio di disegno ANOVA Within Subjects ad un fattore
24 soggetti vengono sottoposti alle seguenti condizioni:
Condizione 1: Messaggio di contenuto “insaliente” (es.,
“L’automobile X non è affidabile, è più che affidabile”)
Condizione 2: Messaggio di contenuto “non-insaliente” (es.,
“L’automobile X è affidabile, è più che affidabile”)
Condizione 3: Messaggio di contenuto “neutrale” (es.,
“L’automobile X è stata prodotta negli stabilimenti YY”)
Il soggetto viene esposto a 10 stimoli per ognuna delle 3
condizioni. La variabile dipendente è il numero di ricordi
corretti.
Gradi di libertà per la F sono:
(k-1) = 3-1 = 2 per la varianza tra le prove
(n-1) (k-1)= (24-1)(3-1) = 23*2 = 46 per la varianza residua.
Risultati dell'analisi della varianza
SS
Df
MS
F
Sig.
81.88
2
40.94 33.63 .000
55.99
46
1.22
Fonte
Stimolo
Errore
L'effetto del tipo di Stimolo risulta significativo.
Ins
Medie
16.85
Non Ins Neutro
14.42
14.81
N
24
I ricordi corretti sembrano maggiori nella condizione “Stimolo
Insaliente” (Ins) rispetto alle altre due condizioni (NonInsaliente e Neutro). Tuttavia non possiamo ancora dire quali
di queste 3 medie risultino significativamente diverse.
ANALISI DELLA VARIANZA - 25
Confronti pianificati (ortogonali)
Analisi delle differenze tra le 3 medie tramite i confronti
pianificati: Confronto iniziale tra la condizione 1 (Stimolo
Insaliente) e le condizioni 2 e 3 aggregate (Stimolo Noninsaliente o Neutro).
Confronto 1: Coefficienti (-2 1 1)
Fonte
SS
Df
MS
F
Sig.
Contrasto 120.06
1
120.06 111.25 .000
Errore
24.82
23
1.08
L’insalienza produce un miglioramento significativo nel ricordo
dello stimolo.
Confronto tra le due condizioni “di controllo”:
Confronto 2: Coefficienti: (0 1 –1)
Fonte
SS
Df
MS
F
Sig.
Contrasto
3.67
1
3.67
1.07 .312
Errore
78.90
23
3.43
I soggetti hanno prodotto lo stesso numero di ricordi corretti
nelle condizioni Stimolo Non-insaliente o Neutro.
E’ possibile ottenere risultati analoghi utilizzando i confronti
post-hoc invece dei confronti pianificati.
ANALISI DELLA VARIANZA - 26
DISEGNO FATTORIALE CON 2 FATTORI WITHIN
Disegni fattoriali entro i SS: tutti i fattori sono entro i soggetti. I
soggetti vengono esposti a tutte le combinazioni delle
condizioni sperimentali. Le singole celle sono composte
sempre dagli stessi soggetti.
RISPOSTA (B)
IMMEDIATA
RITARDATA
INSALIENZA (A)
SI
NO
S1
S1
S2
S2
...
...
S1
S1
S2
S2
...
...
SST
SSF1
SSF2 SSF1XF2
SSS
(n-1)
SSK1 SSres1
(k1-1)
(k1-1)(n-1)
SSK2 SSres2 SSK12 SSres12
(k2-1)
(k2-1)(n-1)
(k1-1)(k2-1) (k1-1)(k2-1)(n-1)
FF1= MSk1/ MSres1 FF2= MSk2/ MSres2
FF1xF2= MSk12/ MSres12
Ogni fonte di variabilità “tra le prove” prevede una varianza
residua separata. E’ possibile isolare l’effetto delle differenze
individuali nei fattori F1 e F2 e nell’interazione, e quindi
eliminare la devianza tra i soggetti (SSS) dalla devianza entro le
prove.
ANALISI DELLA VARIANZA - 27
Dati dell’esempio: tab. 4.23, pag. 234
Medie prove
y1.. = 2.85 (A1)
y2.. = 3.11 (A2)
Media totale
y.1. = 4.80 (B1)
y.2. = 1.15 (B2)
y... =2.98
L’applicazione delle formule specificate a pagina 231 consente
di ottenere i seguenti risultati:
Fonte
A
Residua A
B
Residua B
AxB
Residua AxB
Soggetti
SS
.625
.625
133.225
46.025
.225
1.025
55.23
df
1
9
1
9
1
9
9
Ms
.625
.07
133.225
5.11
.225
.22
6.14
F
9
p
.015
26.05
.001
1.98
.193
I fattori sono a 2 livelli, quindi non c’è bisogno di analisi
ulteriori per gli effetti principali. L’interazione non è
significativa, quindi non c’è bisogno di effettuare l’analisi degli
effetti semplici.
ANALISI DELLA VARIANZA - 28
DISEGNO FATTORIALE MISTO
(1 FATTORE BETWEEN E 1 FATTORE WITHIN)
Disegni fattoriali "misti": almeno un fattore è tra i soggetti ed
almeno un altro fattore è entro i soggetti.
I soggetti vengono esposti a tutte le condizioni sperimentali
della variabile “entro”, e soltanto ad un livello della variabile
“tra”.
Le celle sono composte dagli stessi soggetti se si considerano
i diversi livelli del fattore "entro", e da soggetti diversi se si
considerano i diversi livelli del fattore "tra".
INSALIENZA (W)
PRIMING (B)
NO
SI
S1
SI
S1
S2
S2
...
...
S6
NO
S6
S7
S7
...
...
Le colonne relative al fattore Insalienza contengono gli stessi
soggetti (è il fattore within) mentre le righe relative al fattore
Priming contengono soggetti diversi (è il fattore between).
SST
SSB
SSW
SSB1 SSres1
(k1-1)
k1(n-1)
SSW1 SSB1xW1 SSres2
(k2-1)
(k1-1)(k2-1)
k1(n-1)(k2-1)
FB= MSB1/ MSres1
FW= MSW1/ MSres2
FBxW= MSB1xW1/ MSres2
ANALISI DELLA VARIANZA - 29
Dati dell’esempio: tab. 4.26, pag. 239
Medie celle
y11. = 4.33 (B1W1) y21. = 3.00 (B2W1)
y12. = 8.67 (B1W2) y22. = 5.67 (B2W2)
Medie prove
y1.. = 6.5 (B1)
y2.. = 4.33 (B2)
Media totale
y.1. = 3.67 (W1)
y.2. = 7.17 (W2)
y... =5.42
L’applicazione delle formule specificate a pagina 236 consente
di ottenere i seguenti risultati:
Fonte
B
Residua B
W
WxB
Residua W e WxB
Soggetti
SS
14.08
5.33
36.75
2.08
2.67
19.42
df
1
4
1
1
4
5
Ms
14.08
1.33
36.75
2.08
.67
3.88
F
10.56
p
.031
55.12
3.12
.002
.152
2 varianze residue: una per il fattore Between, e una per il
fattore Within e per l’interazione tra B e W.
La varianza dovuta alle differenze individuali (SSS) può essere
isolata dalla varianza residua solo per il fattore W, mentre nel
fattore B risulta inglobata nelle sue componenti di varianza
(SSS = SSB1+SSres1)
ANALISI DELLA VARIANZA - 30
EFFECT SIZE
La F è fortemente dipendente dalla numerosità dei gruppi
considerati.
Non basta allora dimostrare che la F è statisticamente
significativa per rilevare la presenza di un effetto.
Bisogna dimostrare che l’effetto è importante anche da un
punto di vista pratico.
Coefficienti che quantificano l’associazione tra variabile
dipendente e variabile indipendente: possono essere
interpretati come proporzione della varianza della variabile
dipendente spiegata dalla variabile indipendente.
η2 = SSB/SST
ω2 = [SSB – (k-1) * MSw]/ (SST + MSw)
Effect size nell’ANOVA:
ω2,η2 = .01-.05
ω2,η2 = .06-.13
ω2,η2 = .14
! Basso
! Moderato
! Elevato
ANALISI DELLA VARIANZA - 31
POTENZA DELLA VERIFICA
Probabilità di rifiutare l’ipotesi nulla quando essa è falsa.
Probabilità di rilevare un effetto quando esso è presente.
Errore del II tipo: accettare l’ipotesi nulla quando essa è falsa.
La probabilità di commetterlo è indicata con il simbolo β. La
potenza si indica con 1-β
β.
Errore di I tipo (si indica con α), ed errore di II tipo sono
inversamente proporzionali.
Esempio: differenze tra 2 gruppi, entrambi di 15 soggetti.
α
.10
.05
.01
β
.37
.52
.78
La potenza della verifica dipende da tre fattori:
-livello di α
-ampiezza del campione
-grandezza dell’effetto (effect size): quanto
differiscono effettivamente nella popolazione.
1-β
β
.63
.48
.22
i
gruppi
Esempio: cambiamento nella potenza in funzione di n,
considerando un effect size pari a .5.
n per gruppo
10
20
50
100
1-β
β
.18
.33
.70
.94
ANALISI DELLA VARIANZA - 32
COSA FARE PER AUMENTARE LA POTENZA DELLA VERIFICA
* Aumentare l’effect size
- Ridurre la variabilità entro i gruppi:
# gruppi più omogenei
# disegni fattoriali invece che a una via
# analisi della covarianza
# disegni within subjects
- Essere sicuri che ci sia un legame forte tra variabile
indipendente e variabile dipendente (validità
interna dell’esperimento)
* Aumentare il numero di soggetti
* Aumentare α/Usare test a una coda [soluzione poco
efficiente]
STIME DELLA POTENZA
POST–HOC: Consentono di calcolare il livello (1-β
β) dopo aver
effettuato l’analisi. Permettono di interpretare meglio i risultati
(soprattutto in presenza di F non significativa, ed effect size
moderato/elevato).
A PRIORI: Consentono di stabilire (una volta identificato
l’effect size che si attende nell’esperimento) quale sarà la
potenza della verifica per un dato numero di gruppi (k) e di
numerosità di soggetti per gruppo (nk).
Consentono anche di stabilire quanti soggetti sono necessari
per ogni gruppo per ottenere un determinato livello (1-β
β) dato
un certo valore dell’effect size.
Le stime della potenza della verifica vengono effettuate
utilizzando delle apposite tabelle sviluppate da Cohen, ed
opportune formule per stimare l’effect size.
Nella maggior parte delle ricerche psicologiche si considera
adeguata una potenza pari a .80 (ovvero, la probabilità di
commettere errore di II tipo, cioè accettare l’ipotesi nulla
quando è falsa, è uguale a .20). Raggiungere livelli di potenza
più elevati richiede spesso troppi soggetti.
ANALISI DELLA VARIANZA - 33