L`ANALISI DELLA VARIANZA - Facoltà di Medicina e Psicologia
Transcript
L`ANALISI DELLA VARIANZA - Facoltà di Medicina e Psicologia
L'ANALISI DELLA VARIANZA (ANOVA, Analysis of Variance) Scopo dell’analisi della varianza: verificare ipotesi relative a differenze tra medie di due o più popolazioni. Variabile dipendente: su scala a intervalli o rapporti equivalenti Variabile indipendente: categoriale. - Una sola V.I.: Disegni a una via - Due o più V.I.: Disegni Fattoriali - Una sola V.D.: - Due o più V.D.: Analisi univariata Analisi multivariata (MANOVA) L'ANALISI DELLA VARIANZA UNIVARIATA (ANOVA): DISEGNI TRA I SOGGETTI AD UN SOLO FATTORE Ad ogni livello della variabile indipendente corrisponde un diverso gruppo di soggetti. In ogni condizione ci sono soggetti diversi: un soggetto esposto ad una condizione non viene esposto a nessuna altra condizione. OBIETTIVI SI S1 S2 … NO S6 S7 … ANALISI DELLA VARIANZA - 1 MODELLO LINEARE DELL’ANOVA Il punteggio yij di un soggetto “j” nel gruppo “i” è scomponibile così: yij = µ + αj + εij - µ: media generale ("grand mean") dei punteggi sul campione totale - αi: effetto dovuto al trattamento (livello i della variabile indipendente) - εij: è una componente “residua”, di errore casuale, specifica per ogni soggetto. Stime campionarie dei parametri di popolazione: µ̂ = y.. : media generale del campione α̂ i = ( yi. - y.. ): differenza tra la media del gruppo cui appartiene il soggetto e la media generale del campione (contributo della condizione “i” al punteggio del soggetto “j”) ε̂ ij = ( yij - yi. ): differenza tra punteggio del soggetto e media del gruppo in cui è inserito (variabilità dei punteggi individuali all'interno di ogni gruppo). Punteggio del soggetto ij: yij = y.. +( yi. - y.. )+( yij - yi. ) µ̂ + α̂ i + ε̂ ij Scarto del punteggio ij dalla media totale: yij - y.. = ( yi. - y.. )+( yij - yi. ) ANALISI DELLA VARIANZA - 2 Scomposizione della devianza totale Devianza totale (SST): ΣiΣj( yij - y.. ) Somma dei quadrati degli scarti tra i singoli punteggi e la media generale (tutti i soggetti possono essere considerati come appartenenti ad un unico campione). 2 Devianza tra i gruppi (o between, SSB): ΣiΣj ( yi. - y.. ) Si calcola sostituendo ad ogni punteggio la media del gruppo (come se tutti i soggetti sottoposti allo stesso trattamento avessero ottenuto esattamente lo stesso punteggio). 2 Devianza entro i gruppi (o within, SSW): ΣiΣj ( yij - yi. ) Somma dei quadrati degli scarti tra i punteggi di ogni soggetto e la relativa media di gruppo. 2 E’ possibile dimostrare che: ΣiΣj( yij SST y.. )2 = ΣiΣj ( yi. - y.. )2 + ΣiΣj ( yij - yi. )2 SSB SSW ANALISI DELLA VARIANZA - 3 GRADI DI LIBERTA' E "QUADRATI MEDI" ΣiΣj( yij - y.. )2= n -1 (il gdl perso è quello della media totale) y.. )2 = k-1 (il gdl perso è quello della media totale) ΣiΣj( yij - yi. )2= n-k (1 gdl perso per ogni media di gruppo) ΣiΣj( yi. - La scomposizione che vale per le devianze vale anche per i gradi di libertà: n-1=(k-1)+(n-k). Dividendo le devianze per i rispettivi gdl si ottengono le varianze ovvero i "quadrati medi" (mean squares). Varianza totale (MST)= Devianza totale/(n-1)= SST/(n-1) Varianza tra i gruppi (MSB)= Devianza tra i gruppi/(k-1)= SSB/(k-1) Varianza entro i gruppi (MSW)= Devianza entro i gruppi/(n-k)= SSW/(n-k) dove n = numero totale di soggetti e k = numero di gruppi. SST SSW (n - k) SSB (k - 1) ANALISI DELLA VARIANZA - 4 RAPPORTO “F” Il rapporto tra le varianze MSB/MSw segue la distribuzione F (che è tabulata) quindi può essere utilizzato per esaminare ipotesi sulla significatività della differenza tra la variabilità dovuta al trattamento e quella residua. La F testa le seguenti ipotesi statistiche: (H0): (H1): µ1=µ µ2= .... =µ µk (Le popolazioni di provenienza dei campioni hanno medie uguali sulla V. D.) almeno due µ diverse (Almeno due campioni provengono da popolazioni con medie tra loro diverse) Varianza tra i gruppi, o between: è data dalle differenze tra le medie dei gruppi sottoposti a trattamenti diversi; riflette l’effetto della VI. La varianza entro i gruppi, o within: riflette le differenze tra i punteggi di soggetti appartenenti allo stesso gruppo, può essere attribuita all’errore casuale. H0 vera: il trattamento non produce effetti, le due varianze sono molto simili ed il rapporto F assume valori molto bassi (vicini ad 1 o inferiori). I punteggi dei soggetti nei diversi gruppi sono simili. H0 falsa: varianza tra i gruppi (trattamento) maggiore della varianza entro i gruppi (errore casuale), il rapporto F assumerà valori elevati. ANALISI DELLA VARIANZA - 5 a) F significativa (Rifiuto H0: µ1=µ µ2= .... =µ µk) Se la varianza tra i gruppi è maggiore della varianza entro i gruppi, le medie dei gruppi saranno piuttosto distanziate. y1. y.. b) F non significativa (Accetto H0: y.2 µ1=µ µ2= .... =µ µk) Se invece la varianza tra i gruppi non è significativamente diversa dalla varianza entro i gruppi, le medie dei gruppi saranno piuttosto ravvicinate. ANALISI DELLA VARIANZA - 6 ASSUNZIONI a) gli errori (εεij) seguono la distribuzione normale ed hanno media uguale a 0. Non normalità: ha un effetto debole sull’errore di tipo (leggera inflazione) soprattutto nel caso in cui le celle non sono bilanciate (numero di soggetti diversi nelle differenti condizioni). b) la varianza degli errori (σ σε) è uguale in ogni gruppo (OMOSCHEDASTICITA'). Eteroschedasticità: La F è “robusta” anche rispetto a questa assunzione. Gli effetti più gravi si hanno nei disegni non bilanciati. L’omoschedasticità viene valutata con il test di Levene. c) gli errori (εεij) sono indipendenti (il punteggio di un soggetto non è correlato con quello di altri soggetti). Non Indipendenza delle osservazioni: può avere effetti notevoli sul livello di significatività (aumento incontrollato del livello reale di α) e sulla potenza del test. L’indipendenza viene valutata con il coefficiente di correlazione intraclasse (vedi pp. 195-197). d) gli effetti hanno una natura additiva: la variabile sperimentale “aggiunge” qualcosa alla condizione-base e lo fa in maniera “identica” per tutti i soggetti. Non additività degli effetti: aumenta debolmente l’errore sperimentale e diminuisce la potenza del test. E’ un fattore di cui non ci si deve molto preoccupare. ANALISI DELLA VARIANZA - 7 Esempio Si vuole verificare l’efficacia di programmi di formazione che prevedono: a) l’assegnazione di obiettivi (condizione A); b) l’assegnazione di obiettivi e un feedback sui risultati (condizione B); c) una condizione di controllo in cui non si danno né obiettivi né feedback (condizione C). Tre gruppi di soggetti vengono sottoposti ognuno ad una condizione diversa ottenendo i seguenti risultati (Y = numero di problemi risolti): 10 Obiettivi (Y1): Obiettivi + Feedback (Y2): 9 3 Controllo (Y3): Disegno: 7 10 2 4 5 2 5 4 3 8 7 1 n=5 n=5 n=5 Analisi della varianza univariata (una sola V.D.) ad un fattore (una sola V.I.) tra i soggetti (un diverso gruppo di sogg. per ogni livello della V.I.) Formulazione delle ipotesi statistiche (H0): µ1 = µ2 = µ3 (le 3 medie sono relative a campioni che provengono dalla stessa popolazione) (H1): almeno due µ diverse, ovvero: µ1 ≠ µ2, o µ1 ≠ µ3, o µ2 ≠ µ3 (almeno due medie sono relative a campioni che provengono da popolazioni diverse) Valore critico di F e zona di rifiuto k - 1 = numero di gruppi - 1 = 3 - 1 = 2 (g.d.l. al numeratore); n - k = numero di soggetti - numero di gruppi = 15 - 3 = 12 (g.d.l. al denominatore). Sulla tavola di probabilità di F, all'incrocio tra 2 g.d.l. al numeratore e 12 g.d.l. al denominatore, troviamo: F(2, 12) = 3.89 per α = 0.05, e F(2, 12) = 6.93 per α = 0.01. Rifiuteremo l'ipotesi nulla per valori di F ≥3.89 (risultato significativo al 5%). Se il valore calcolato di F sarà superiore anche a 6.93, diremo che il risultato è significativo all'1%. ANALISI DELLA VARIANZA - 8 Calcolo delle varianze e del rapporto F Var. tra i gruppi = dev. tra i gruppi / (k - 1) = 73.73 / 2 = 36.87 Var. entro i gruppi = dev. entro i gruppi / (n - k) = 51.6 /12 = 4.3 F = Var. tra i gruppi/Var. entro i gruppi = 36.87/4.3 = 8.57 F empirico (8.57) > F critico al 1% (6.89): si rifiuta l'ipotesi nulla. Tabella dei risultati dell’ANOVA: Fonte CONDIZIO Errore Totale SS 73.73 51.60 125.33 df 2 12 14 MS 36.87 4.30 F 8.57 Sig. .01 Medie e deviazioni standard dei tre gruppi sulla VD. CONDIZIO A (Obiettivi) B (Ob.+ Feed.) C (Controllo) Totale Media 6.8 7.0 2.2 5.3 DS. 2.4 2.5 .84 2.99 N 5 5 5 15 Confronti tra le medie dei gruppi F significativo: esiste una differenza significativa tra almeno due delle medie dei gruppi messi a confronto, ma non sappiamo tra quali. Confronto tra le medie dei gruppi con un test statistico adeguato per individuare la fonte della significatività: a) i confronti post hoc; b) i confronti pianificati. ANALISI DELLA VARIANZA - 9 a) I confronti post hoc Ogni media in genere viene confrontata con tutte le altre. Il ricercatore non stabilisce in anticipo i confronti rilevanti ai fini della sua ipotesi. Svantaggio: all'aumentare del numero di gruppi aumenta il numero di confronti e aumenta la probabilità di commettere l'errore di primo tipo (livello α), cioè rifiutare l'ipotesi nulla quando è vera. Esempio precedente. 3 possibili confronti di medie: la condizione A con la condizione B, la A con la C e la B con la C. Si esamina l’ipotesi che o il primo, o il secondo, o il terzo confronto risultino significativi. Livello α = 0.05 per ognuno dei 3 confronti: La probabilità che almeno uno dei tre confronti risulti significativa è uguale a .05 + .05 + .05 =.15 Livello reale di α per i 3 confronti: 3*.05 = .15. Con k confronti post-hoc il livello di probabilità che almeno uno di essi risulti significativo non è α ma kα α. Soluzione: scegliere un valore α minore di .05 (es., .05/3=.017, e in genere .05/k). b) I confronti pianificati. Effettuare solo i confronti che appaiono più rilevanti ai fini dell'ipotesi di ricerca. Il ricercatore pianifica in anticipo quali medie (gruppi) verranno confrontate. I confronti pianificati consentono di esaminare la differenza tra 2 medie. Si possono confrontare 2 medie relative a 2 singoli gruppi. Si possono anche “combinare” insieme le medie di più gruppi e confrontare la media “aggregata” così ottenuta con la media di un gruppo singolo, o con un’altra media “aggregata”, ottenuta combinando più gruppi. Il confronto comunque sarà sempre tra 2 medie. ANALISI DELLA VARIANZA - 10 Esempio precedente: la presenza di una consegna ben precisa (obiettivo, oppure obiettivo + feedback) rispetto all’assenza di tale consegna si accompagna a maggiore facilità nella soluzione dei problemi. E’ sufficiente un set di due confronti tra le medie (invece dei tre confronti previsti per i post hoc): nel primo si contrasta il gruppo di controllo con i gruppi “obiettivi” e “obiettivi+feedback” combinati insieme (come se fossero un unico gruppo); nel secondo si contrastano tra loro i due gruppi “obiettivi” e “obiettivi+feedback”. Per effettuare i confronti (con il computer o manualmente) si deve attribuire ad ogni media un coefficiente, con segno positivo o negativo. Le medie con segno diverso vengono contrastate tra loro, quelle con segno uguale vengono combinate, quelle con coefficiente 0 non vengono considerate nel confronto. La somma dei coefficienti deve dare 0. Se anche la somma dei prodotti tra i coefficienti di un set di confronti è uguale a 0, si dice che i confronti sono tra loro ortogonali, cioè indipendenti. Coefficienti per i dati dell’esempio: 1° confronto 2° confronto Prodotti Obiettivi -1 1 -1 Ob. + Feed. -1 -1 1 Controllo 2 0 0 Confronto 1 Fonte SS Contrasto 73.63 Errore 51.60 df 1 12 MS 73.63 4.30 F Sig. 17.12 .001 Confronto 2: Fonte SS Contrasto .10 Errore 51.60 df 1 12 MS .10 4.30 F .023 Somme 0 0 0 Sig. .881 Il denominatore utilizzato nella F dei due confronti è sempre quello relativo alla varianza residua del test omnibus (“Errore” = 4.30). ANALISI DELLA VARIANZA - 11 Lo stesso risultato è ottenuto con un confronto in più e ad un livello di probabilità più elevato (α α = .05) tramite i post-hoc effettuati con la procedura Tukey HSD. N CONDIZIO Controllo Obiettivi Obiet + Feed Sottoinsieme 1 2 2.20 6.80 7.00 5 5 5 Significato dell'ortogonalità Confronti ortogonali: forniscono informazioni indipendenti, cioè il risultato del primo non consente di ottenere indicazioni sul possibile risultato del secondo, e viceversa. Numero massimo di confronti ortogonali = k - 1. In un set completo di k-1 confronti ortogonali la somma delle devianze tra i gruppi dei singoli confronti è uguale alla devianza spiegata dall'effetto “omnibus” nell'ANOVA. La devianza spiegata dall'effetto viene scomposta in un certo numero di "porzioni" tra loro indipendenti (nell’esempio: 73.63 + .10 =73.73). Set di confronti non ortogonali: 1° confronto 2° confronto 3° confronto Obiettivi 1 0 1 Ob. + Feed. -1 1 0 Controllo 0 -1 -1 Somme 0 0 0 I confronti sono tutti corretti (Somme = 0), ma non sono ortogonali. Per verificare l’ortogonalità bisogna confrontare ciascuna coppia di confronti. Per ognuna di esse la somma dei prodotti dei coefficienti deve essere uguale a zero. 1° vs. 2° 1° vs. 3° 2° vs. 3° 0 (=1*0) 1 (=1*1) 0 (=0*1) Prodotti -1 (=-1*1) 0 (=-1*0) 0 (= 1*0) ANALISI DELLA VARIANZA - 12 0 (=0*-1) 0 (=0*-1) 1 (=-1*-1) Somme -1 1 1 L'ANALISI DELLA VARIANZA UNIVARIATA (ANOVA): DISEGNI FATTORIALI Vengono definiti fattoriali (o a più vie) i disegni di analisi della varianza in cui vi sono due o più variabili indipendenti. Disegno fattoriale più semplice: Disegno "2X2". Due fattori, ciascuno con due differenti livelli ("condizioni"). Vantaggi dei disegni fattoriali 1) Studio dell'interazione, cioè dell'effetto congiunto delle VI sulla VD. 2) Aumento della potenza del test, perché viene ridotta la varianza di errore. 3) Maggiore economia nel numero dei soggetti da esaminare, mantenendo la stessa potenza del test. EFFETTI PRINCIPALI E INTERAZIONI Effetto principale: effetto medio di una indipendentemente dai valori delle altre VI. VI sulla VD, Interazione: effetto di una VI sulla VD che si verifica solo a determinati livelli dell'altra VI; effetto di una VI sulla VD che non è lo stesso per tutti i livelli delle altre VI. Esempio con un disegno fattoriale 2x3 Trattamento Abilità T1 T2 T3 mi. Bassa 85.00 80.00 76.00 80.33 Alta 60.00 63.00 68.00 63.67 m.j 72.50 71.50 72.00 ANALISI DELLA VARIANZA - 13 Ipotesi per effetti principali e interazione. Effetti principali: Trattamento: ipotesi sulle medie delle colonne. H0: µ.1 = µ.2 = µ.3 (A livello di campione: 72.5 = 71.5 = 72) H1: Almeno due medie sono differenti [(µ µ.1 ≠ µ.2) o (µ µ.1 ≠ µ.3) o (µ µ.2 ≠ µ.3)] Abilità: ipotesi sulle medie delle righe H0: µ1. = µ2. (A livello di campione: 80.33 = 63.67) H1: µ1. ≠ µ2 Interazione: Ipotesi sulle differenze delle medie nelle diverse combinazioni delle condizioni sperimentali. H0: (µ µA - µB)T1 = (µ µA - µB)T2= (µ µA - µB)T3 A livello di campione: (85 -60) = (80 - 63) = (76 - 68) (cioè, 25 =17= 8) H1: Almeno una differenza tra differenze di medie significativa è Tutte le volte che c'è un'interazione nei dati, sarebbe fuorviante interpretare gli effetti principali senza discutere le interazioni La rappresentazione grafica dei dati può rilevazione della presenza di un’interazione. ANALISI DELLA VARIANZA - 14 facilitare la Rappresentazione grafica dell'esempio precedente TRATTAMENTO 90 85 80 75 70 65 60 55 50 T1 T2 T3 ABILITA' 90 85 80 75 70 65 60 55 50 Abilita' bassa Abilita' Alta INTERAZIONE 90 85 85 80 80 76 75 Abilita' Alta 70 68 65 63 60 60 55 50 T1 T2 ANALISI DELLA VARIANZA - 15 T3 Abilita' Bassa Disegni fattoriali “Tra i soggetti” (Between Subjects): Tutti i fattori sono tra i soggetti. I soggetti vengono assegnati casualmente ad ognuna delle singole celle. Ogni soggetto è esposto solamente ad una particolare combinazione delle condizioni sperimentali. FEEDBACK OBIETTIVI SI SI NO S1 S6 S2 S7 … … NO S11 S16 S12 S17 … … Ogni cella (incrocio di due livelli diversi dei due fattori) contiene soggetti diversi. Modello Teorico dei Disegni fattoriali “Tra i soggetti” Modello teorico dell'ANOVA in un disegno fattoriale con 2 fattori F1 e F2: il punteggio yijk di un soggetto “k” contenuto nella “cella” “ij” è scomponibile nel modo seguente: yijk= µ + αi + βj + φij + εijk, dove αi = µi..-µ µ: effetto principale di F1 (deviazione della media della i-esima riga dalla media generale) βj = µ.j.-µ µ: effetto principale di F2 (deviazione della media della j-esima colonna dalla media generale) φij = µij. - µ - (α αi + βj): effetto dell’interazione. Parte della media di una cella ij che non dipende dall’errore, e che non è spiegata né dalla media generale, né dagli effetti principali. εijk: termine residuale (“errore”) ANALISI DELLA VARIANZA - 16 Stime campionarie dei parametri del modello: A=1 A=2 B=1 B=2 y11. y21. y.1. y12. y22. y.2. y1.. y2.. y... µ̂ = y... α̂ i = ( yi.. - y... ) e quindi α̂ 1 = ( y1.. - y... ) β̂ j = ( y.j. - = ( y.2. - y... ) φ̂ij αi + βj) = = µij. - µ - (α y... ) e quindi β̂2 yij. - y... - [( yi.. - y... ) + ( y.j. - y... )]= φ̂ij = yij. - yi.. - y.j. + y... , quindi φ̂12 = y12. ε̂ ijk = ( yijk - yij. ) - y1.. - y.2. + y... Allora: yijk = y... +( yi.. - y... )+( y.j. - y... )+( yij. - yi.. - y.j. + y... )+( yijk - yij. ) µ̂ + α̂ i + β̂ j + E quindi: φ̂ij + ε̂ ijk yijk - y... = ( yi.. - y... )+( y.j. - y... )+( yij. - yi.. - y.j. + y... )+( yijk - yij. ) ANALISI DELLA VARIANZA - 17 In base alle equazioni precedenti è possibile definire le seguenti devianze: ΣiΣjΣk( yijk - y... )2 = (SST = dev. totale) ΣiΣjΣk( yi.. - y... )2 (SSF1 = dev. eff. princ. di F1) ΣiΣjΣk( y.j. - y... )2 (SSF2 = dev. eff. princ. di F2) ΣiΣjΣk( yij. - yi.. - y.j. + y... )2 (SSF1XF2 = dev. interazione) ΣiΣjΣk( yijk - yij. )2 (SSW = devianza residua) La devianza totale può essere scomposta nel modo seguente: SST = SSB + SSW = SSF1 + SSF2 + SSF1XF2 + SSW Gradi di libertà e test di significatività (rapporto F): SST FF1= MSF1/ MSW FF2= MSF2/ MSW FF1xF2= MSF1xF2/ MSW SSB SSW k1 = livelli di F1 k2 = livelli di F2 (n - k1k2) SSF1 SSF2 SSF1XF2 (k1-1) (k2-1) (k1-1)(k2-1) ANALISI DELLA VARIANZA - 18 ANALISI DEI DISEGNI FATTORIALI 1. ANALISI DEGLI EFFETTI PRINCIPALI Esempio da Keppel et al., pp. 260 e segg.. 2 fattori (o variabili indipendenti): Rinforzo e Compito; 1 variabile dipendente: n. di problemi risolti. Fattori tra soggetti RINFORZO COMPITO 1,00 2,00 3,00 1,00 2,00 Etichetta di valore LODE CRITICA SILENZIO SEMPLICI COMPLESSI N 10 10 10 15 15 Risultati ottenuti tramite le formule definite per i disegni ANOVA fattoriali: Fonte RINFORZO COMPITO RINFORZO X COMPITO Errore Totale SS 67.27 40.83 31.27 df 2 1 2 MS 33.63 40.83 15.63 84.00 223.37 24 29 3.50 F 9.61 11.67 4.47 Sig. .001 .002 .022 Effetto principale del fattore “COMPITO”: SEMPLICI 6.400 COMPLESSI 4.067 Effetto principale del fattore “RINFORZO”: LODE 7.30 CRITICA 4.60 SILENZIO 3.80 Confronti post-hoc con il metodo di Tukey-HSD: i due tipi di rinforzi Silenzio e Critica hanno medie uguali e significativamente diverse dal rinforzo Lode. ANALISI DELLA VARIANZA - 19 Confronti pianificati. Possiamo confrontare le condizioni di Lode con quelle di Critica e Silenzio aggregate, e la condizione di Critica con Silenzio. Confronto 1: Coefficienti: (2 –1 –1) Fonte SS Df MS F Sig. Contrasto 64.07 1 64.07 18.31 .000 Errore 84.00 24 3.50 Confronto 2: Coefficienti (0 1 –1) Fonte SS Df MS F Contrasto 3.20 1 3.20 .91 Errore 84.00 24 3.50 Sig. .349 2. ANALISI DELL’INTERAZIONE- EFFETTI SEMPLICI Nel nostro esempio l’interpretazione degli effetti principali può condurre a conclusioni errate. RINFORZO LODE COMPITO Media SEMPLICI 7.6 COMPLESSI 7.0 CRITICA SEMPLICI 7.2 COMPLESSI 2.0 SILENZIO SEMPLICI 4.4 COMPLESSI 3.2 La variabile Rinforzo produce un effetto sulla variabile Risposte che è differente a seconda dei livelli della variabile Compito. 8 7 6 5 4 3 COMPITO 2 SEMPLICI COMPLESSI 1 LODE CRITICA SILENZIO RINFORZO ANALISI DELLA VARIANZA - 20 Analisi degli EFFETTI SEMPLICI: Per identificare le combinazioni dei fattori che danno un’interazione significativa. Effetti Semplici (“Simple Effects”): esame dei valori della variabile dipendente associati ai valori di una VI, quando i valori dell’altra VI sono mantenuti costanti. - Disegno fattoriale: semplificato effettuando tanti disegni “monofattoriali” quanti sono i livelli della VI che viene mantenuta costante. - Se c’è un’interazione significativa, gli effetti semplici relativi ad una VI sono diversi nei livelli della VI che viene controllata. - Gli ES consentono di evidenziare l’effetto di modulazione che una VI ha sulla relazione tra un’altra VI e la VD. - L’analisi degli effetti principali annulla tale effetto, poiché confronta le medie marginali, nelle quali i livelli dell’altra variabile indipendente vengono sommati tra di loro. Analisi degli effetti semplici per il fattore “Compito” mantenendo costante il fattore “Rinforzo” (l’analisi del fattore “Rinforzo” mantenendo costante il fattore “Compito” dà risultati analoghi). RINFORZO LODE Contrasto Errore CRITICA Contrasto Errore SILENZIO Contrasto Errore Test univariati SS df .90 1 84.00 24 67.60 1 84.00 24 3.60 1 84.00 24 MS .90 3.50 67.60 3.50 3.60 3.50 F .26 Sig. .62 19.31 .000 1.03 .32 La devianza Between che viene scomposta è data dalla somma della devianza del fattore “COMPITO” (40.83) più la devianza dell’interazione (31.27), ovvero: .90+67.60+3.60=72.1 = 40.83+31.27. La devianza Within è quella del disegno fattoriale completo (84.00). ANALISI DELLA VARIANZA - 21 L'ANALISI DELLA VARIANZA UNIVARIATA (ANOVA): DISEGNI ENTRO I SOGGETTI AD UN SOLO FATTORE Disegni in cui si gli stessi soggetti sono utilizzati nelle diverse condizioni sperimentali (ovvero, nei diversi livelli della Variabile Indipendente). Non si parla di gruppi sperimentali e di controllo, ma di trattamenti diversi o di condizioni sperimentali e di controllo. L'analisi della varianza viene anche detta per prove (o misure) ripetute. Le singole celle sono composte sempre dagli stessi soggetti: A=1 S1 S2 ... A=2 S1 S2 ... y 1. y 2. Sn Sn y n. y.1 y.2 y.. ... Le medie marginali di riga ( y 1. , y 2. , .., y n. ) rappresentano il punteggio medio di ogni soggetto rispetto alle k prove (in questo caso k = 2) e consentono di isolare dalla variazione totale dei punteggi la parte che dipende dalle differenze individuali (ovvero dalle differenze tra i soggetti). Le medie marginali di colonna ( y.1 , y.2 ) rappresentano il punteggio medio per ognuna delle k prove, attraverso tutti gli n soggetti. Sono le medie che devono essere confrontate per esaminare se c’è differenza significativa tra i k trattamenti effettuati. ANALISI DELLA VARIANZA - 22 Scomposizione della devianza totale La devianza tra le prove (SSK) è quella dovuta agli effetti del trattamento. La devianza entro le prove (SSW) viene scomposta in due parti differenti: la devianza tra i soggetti (SSS) e la devianza residua (SSres). Le differenze individuali tra i soggetti non costituiscono variabilità d'errore, perché rimangono costanti da una prova all'altra. Questa variabilità può essere calcolata e eliminata dall'analisi, e va a costituire la devianza tra i soggetti (SSS). La devianza d'errore è prevalentemente dovuta alle fluttuazioni casuali nelle risposte dei soggetti da una condizione sperimentale all'altra, non spiegabili né in base agli effetti del trattamento, né in base alle differenze individuali tra i soggetti e costituiscono la variabilità d'errore, o residua (SSW). SST (nk-1) SSK SSW (k-1) SSres SSS (n-1) (n-1)(k-1) F= MSK/ MSres ANALISI DELLA VARIANZA - 23 SST = Devianza Totale nk - 1 gdl SSK = Devianza tra le prove k - 1 gdl SSW = Devianza entro le prove k(n-1) gdl SSS = Devianza tra i soggetti n-1 gdl SSres =Devianza residua (n - 1)(k - 1) gdl ANOVA - Disegni Within Subjects: Tabella riassuntiva Devianza Tra le Prove SSB Tra i Soggetti SSS Within SSw Formule 2 2 GDL k-1 ΣiΣj( yi. - y.. ) =kΣi( yi. - y.. ) 2 n-1 ΣiΣj( y.j - y.. ) =nΣj( y.j - y.. ) 2 ΣiΣj( yij - y.. ) 2 k(n-1)=N-k Residua SSres SSw – SSS (n-1)(k-1) n = numero di soggetti, k = numero di prove, N = numero di risposte (=n*k) Vantaggi dei disegni entro i soggetti - Riduzione dell’errore sperimentale (disegni più potenti) - Meno soggetti (disegni più economici) Svantaggi dei disegni entro i soggetti - Necessità di controllare gli effetti di ordine e di sequenza nella presentazione delle prove Assunzioni per il modello entro i soggetti: sono le stesse esaminate per il modello tra i soggetti. L’omoschedasticità è sostituita dalla assunzione di SFERICITA' o CIRCOLARITA': la varianza delle differenze tra tutte le coppie delle misure ripetute deve essere uguale. Si verifica con il test di Mauchley. Nel caso di tre misure (ad esempio m1, m2 e m3) questa condizione richiede che: σ2m1-m2= σ2m1-m3= σ2m2-m3 Nel caso di due misure questa assunzione ovviamente non è verificabile. ANALISI DELLA VARIANZA - 24 Esempio di disegno ANOVA Within Subjects ad un fattore 24 soggetti vengono sottoposti alle seguenti condizioni: Condizione 1: Messaggio di contenuto “insaliente” (es., “L’automobile X non è affidabile, è più che affidabile”) Condizione 2: Messaggio di contenuto “non-insaliente” (es., “L’automobile X è affidabile, è più che affidabile”) Condizione 3: Messaggio di contenuto “neutrale” (es., “L’automobile X è stata prodotta negli stabilimenti YY”) Il soggetto viene esposto a 10 stimoli per ognuna delle 3 condizioni. La variabile dipendente è il numero di ricordi corretti. Gradi di libertà per la F sono: (k-1) = 3-1 = 2 per la varianza tra le prove (n-1) (k-1)= (24-1)(3-1) = 23*2 = 46 per la varianza residua. Risultati dell'analisi della varianza SS Df MS F Sig. 81.88 2 40.94 33.63 .000 55.99 46 1.22 Fonte Stimolo Errore L'effetto del tipo di Stimolo risulta significativo. Ins Medie 16.85 Non Ins Neutro 14.42 14.81 N 24 I ricordi corretti sembrano maggiori nella condizione “Stimolo Insaliente” (Ins) rispetto alle altre due condizioni (NonInsaliente e Neutro). Tuttavia non possiamo ancora dire quali di queste 3 medie risultino significativamente diverse. ANALISI DELLA VARIANZA - 25 Confronti pianificati (ortogonali) Analisi delle differenze tra le 3 medie tramite i confronti pianificati: Confronto iniziale tra la condizione 1 (Stimolo Insaliente) e le condizioni 2 e 3 aggregate (Stimolo Noninsaliente o Neutro). Confronto 1: Coefficienti (-2 1 1) Fonte SS Df MS F Sig. Contrasto 120.06 1 120.06 111.25 .000 Errore 24.82 23 1.08 L’insalienza produce un miglioramento significativo nel ricordo dello stimolo. Confronto tra le due condizioni “di controllo”: Confronto 2: Coefficienti: (0 1 –1) Fonte SS Df MS F Sig. Contrasto 3.67 1 3.67 1.07 .312 Errore 78.90 23 3.43 I soggetti hanno prodotto lo stesso numero di ricordi corretti nelle condizioni Stimolo Non-insaliente o Neutro. E’ possibile ottenere risultati analoghi utilizzando i confronti post-hoc invece dei confronti pianificati. ANALISI DELLA VARIANZA - 26 DISEGNO FATTORIALE CON 2 FATTORI WITHIN Disegni fattoriali entro i SS: tutti i fattori sono entro i soggetti. I soggetti vengono esposti a tutte le combinazioni delle condizioni sperimentali. Le singole celle sono composte sempre dagli stessi soggetti. RISPOSTA (B) IMMEDIATA RITARDATA INSALIENZA (A) SI NO S1 S1 S2 S2 ... ... S1 S1 S2 S2 ... ... SST SSF1 SSF2 SSF1XF2 SSS (n-1) SSK1 SSres1 (k1-1) (k1-1)(n-1) SSK2 SSres2 SSK12 SSres12 (k2-1) (k2-1)(n-1) (k1-1)(k2-1) (k1-1)(k2-1)(n-1) FF1= MSk1/ MSres1 FF2= MSk2/ MSres2 FF1xF2= MSk12/ MSres12 Ogni fonte di variabilità “tra le prove” prevede una varianza residua separata. E’ possibile isolare l’effetto delle differenze individuali nei fattori F1 e F2 e nell’interazione, e quindi eliminare la devianza tra i soggetti (SSS) dalla devianza entro le prove. ANALISI DELLA VARIANZA - 27 Dati dell’esempio: tab. 4.23, pag. 234 Medie prove y1.. = 2.85 (A1) y2.. = 3.11 (A2) Media totale y.1. = 4.80 (B1) y.2. = 1.15 (B2) y... =2.98 L’applicazione delle formule specificate a pagina 231 consente di ottenere i seguenti risultati: Fonte A Residua A B Residua B AxB Residua AxB Soggetti SS .625 .625 133.225 46.025 .225 1.025 55.23 df 1 9 1 9 1 9 9 Ms .625 .07 133.225 5.11 .225 .22 6.14 F 9 p .015 26.05 .001 1.98 .193 I fattori sono a 2 livelli, quindi non c’è bisogno di analisi ulteriori per gli effetti principali. L’interazione non è significativa, quindi non c’è bisogno di effettuare l’analisi degli effetti semplici. ANALISI DELLA VARIANZA - 28 DISEGNO FATTORIALE MISTO (1 FATTORE BETWEEN E 1 FATTORE WITHIN) Disegni fattoriali "misti": almeno un fattore è tra i soggetti ed almeno un altro fattore è entro i soggetti. I soggetti vengono esposti a tutte le condizioni sperimentali della variabile “entro”, e soltanto ad un livello della variabile “tra”. Le celle sono composte dagli stessi soggetti se si considerano i diversi livelli del fattore "entro", e da soggetti diversi se si considerano i diversi livelli del fattore "tra". INSALIENZA (W) PRIMING (B) NO SI S1 SI S1 S2 S2 ... ... S6 NO S6 S7 S7 ... ... Le colonne relative al fattore Insalienza contengono gli stessi soggetti (è il fattore within) mentre le righe relative al fattore Priming contengono soggetti diversi (è il fattore between). SST SSB SSW SSB1 SSres1 (k1-1) k1(n-1) SSW1 SSB1xW1 SSres2 (k2-1) (k1-1)(k2-1) k1(n-1)(k2-1) FB= MSB1/ MSres1 FW= MSW1/ MSres2 FBxW= MSB1xW1/ MSres2 ANALISI DELLA VARIANZA - 29 Dati dell’esempio: tab. 4.26, pag. 239 Medie celle y11. = 4.33 (B1W1) y21. = 3.00 (B2W1) y12. = 8.67 (B1W2) y22. = 5.67 (B2W2) Medie prove y1.. = 6.5 (B1) y2.. = 4.33 (B2) Media totale y.1. = 3.67 (W1) y.2. = 7.17 (W2) y... =5.42 L’applicazione delle formule specificate a pagina 236 consente di ottenere i seguenti risultati: Fonte B Residua B W WxB Residua W e WxB Soggetti SS 14.08 5.33 36.75 2.08 2.67 19.42 df 1 4 1 1 4 5 Ms 14.08 1.33 36.75 2.08 .67 3.88 F 10.56 p .031 55.12 3.12 .002 .152 2 varianze residue: una per il fattore Between, e una per il fattore Within e per l’interazione tra B e W. La varianza dovuta alle differenze individuali (SSS) può essere isolata dalla varianza residua solo per il fattore W, mentre nel fattore B risulta inglobata nelle sue componenti di varianza (SSS = SSB1+SSres1) ANALISI DELLA VARIANZA - 30 EFFECT SIZE La F è fortemente dipendente dalla numerosità dei gruppi considerati. Non basta allora dimostrare che la F è statisticamente significativa per rilevare la presenza di un effetto. Bisogna dimostrare che l’effetto è importante anche da un punto di vista pratico. Coefficienti che quantificano l’associazione tra variabile dipendente e variabile indipendente: possono essere interpretati come proporzione della varianza della variabile dipendente spiegata dalla variabile indipendente. η2 = SSB/SST ω2 = [SSB – (k-1) * MSw]/ (SST + MSw) Effect size nell’ANOVA: ω2,η2 = .01-.05 ω2,η2 = .06-.13 ω2,η2 = .14 ! Basso ! Moderato ! Elevato ANALISI DELLA VARIANZA - 31 POTENZA DELLA VERIFICA Probabilità di rifiutare l’ipotesi nulla quando essa è falsa. Probabilità di rilevare un effetto quando esso è presente. Errore del II tipo: accettare l’ipotesi nulla quando essa è falsa. La probabilità di commetterlo è indicata con il simbolo β. La potenza si indica con 1-β β. Errore di I tipo (si indica con α), ed errore di II tipo sono inversamente proporzionali. Esempio: differenze tra 2 gruppi, entrambi di 15 soggetti. α .10 .05 .01 β .37 .52 .78 La potenza della verifica dipende da tre fattori: -livello di α -ampiezza del campione -grandezza dell’effetto (effect size): quanto differiscono effettivamente nella popolazione. 1-β β .63 .48 .22 i gruppi Esempio: cambiamento nella potenza in funzione di n, considerando un effect size pari a .5. n per gruppo 10 20 50 100 1-β β .18 .33 .70 .94 ANALISI DELLA VARIANZA - 32 COSA FARE PER AUMENTARE LA POTENZA DELLA VERIFICA * Aumentare l’effect size - Ridurre la variabilità entro i gruppi: # gruppi più omogenei # disegni fattoriali invece che a una via # analisi della covarianza # disegni within subjects - Essere sicuri che ci sia un legame forte tra variabile indipendente e variabile dipendente (validità interna dell’esperimento) * Aumentare il numero di soggetti * Aumentare α/Usare test a una coda [soluzione poco efficiente] STIME DELLA POTENZA POST–HOC: Consentono di calcolare il livello (1-β β) dopo aver effettuato l’analisi. Permettono di interpretare meglio i risultati (soprattutto in presenza di F non significativa, ed effect size moderato/elevato). A PRIORI: Consentono di stabilire (una volta identificato l’effect size che si attende nell’esperimento) quale sarà la potenza della verifica per un dato numero di gruppi (k) e di numerosità di soggetti per gruppo (nk). Consentono anche di stabilire quanti soggetti sono necessari per ogni gruppo per ottenere un determinato livello (1-β β) dato un certo valore dell’effect size. Le stime della potenza della verifica vengono effettuate utilizzando delle apposite tabelle sviluppate da Cohen, ed opportune formule per stimare l’effect size. Nella maggior parte delle ricerche psicologiche si considera adeguata una potenza pari a .80 (ovvero, la probabilità di commettere errore di II tipo, cioè accettare l’ipotesi nulla quando è falsa, è uguale a .20). Raggiungere livelli di potenza più elevati richiede spesso troppi soggetti. ANALISI DELLA VARIANZA - 33