ACP: analisi in componenti principali

Transcript

ACP: analisi in componenti principali
ACP: analisi in componenti
principali
Giovanni Di Franco
ACP 1
• Spesso, nella vita di tutti i giorni, ci capita di dover
sintetizzare delle informazioni; senza saperlo operiamo con
una logica analoga a quella dell’analisi in componenti
principali. Ad esempio, quando presentiamo le
caratteristiche di una persona possiamo effettuarne una
descrizione minuziosa (la sua professione, il suo reddito, i
suoi consumi, le sue attività nel tempo libero, etc.), oppure
possiamo estrapolare da tutte queste caratteristiche quella o
quelle dimensioni che le riassumono al meglio. In altri
termini, anziché dire della persona X che guadagna cinque
milioni al mese, che vive in una villa in un quartiere
residenziale, che possiede due automobili di grande
cilindrata, che trascorre i fine settimana nella sua casa di
campagna, etc., possiamo dire che X è un benestante.
ACP 2
• Il concetto di benestante equivale a una componente principale
che riassume l’insieme delle caratteristiche di X, cercando di
rendere minima la perdita di informazioni. Obiettivo dell’acp è
esattamente questo: ridurre un insieme di informazioni alle sue
componenti principali minimizzando la perdita di informazioni
(inevitabile in ogni operazione di sintesi).
• L’acp trasforma matematicamente un insieme di variabili
cardinali e/o quasi-cardinali tra loro correlate in un numero
minore di nuovi costrutti (detti componenti principali)
indipendenti (cioè ortogonali fra loro nello spazio). Si tratta,
quindi, sostanzialmente di una operazione che bilancia
l’obiettivo della sintesi con quello di minimizzare la perdita di
informazione. Nella fig. 6.1 abbiamo visualizzato graficamente
lo scopo dell’acp.
Figura 6.1 – L’analisi in componenti principali scompone e
riproduce le varianze e le covarianze presenti fra un insieme
di variabili standardizzate
Le variabili sono fra loro
correlate e hanno tutte
varianza unitaria
Le componenti
principali sono fra
loro indipendenti e
riproducono
quote via via
decrescenti di varianza
I Comp.
X2
X4
X1
X3
II Com.
X5
III
IV
V
ACP 3
• Nella fig. 6.1 abbiamo rappresentato cinque variabili
standardizzate fra loro correlate con cinque circonferenze
di uguale superficie. Essendo le variabili standardizzate, la
varianza totale è pari al numero delle variabili (dato che
ogni variabile presenta varianza uguale a 1); le covarianze
sono date dalla matrice dei coefficienti di correlazione
bivariata fra le stesse.
• Il coefficiente di correlazione bivariata può essere infatti
interpretato come il prodotto delle varianze (e quindi la
covarianza) fra due variabili standardizzate. In modo
analogo, possiamo considerare una matrice di correlazioni
bivariate come una matrice di varianze e covarianze fra
variabili standardizzate.
ACP 4
• Se tra le variabili esiste una sufficiente
quota di varianza in comune, basteranno
poche componenti principali per ottenere
una buona approssimazione della matrice di
partenza, con il vantaggio di una lettura
semplificata. Quindi, il punto di partenza
dell’acp consiste nella costruzione di una
matrice delle correlazioni. Si calcola la
matrice delle correlazioni tra tutte le coppie
di variabili e da questa si estraggono le
componenti principali.
ACP 5
• L'entità delle correlazioni tra le variabili rilevate è un
prerequisito indispensabile affinché l’acp fornisca risultati
soddisfacenti. Infatti, ragionando per casi limite, se fra tutte le
variabili considerate ci fossero correlazioni molto modeste
(tendenti a zero) avremmo che ogni variabile varia in modo
indipendente da qualsiasi altra, e quindi non sarebbe possibile
operare alcuna sintesi. Nel caso opposto, ovvero se tra le
variabili riscontrassimo correlazioni altissime (tendenti a più o
meno uno) avremmo raccolto delle variabili molto ridondanti, e
anche in questo caso lutilizzo dell’acp non sarebbe conveniente.
L’acp diviene efficace solo quando tra le variabili esiste
un’apprezzabile quota di varianza in comune (espressa da
coefficienti di correlazione non tutti molto bassi o molto alti);
allora saranno sufficienti poche componenti principali per
ottenere una buona approssimazione alla matrice di partenza.
ACP 6
• L’acp riproduce la varianza complessiva combinando
linearmente tutta la varianza e la covarianza delle variabili
in cinque costrutti fra loro indipendenti e con un livello di
varianza riprodotta via via decrescente (vedi le
circonferenze che rappresentano le componenti principali
disposte in ordine decrescente di area in fig. 6.1). La prima
componente è quella che riproduce la massima quota di
varianza; la seconda riproduce meno varianza della prima,
ma più varianza delle successive, e così via fino ad
estrarre tante componenti principali quante sono le
variabili trattate nell’analisi. Le linee che legano ogni
variabile con ciascuna componente rappresentano il
concetto di combinazione lineare.
ACP 7
• Una combinazione lineare (o riduzione lineare) è il risultato
di un’operazione di somma ponderata che combina diverse
variabili in un unico costrutto. Ad esempio, (p11)*peso +
(p12)*altezza = massa; dove p11 e p12 sono i coefficienti di
ponderazione. Il diverso spessore dei legami fra le variabili
e le componenti principali nella fig. 6.1 rappresenta i
diversi pesi delle variabili relativi alle prime tre componenti
principali. Com’è facilmente intuibile, operando questa
riduzione, si riduce di una dimensione lo spazio (nel nostro
esempio, esprimendo la massa come combinazione lineare
di altezza e peso, abbiamo ridotto un piano a due
dimensioni, l’altezza e il peso appunto, in una retta, ossia in
una sola dimensione che rappresenta la massa).
ACP 8
• Analogamente, con tre dimensioni riduciamo un cubo in
un piano, e così via. Ovviamente, la riduzione di
dimensioni, oltre al vantaggio della sintesi, comporta
sempre dei costi. Facciamo un altro esempio: perché
diciamo che alcune persone sono fotogeniche e altre no?
Intanto, che cosa rappresenta una foto? Una foto riproduce
su due dimensioni una realtà tridimensionale: quindi
schiaccia tre dimensioni su due. Quando un volto è ben
riprodotto su una foto diciamo che la persona è
fotogenica; al contrario diciamo che la persona non è
fotogenica. In ogni caso una foto distorce sempre più o
meno (a seconda della prospettiva, della luce, etc.) quello
che rappresenta.
ACP 9
• Il vantaggio dell’acp consiste nella capacità di condensare
nelle prime componenti la maggior parte delle varianze e
covarianze presenti nell’insieme iniziale delle variabili.
Così, considerando solo le prime componenti principali (nel
nostro esempio le prime due) otteniamo la migliore sintesi
possibile per le cinque variabili iniziali.
• Generalizzando, partendo da una matrice dei dati con n casi
e p variabili cardinali e/o quasi-cardinali (vedi tab. 6.1), le
variabili, dopo essere state sottoposte ad acp, possono
essere sostituite nella matrice dalle prime k componenti
principali (con k molto più piccolo di p), rendendo minima
la perdita di informazione. Nella tab. 6.2, ad esempio, le
prime due componenti principali sostituiscono le p variabili
iniziali.
Tabella 6.1 – Una generica matrice dei dati con n casi e p variabili cardinali e/o
quasi-cardinali
v1
v2 …
vj
…
vp
caso 1 c1v1 c1v2 … c1vj
…
c1vp
caso 2 c2v1 c2v2 … c2vj
…
c2vp
…
…
… …
…
…
…
caso i civ1 civ2 …
civj
…
civp
…
…
… …
…
…
…
caso n cnv1 cnv2 … cnvj
…
cnvp
Tabella 6.2 – Le prime due componenti principali sintetizzano e sostituiscono
nella matrice dei dati le p variabili cardinali e/o quasi-cardinali
caso 1
caso 2
…
caso i
…
caso n
cp1
c1cp1
c2cp1
…
cicp1
…
cncp1
cp2
c1cp2
c2cp2
…
cicp2
…
cncp2
ACP 10
• Generalizzando, partendo da una matrice
dei dati con n casi e p variabili cardinali e/o
quasi-cardinali (vedi tab. 6.1), le variabili,
dopo essere state sottoposte ad acp, possono
essere sostituite nella matrice dalle prime k
componenti principali (con k molto più
piccolo di p), rendendo minima la perdita di
informazione. Nella tab. 6.2, ad esempio, le
prime
due
componenti
principali
sostituiscono le p variabili iniziali.
ACP 11
• Ricapitolando, le componenti principali presentano le seguenti
caratteristiche:
1) ogni componente è una combinazione lineare di tutte le
variabili originarie;
2) le componenti sono per necessità matematica indipendenti fra
loro (ortogonali);
3) esse riproducono, in ordine gerarchico decrescente, il massimo
della varianza riproducibile in quel turno;
4) se si calcolassero tutte le componenti principali si
riprodurrebbe l’originaria matrice delle correlazioni;
5) è possibile assegnare ad ogni caso della matrice dei dati uno
stato su ogni componente principale che si decide di
interpretare.
Nella fig. 6.2 abbiamo visualizzato come l’acp
scomponga e riproduca le varianze e covarianze a
partire da una matrice delle correlazioni.
Matrice di correlazione
r11
r12
r13
r14
r15
r21
r22
r23
r24
r25
r31
r32
r33
r34
r35
r41
r42
r43
r44
r45
Autovalori
Autovettori
r51
c11 c21
λ1
r52
c12 c22
λ2
r53 =
* c13 c23
λ3
r54
c14 c24
λ4
c15 c25
r55
λ5
c31
c32
c33
c34
c35
c41
c42
c43
c44
c45
c51
c52
c53
c54
c55
ACP 12
• Illustriamo il procedimento visualizzato in fig. 6.2 con
un esempio numerico. Dalla matrice dei dati relativi
alle province italiane prendiamo e sottoponiamo ad
acp le seguenti cinque variabili:
• x1 = risparmi pro-capite (sigla ‘risp’);
• x2 = percentuale di case non occupate sul totale delle
abitazioni (‘abno’);
• x3 = percentuale dei telefoni ad uso ufficio sul totale
degli abbonamenti telefonici (‘teuf’);
• x4 = percentuale di valore aggiunto nell’industria sul
totale del valore aggiunto (‘indu’);
• x5 = percentuale di valore aggiunto nel terziario sul
totale del valore aggiunto (‘terz’).
Nella fig. 6.3 si presenta il procedimento di scomposizione
della matrice delle correlazioni compiuto dall’acp.
Matrice di correlazione
1 -.34 .53 .54 .29
-.34
1 -.61 -.42 .30
.53 -.61
1 .59 -.40
.54 -.42 .59
1 .86
.29 .30 -.40 -.86
1
Autovalori
=
Autovettori
2.98
0 0 0 0
.69
0 .92 0 0 0
-.68
0
0 .67 0 0 * .81
0
0 0 .34 0
.90
0
0 0 0 .09
-.76
.25
-.49
.35
-.37
.60
.65
.46
-.06
.03
.15
-.18
.30
.46
-.01
.05
-.06
-.00
-.04
.23
.18
ACP 13
• La matrice delle correlazioni equivale a una
matrice di varianze e covarianze tra
variabili
standardizzate.
Essendo
standardizzate, le variabili hanno tutte
varianza unitaria, per cui la varianza totale è
uguale al numero delle variabili della
matrice: nel nostro esempio è pari a 5 (vedi
la diagonale principale della matrice delle
correlazioni in fig. 6.3).
ACP 14
• Ogni componente principale è espressa da un
autovalore (anche detto radice latente), che si
indica con la lettera greca lambda λ (vedi la
matrice diagonale degli autovalori in fig. 6.3),
un numero (detto scalare in algebra delle
matrici) che deriva dalla soluzione di un
sistema di equazioni. L’autovalore è una
combinazione lineare di tutte le variabili
immesse nella matrice delle correlazioni. Più
avanti chiariremo più dettagliatamente questo
punto.
ACP 15
• Sommando i cinque autovalori (uno per ogni
vettore-colonna) estraibili dalla matrice delle
correlazioni
otteniamo
esattamente
l’ammontare della varianza totale della matrice
delle correlazioni originaria. Nell’esempio di
fig. 6.3: 2,98 + 0,92 + 0,67 + 0,34 + 0,09 = 5.
• Da quanto detto segue che se si rapporta ogni
autovalore al totale della varianza e si
moltiplica il risultato per cento otteniamo la
percentuale di varianza riprodotta da ogni
componente principale:
ACP 16
• λ1 = 2,98/5*100 = 59,6% (% di varianza
riprodotta dalla prima componente);
• λ2 = 0,92/5*100 = 18,5% (% di varianza
riprodotta dalla seconda componente);
• λ3 = 0,67/5*100 = 13,4% (% di varianza
riprodotta dalla terza componente);
• λ4 = 0,34/5*100 = 6,8% (% di varianza
riprodotta dalla quarta componente);
• λ5 = 0,09/5*100 = 1,7% (% di varianza
riprodotta dalla quinta componente);
ACP 17
• Come si può notare, l’entità di queste percentuali
si riduce rapidamente, e gli ultimi due o tre
autovalori possono essere trascurati senza grave
perdita di informazione.
• Nel nostro esempio siamo partiti da una matrice di
correlazioni tra cinque variabili, e abbiamo
prodotto cinque componenti principali. Ognuna è
una combinazione lineare delle cinque variabili
originarie: quindi ciascuna componente principale
fornisce una rappresentazione sintetica
dell’associazione presente fra le variabili
originarie.
ACP 18
• Come detto, le componenti riproducono in ordine
decrescente la massima quota di varianza totale non
riprodotta dalle componenti già estratte e sono fra
loro indipendenti. La ragione di questo è molto
semplice. La prima componente viene estratta dalla
matrice delle correlazioni originale (quella riportata
sopra nell’esempio di fig. 6.3); la seconda dalla
matrice delle correlazioni che si ottiene depurando la
quota di varianze e covarianze riprodotta dalla prima
componente principale (primi residui); la terza dalla
matrice delle correlazioni tra i secondi residui, e così
via fino all’ultima componente estraibile.
ACP 19
• Questo procedimento causa l’ortogonalità delle
componenti principali e la loro capacità di riprodurre in
ordine gerarchico decrescente la massima quota di
varianza desumibile dalla matrice delle correlazioni
originarie e via via da quelle da esse derivate.
• Dal punto precedente si evince la funzione sintetica delle
componenti principali: la prima componente è in grado di
riprodurre da sola quasi il 60% della varianza della
matrice originaria; le prime due componenti principali
riproducono il 78%, etc. Date queste caratteristiche, di
solito si usano solo le prime componenti per sintetizzare al
meglio le associazioni tra le variabili originarie. Ecco
perché all’inizio si è parlato di sintesi.
ACP 20
• Ad ogni autovalore è associato un autovettore nel
quale sono riportati i pesi componenziali (component
loadings in inglese; vedi le colonne sotto l’intestazione
‘autovettori’ in fig. 6.3). che esprimono la saturazione
(il peso) di ogni variabile rispetto ad ogni componente
principale. Questi coefficienti sono del tutto
equivalenti ai coefficienti bivariati di correlazione
lineare ed esprimono l’associazione tra ciascuna
variabile e ciascuna componente. Inoltre, questi
coefficienti esprimono i pesi ‘lordi’ di ponderazione di
ogni variabile su ciascuna componente (vedi il
concetto di combinazione lineare).
ACP 21
• I pesi componenziali fra le variabili e le componenti
principali sono di estrema importanza in quanto
permettono di discriminare quali variabili contribuiscono
di più alla formazione delle singole componenti; ciò
permette di interpretare semanticamente le componenti,
come vedremo nel prossimo esempio.
• Dal punto di vista geometrico ogni componente principale
serve a rappresentare una dimensione lungo la quale sono
allineate le variabili originarie: i pesi componenziali sono
le coordinate delle variabili sulle componenti principali).
Se vogliamo rappresentare le cinque variabili del nostro
esempio sul piano costituito dalle prime due componenti
principali useremo i loro pesi sulle stesse (vedi fig. 6.4).
Figura 6.4 – La rappresentazione geometrica dei pesi
componenziali di cinque variabili sulle prime due
componenti principali
1,0
terz
,5
teuf
risp
0,0
indu
componente 2
abno
-,5
-1,0
-1,0
com ponente 1
-,5
0,0
,5
1,0
ACP 22
• Il calcolatore fornisce gli autovalori, gli autovettori, i
diagrammi, etc., restituendo in pochi secondi i risultati
di complicati calcoli che, fatti a mano, richiederebbero
molti giorni di lavoro di un esperto.
• Ogni asse rappresenta una componente. Di solito
sull’asse delle ascisse si dispone la componente
estratta prima e sull’asse delle ordinate quella estratta
dopo (nella fig. 6.4 la prima componente è sulle
ascisse e la seconda sulle ordinate). I due assi sono
graduati lungo scale che variano da −1 a +1 (è questo
infatti il campo di variazione dei pesi componenziali,
come dei coefficienti di correlazione).
ACP 23
• L’asse di ogni componente principale è
divisibile in un semiasse positivo (con
coordinate che variano da 0 a +1) e un semiasse
negativo (con coordinate che variano da 0 a
−1). Il punto di intersezione degli assi del piano
cartesiano (con coordinate 0,0) si chiama
baricentro. Il diagramma cartesiano è quindi
scomponibile in quattro quadranti che si
numerano in senso antiorario a partire dal
primo, che è quello delimitato dai semiassi
positivi delle due componenti (in alto a destra).
ACP 24
• Normalmente, i diagrammi a dispersione riescono ad
evidenziare le variabili che più saturano le componenti in
modo migliore rispetto alla mera ispezione della matrice
dei pesi componenziali (vedi oltre). Infatti, visto che la
posizione di una variabile nel diagramma dipende dai suoi
pesi sulle componenti rappresentate nel diagramma (vedi le
linee tratteggiate nella fig. 6.4 che indicano la proiezione di
ogni variabile sui due assi), più questi sono elevati più la
variabile si allontanerà dal baricentro.
• Naturalmente se ne allontanerà lungo lascissa se ha un alto
peso sulla prima componente, lungo lordinata se ha un alto
peso sulla seconda componente, lungo la diagonale se ha
pesi alti su entrambe.
ACP 25
• Al contrario, se una variabile presenta pesi modesti (tendenti a
zero) su entrambe le componenti considerate, la sua posizione
sarà prossima al baricentro. Se due o più variabili sono vicine
fra loro e collocate presso un’estremità di un semiasse
rappresentante una componente, ciò indica che esse sono
altamente correlate in modo positivo fra loro e con la
componente in questione (in modo positivo o negativo a
seconda che si tratti del semiasse positivo o negativo della
componente). Se due variabili si distanziano dal baricentro, ma
una sul semiasse positivo e l’altra su quello negativo di una
stessa componente, ciò indica che tra le due variabili esiste
un’alta correlazione negativa e che entrambe presentano pesi
elevati su quella componente (peso negativo per la variabile
che si trova sul semiasse negativo e positivo per l’altra).
ACP 26
• Se due variabili, o due gruppi di variabili,
sono una vicina ad un asse e l’altra al
secondo asse (non importa in quale
quadrante del piano) ciò indica che tra le
due variabili, o gruppi di variabili, ci sono
basse correlazioni e che esse presentano
pesi alti su una componente e bassi
sull’altra.
ACP 27
• I pesi componenziali, permettendo di collocare ogni
variabile nello spazio determinato da due componenti,
consentono di dare un’interpretazione alle componenti
stesse. Operazione che ovviamente il calcolatore non
può fare, e che spetta al ricercatore. All’utente dell’acp
competono anche le scelte a monte (scegliere le
variabili da sottoporre ad analisi, valutare l’utilità
dell’applicazione dell’acp) e quelle a valle dell’analisi
(valutare l’utilità dei risultati; decidere cioè quante
componenti principali interpretare e utilizzare in
successive analisi). L’interpretazione di una
componente principale, con la conseguente scelta
dell’etichetta verbale più adeguata per la stessa, verrà
illustrata più avanti.
ACP 28
• In modo analogo ai coefficienti di correlazione lineare, se
eleviamo al quadrato i pesi componenziali otteniamo la quota
di varianza in comune tra una componente e una variabile.
Fatta questa precisazione, possiamo esplicitare la relazione
fra ogni autovalore e il suo autovettore. Abbiamo già detto
che l’autovalore è il risultato di una combinazione lineare
delle variabili originarie in grado di riprodurre una data quota
della varianza originaria e che i pesi componenziali elevati al
quadrato esprimono la quota di varianza lorda in comune tra
una variabile e una componente. Da ciò derivano
algebricamente due conseguenze. La prima è mostrata nella
fig. 6.5: sommando gli elementi di ogni autovettore elevati al
quadrato otteniamo il valore dell’autovalore associato
all’autovettore.
ACP 29
• Nella fig. 6.5 mostriamo il significato
algebrico dell’espressione ‘combinazione
lineare’ e del rapporto fra ogni autovalore e
il corrispondente autovettore.
Figura 6.5 – La somma degli elementi elevati al quadrato di
ogni autovettore è uguale al corrispondente autovalore
I autovettore
.688
-.676
.812
.902
-.759
I autova lore
2,979
II autovettore
.254
-.487
.351
-.366
.604
II autova lore
0,924
( .688) 2
( .254) 2
( .653) 2
(-.182) 2
(-.057) 2
+
+
+
+
+
III autovettore
.653
.462
-.061
.033
.154
III autovalore
0,668
(-.676) 2
(-.487) 2
( .462) 2
( .303) 2
(-.001) 2
IV autovettore
-.182
.303
.461
-.009
.047
IV autovalore
0,340
V autovettore
-.057
-.001
-.036
.226
.181
V autovalore
0,089
+
+
+
+
+
( .812) 2
( .351) 2
(-.061) 2
( .461) 2
(-.036) 2
+
+
+
+
+
.814
.134
.001
.000
.052
+
+
+
+
+
( .902) 2
(-.366) 2
( .033) 2
(-.009) 2
( .226) 2
da cui:
.473
.065
.426
.033
.003
+
+
+
+
+
.457
.237
.213
.092
.000
+
+
+
+
+
.659
.123
.004
.213
.001
+
+
+
+
+
.576
.365
.024
.002
.033
=
=
=
=
=
2,979
0,924
0,668
0,340
0,089
+
+
+
+
+
(-.759) 2
( .604) 2
( .154) 2
( .047) 2
( .181) 2
=
=
=
=
=
λ1
λ2
λ3
λ4
λ5
ACP 30
• La seconda conseguenza algebrica della combinazione lineare
è riportata in fig. 6.6 e riguarda il concetto di comunalità,
relativo alle variabili su cui si è effettuata l’acp. La comunalità
esprime la proporzione della varianza di ogni variabile
riprodotta da un certo numero di componenti. Essendo una
proporzione, essa varia tra zero e uno.
• Anche la comunalità deriva da una somma (questa volta per
riga; vedi fig. 6.6) dei pesi componenziali elevati al quadrato.
E’ evidente che se si considerano tutte le componenti
principali estraibili da una data matrice delle correlazioni (5
nel nostro esempio) la comunalità di ogni variabile sarà pari ad
uno. Se però si decide di usare solo le prime, ad esempio le
prime due, allora la comunalità di ogni variabile si ridurrà; e si
ridurrà in maniera diversa da variabile a variabile.
ACP 31
• Moltiplicando per 100 la comunalità di ogni variabile
otteniamo la percentuale di varianza della variabile
riprodotta dalle componenti principali scelte (nel nostro
esempio le prime due). In questo modo possiamo
valutare per ogni variabile i costi della sintesi prodotta
scegliendo di usare le prime due componenti principali.
L’informazione portata dalle variabili X4 ed X5 è
riprodotta quasi per intero dalle prime due componenti
(rispettivamente 95% la prima e 94% la seconda; vedi
fig. 6.6). Mentre solo il 54% della varianza di X1 viene
riprodotta dalle prime due componenti. Il residuo 46% è
riprodotto dalle componenti successive alle prime due
(che abbiamo deciso di tralasciare; vedi fig. 6.6).
Figura 6.6 – La somma per riga degli elementi elevati al
quadrato di ogni autovettore è uguale alla comunalità di
ogni variabile
variabile
x1
x2
x3
x4
x5
somma per colonna = autovalore
I autovettore
.473
.457
.659
.814
.576
I autovalore
2,979
variabile
x1
x2
x3
x4
x5
somma per colonna = autovalore
II auto- III autovettore
vettore
.065
.426
.237
.213
.123
.004
.134
.001
.365
.024
II auto- III autovalore
valore
0,924
0,668
IV autovettore
.033
.092
.213
.000
.002
IV autovalore
V autovettore
.003
.000
.001
.052
.033
V autovalore
somma per riga
= comunalità
1
1
1
1
1
varianza totale
0,340
0,089
5
I autovettore II autovettore somma per riga
= comunalità
.473
.065
0,538
.457
.237
0,694
.659
.123
0,782
.814
.134
0,948
.576
.365
0,941
I autovalore II autovalore varianza totale
2,979
0,924
3,903
ACP 32
• Una volta che sono stati calcolati gli
autovalori e gli autovettori di una matrice
delle correlazioni, è possibile invertire il
procedimento. In altri termini, è possibile,
con opportune formule di algebra
matriciale, ricalcolare la matrice delle
correlazioni a partire dagli autovalori e
dagli autovettori. Questa proprietà di
reversibilità è un fondamentale criterio di
distinzione tra l’acp e le tecniche di analisi
fattoriale (vedi Di Franco, 1997).
ACP 33
• Infine, dopo aver sintetizzato le variabili della
matrice in un numero ridotto di componenti
principali, è possibile assegnare ad ogni caso
un punteggio su ognuna di queste. In questo
modo possiamo aggiungere nella matrice dei
dati nuove colonne che riportano gli stati dei
casi sulle componenti principali che decidiamo
di usare. Per ottenere questi punteggi sui casi
(chiamati punteggi componenziali, component
scores in inglese) si procede nel seguente
modo.
ACP 34
• Per ogni componente si passa dai pesi componenziali ai
coefficienti componenziali (component score coefficients in
inglese) effettuando una regressione multipla, dove la
componente principale è la variabile dipendente e tutte le
variabili originarie sono le indipendenti. Questo passaggio
equivale al passaggio dai coefficienti di correlazione lineare
bivariata a quelli di regressione lineare multipla
standardizzati. Quindi se il peso componenziale è una
misura dell’associazione lorda tra una variabile e una
componente, il coefficiente componenziale (component
score coefficient) è una misura del contributo netto di una
variabile ad una componente (tenendo cioè sotto controllo
tutte le altre variabili).
ACP 35
• I coefficienti componenziali sono pertanto
analoghi, dal punto di vista tecnico, ai
coefficienti parziali standardizzati di una
regressione lineare multipla (beta weights in
inglese) e rappresentano il contributo netto
delle variabili alla costruzione di ciascuna
componente tenendo sotto controllo le altre
variabili. Quindi è legittimo usarli come
coefficienti di ponderazione di ciascuna
variabile nella costruzione di un indice che
rappresenti la dimensione individuata mediante
l’acp.
ACP 36
• Dopo aver calcolato i coefficienti componenziali si possono
calcolare i punteggi di ciascun caso su ciascuna componente
(punteggi componenziali). Ad ogni caso viene attribuito un
punteggio sulla proprietà che è rappresentata dalla componente
principale che si è costruita; questo è ottenuto sommando per
ogni caso i suoi punteggi standardizzati su tutte le variabili che
formano la componente. Prima di sommarli, i punteggi sono
ponderati con i rispettivi coefficienti componenziali prodotti
dall’acp.
• Nel programma di analisi SPSS per Windows è presente una
procedura per il calcolo automatico e per il salvataggio sulla
matrice dei punteggi componenziali che applica i coefficienti
componenziali per ponderare il contributo delle singole
variabili. E inoltre possibile richiedere la stampa della matrice
dei coefficienti componenziali nell’output (vedi fig. 6.11).
ACP 37
• Quindi anche i punteggi componenziali assegnati a ciascun
caso si calcolano come una combinazione lineare dei valori
standardizzati assegnati a quel caso su tutte le variabili,
ponderati per i rispettivi coefficienti componenziali. Questi
punteggi sono espressi in unità di scarto-tipo (sono cioè
valori standardizzati) e tendono a distribuirsi in modo
simmetrico intorno al valore zero che rappresenta la media
della distribuzione. Una volta salvati sulla matrice dei dati
come nuove variabili, essi possono essere usati in analisi
successive.
• Come nel caso della regressione multipla, il coefficiente
componenziale di una variabile risente dei coefficienti
componenziali di tutte le altre; pertanto esso cambia ogni
volta che si modifica l’insieme eliminando o aggiungendo
variabili.