ACP: analisi in componenti principali
Transcript
ACP: analisi in componenti principali
ACP: analisi in componenti principali Giovanni Di Franco ACP 1 • Spesso, nella vita di tutti i giorni, ci capita di dover sintetizzare delle informazioni; senza saperlo operiamo con una logica analoga a quella dell’analisi in componenti principali. Ad esempio, quando presentiamo le caratteristiche di una persona possiamo effettuarne una descrizione minuziosa (la sua professione, il suo reddito, i suoi consumi, le sue attività nel tempo libero, etc.), oppure possiamo estrapolare da tutte queste caratteristiche quella o quelle dimensioni che le riassumono al meglio. In altri termini, anziché dire della persona X che guadagna cinque milioni al mese, che vive in una villa in un quartiere residenziale, che possiede due automobili di grande cilindrata, che trascorre i fine settimana nella sua casa di campagna, etc., possiamo dire che X è un benestante. ACP 2 • Il concetto di benestante equivale a una componente principale che riassume l’insieme delle caratteristiche di X, cercando di rendere minima la perdita di informazioni. Obiettivo dell’acp è esattamente questo: ridurre un insieme di informazioni alle sue componenti principali minimizzando la perdita di informazioni (inevitabile in ogni operazione di sintesi). • L’acp trasforma matematicamente un insieme di variabili cardinali e/o quasi-cardinali tra loro correlate in un numero minore di nuovi costrutti (detti componenti principali) indipendenti (cioè ortogonali fra loro nello spazio). Si tratta, quindi, sostanzialmente di una operazione che bilancia l’obiettivo della sintesi con quello di minimizzare la perdita di informazione. Nella fig. 6.1 abbiamo visualizzato graficamente lo scopo dell’acp. Figura 6.1 – L’analisi in componenti principali scompone e riproduce le varianze e le covarianze presenti fra un insieme di variabili standardizzate Le variabili sono fra loro correlate e hanno tutte varianza unitaria Le componenti principali sono fra loro indipendenti e riproducono quote via via decrescenti di varianza I Comp. X2 X4 X1 X3 II Com. X5 III IV V ACP 3 • Nella fig. 6.1 abbiamo rappresentato cinque variabili standardizzate fra loro correlate con cinque circonferenze di uguale superficie. Essendo le variabili standardizzate, la varianza totale è pari al numero delle variabili (dato che ogni variabile presenta varianza uguale a 1); le covarianze sono date dalla matrice dei coefficienti di correlazione bivariata fra le stesse. • Il coefficiente di correlazione bivariata può essere infatti interpretato come il prodotto delle varianze (e quindi la covarianza) fra due variabili standardizzate. In modo analogo, possiamo considerare una matrice di correlazioni bivariate come una matrice di varianze e covarianze fra variabili standardizzate. ACP 4 • Se tra le variabili esiste una sufficiente quota di varianza in comune, basteranno poche componenti principali per ottenere una buona approssimazione della matrice di partenza, con il vantaggio di una lettura semplificata. Quindi, il punto di partenza dell’acp consiste nella costruzione di una matrice delle correlazioni. Si calcola la matrice delle correlazioni tra tutte le coppie di variabili e da questa si estraggono le componenti principali. ACP 5 • L'entità delle correlazioni tra le variabili rilevate è un prerequisito indispensabile affinché l’acp fornisca risultati soddisfacenti. Infatti, ragionando per casi limite, se fra tutte le variabili considerate ci fossero correlazioni molto modeste (tendenti a zero) avremmo che ogni variabile varia in modo indipendente da qualsiasi altra, e quindi non sarebbe possibile operare alcuna sintesi. Nel caso opposto, ovvero se tra le variabili riscontrassimo correlazioni altissime (tendenti a più o meno uno) avremmo raccolto delle variabili molto ridondanti, e anche in questo caso lutilizzo dell’acp non sarebbe conveniente. L’acp diviene efficace solo quando tra le variabili esiste un’apprezzabile quota di varianza in comune (espressa da coefficienti di correlazione non tutti molto bassi o molto alti); allora saranno sufficienti poche componenti principali per ottenere una buona approssimazione alla matrice di partenza. ACP 6 • L’acp riproduce la varianza complessiva combinando linearmente tutta la varianza e la covarianza delle variabili in cinque costrutti fra loro indipendenti e con un livello di varianza riprodotta via via decrescente (vedi le circonferenze che rappresentano le componenti principali disposte in ordine decrescente di area in fig. 6.1). La prima componente è quella che riproduce la massima quota di varianza; la seconda riproduce meno varianza della prima, ma più varianza delle successive, e così via fino ad estrarre tante componenti principali quante sono le variabili trattate nell’analisi. Le linee che legano ogni variabile con ciascuna componente rappresentano il concetto di combinazione lineare. ACP 7 • Una combinazione lineare (o riduzione lineare) è il risultato di un’operazione di somma ponderata che combina diverse variabili in un unico costrutto. Ad esempio, (p11)*peso + (p12)*altezza = massa; dove p11 e p12 sono i coefficienti di ponderazione. Il diverso spessore dei legami fra le variabili e le componenti principali nella fig. 6.1 rappresenta i diversi pesi delle variabili relativi alle prime tre componenti principali. Com’è facilmente intuibile, operando questa riduzione, si riduce di una dimensione lo spazio (nel nostro esempio, esprimendo la massa come combinazione lineare di altezza e peso, abbiamo ridotto un piano a due dimensioni, l’altezza e il peso appunto, in una retta, ossia in una sola dimensione che rappresenta la massa). ACP 8 • Analogamente, con tre dimensioni riduciamo un cubo in un piano, e così via. Ovviamente, la riduzione di dimensioni, oltre al vantaggio della sintesi, comporta sempre dei costi. Facciamo un altro esempio: perché diciamo che alcune persone sono fotogeniche e altre no? Intanto, che cosa rappresenta una foto? Una foto riproduce su due dimensioni una realtà tridimensionale: quindi schiaccia tre dimensioni su due. Quando un volto è ben riprodotto su una foto diciamo che la persona è fotogenica; al contrario diciamo che la persona non è fotogenica. In ogni caso una foto distorce sempre più o meno (a seconda della prospettiva, della luce, etc.) quello che rappresenta. ACP 9 • Il vantaggio dell’acp consiste nella capacità di condensare nelle prime componenti la maggior parte delle varianze e covarianze presenti nell’insieme iniziale delle variabili. Così, considerando solo le prime componenti principali (nel nostro esempio le prime due) otteniamo la migliore sintesi possibile per le cinque variabili iniziali. • Generalizzando, partendo da una matrice dei dati con n casi e p variabili cardinali e/o quasi-cardinali (vedi tab. 6.1), le variabili, dopo essere state sottoposte ad acp, possono essere sostituite nella matrice dalle prime k componenti principali (con k molto più piccolo di p), rendendo minima la perdita di informazione. Nella tab. 6.2, ad esempio, le prime due componenti principali sostituiscono le p variabili iniziali. Tabella 6.1 – Una generica matrice dei dati con n casi e p variabili cardinali e/o quasi-cardinali v1 v2 … vj … vp caso 1 c1v1 c1v2 … c1vj … c1vp caso 2 c2v1 c2v2 … c2vj … c2vp … … … … … … … caso i civ1 civ2 … civj … civp … … … … … … … caso n cnv1 cnv2 … cnvj … cnvp Tabella 6.2 – Le prime due componenti principali sintetizzano e sostituiscono nella matrice dei dati le p variabili cardinali e/o quasi-cardinali caso 1 caso 2 … caso i … caso n cp1 c1cp1 c2cp1 … cicp1 … cncp1 cp2 c1cp2 c2cp2 … cicp2 … cncp2 ACP 10 • Generalizzando, partendo da una matrice dei dati con n casi e p variabili cardinali e/o quasi-cardinali (vedi tab. 6.1), le variabili, dopo essere state sottoposte ad acp, possono essere sostituite nella matrice dalle prime k componenti principali (con k molto più piccolo di p), rendendo minima la perdita di informazione. Nella tab. 6.2, ad esempio, le prime due componenti principali sostituiscono le p variabili iniziali. ACP 11 • Ricapitolando, le componenti principali presentano le seguenti caratteristiche: 1) ogni componente è una combinazione lineare di tutte le variabili originarie; 2) le componenti sono per necessità matematica indipendenti fra loro (ortogonali); 3) esse riproducono, in ordine gerarchico decrescente, il massimo della varianza riproducibile in quel turno; 4) se si calcolassero tutte le componenti principali si riprodurrebbe l’originaria matrice delle correlazioni; 5) è possibile assegnare ad ogni caso della matrice dei dati uno stato su ogni componente principale che si decide di interpretare. Nella fig. 6.2 abbiamo visualizzato come l’acp scomponga e riproduca le varianze e covarianze a partire da una matrice delle correlazioni. Matrice di correlazione r11 r12 r13 r14 r15 r21 r22 r23 r24 r25 r31 r32 r33 r34 r35 r41 r42 r43 r44 r45 Autovalori Autovettori r51 c11 c21 λ1 r52 c12 c22 λ2 r53 = * c13 c23 λ3 r54 c14 c24 λ4 c15 c25 r55 λ5 c31 c32 c33 c34 c35 c41 c42 c43 c44 c45 c51 c52 c53 c54 c55 ACP 12 • Illustriamo il procedimento visualizzato in fig. 6.2 con un esempio numerico. Dalla matrice dei dati relativi alle province italiane prendiamo e sottoponiamo ad acp le seguenti cinque variabili: • x1 = risparmi pro-capite (sigla ‘risp’); • x2 = percentuale di case non occupate sul totale delle abitazioni (‘abno’); • x3 = percentuale dei telefoni ad uso ufficio sul totale degli abbonamenti telefonici (‘teuf’); • x4 = percentuale di valore aggiunto nell’industria sul totale del valore aggiunto (‘indu’); • x5 = percentuale di valore aggiunto nel terziario sul totale del valore aggiunto (‘terz’). Nella fig. 6.3 si presenta il procedimento di scomposizione della matrice delle correlazioni compiuto dall’acp. Matrice di correlazione 1 -.34 .53 .54 .29 -.34 1 -.61 -.42 .30 .53 -.61 1 .59 -.40 .54 -.42 .59 1 .86 .29 .30 -.40 -.86 1 Autovalori = Autovettori 2.98 0 0 0 0 .69 0 .92 0 0 0 -.68 0 0 .67 0 0 * .81 0 0 0 .34 0 .90 0 0 0 0 .09 -.76 .25 -.49 .35 -.37 .60 .65 .46 -.06 .03 .15 -.18 .30 .46 -.01 .05 -.06 -.00 -.04 .23 .18 ACP 13 • La matrice delle correlazioni equivale a una matrice di varianze e covarianze tra variabili standardizzate. Essendo standardizzate, le variabili hanno tutte varianza unitaria, per cui la varianza totale è uguale al numero delle variabili della matrice: nel nostro esempio è pari a 5 (vedi la diagonale principale della matrice delle correlazioni in fig. 6.3). ACP 14 • Ogni componente principale è espressa da un autovalore (anche detto radice latente), che si indica con la lettera greca lambda λ (vedi la matrice diagonale degli autovalori in fig. 6.3), un numero (detto scalare in algebra delle matrici) che deriva dalla soluzione di un sistema di equazioni. L’autovalore è una combinazione lineare di tutte le variabili immesse nella matrice delle correlazioni. Più avanti chiariremo più dettagliatamente questo punto. ACP 15 • Sommando i cinque autovalori (uno per ogni vettore-colonna) estraibili dalla matrice delle correlazioni otteniamo esattamente l’ammontare della varianza totale della matrice delle correlazioni originaria. Nell’esempio di fig. 6.3: 2,98 + 0,92 + 0,67 + 0,34 + 0,09 = 5. • Da quanto detto segue che se si rapporta ogni autovalore al totale della varianza e si moltiplica il risultato per cento otteniamo la percentuale di varianza riprodotta da ogni componente principale: ACP 16 • λ1 = 2,98/5*100 = 59,6% (% di varianza riprodotta dalla prima componente); • λ2 = 0,92/5*100 = 18,5% (% di varianza riprodotta dalla seconda componente); • λ3 = 0,67/5*100 = 13,4% (% di varianza riprodotta dalla terza componente); • λ4 = 0,34/5*100 = 6,8% (% di varianza riprodotta dalla quarta componente); • λ5 = 0,09/5*100 = 1,7% (% di varianza riprodotta dalla quinta componente); ACP 17 • Come si può notare, l’entità di queste percentuali si riduce rapidamente, e gli ultimi due o tre autovalori possono essere trascurati senza grave perdita di informazione. • Nel nostro esempio siamo partiti da una matrice di correlazioni tra cinque variabili, e abbiamo prodotto cinque componenti principali. Ognuna è una combinazione lineare delle cinque variabili originarie: quindi ciascuna componente principale fornisce una rappresentazione sintetica dell’associazione presente fra le variabili originarie. ACP 18 • Come detto, le componenti riproducono in ordine decrescente la massima quota di varianza totale non riprodotta dalle componenti già estratte e sono fra loro indipendenti. La ragione di questo è molto semplice. La prima componente viene estratta dalla matrice delle correlazioni originale (quella riportata sopra nell’esempio di fig. 6.3); la seconda dalla matrice delle correlazioni che si ottiene depurando la quota di varianze e covarianze riprodotta dalla prima componente principale (primi residui); la terza dalla matrice delle correlazioni tra i secondi residui, e così via fino all’ultima componente estraibile. ACP 19 • Questo procedimento causa l’ortogonalità delle componenti principali e la loro capacità di riprodurre in ordine gerarchico decrescente la massima quota di varianza desumibile dalla matrice delle correlazioni originarie e via via da quelle da esse derivate. • Dal punto precedente si evince la funzione sintetica delle componenti principali: la prima componente è in grado di riprodurre da sola quasi il 60% della varianza della matrice originaria; le prime due componenti principali riproducono il 78%, etc. Date queste caratteristiche, di solito si usano solo le prime componenti per sintetizzare al meglio le associazioni tra le variabili originarie. Ecco perché all’inizio si è parlato di sintesi. ACP 20 • Ad ogni autovalore è associato un autovettore nel quale sono riportati i pesi componenziali (component loadings in inglese; vedi le colonne sotto l’intestazione ‘autovettori’ in fig. 6.3). che esprimono la saturazione (il peso) di ogni variabile rispetto ad ogni componente principale. Questi coefficienti sono del tutto equivalenti ai coefficienti bivariati di correlazione lineare ed esprimono l’associazione tra ciascuna variabile e ciascuna componente. Inoltre, questi coefficienti esprimono i pesi ‘lordi’ di ponderazione di ogni variabile su ciascuna componente (vedi il concetto di combinazione lineare). ACP 21 • I pesi componenziali fra le variabili e le componenti principali sono di estrema importanza in quanto permettono di discriminare quali variabili contribuiscono di più alla formazione delle singole componenti; ciò permette di interpretare semanticamente le componenti, come vedremo nel prossimo esempio. • Dal punto di vista geometrico ogni componente principale serve a rappresentare una dimensione lungo la quale sono allineate le variabili originarie: i pesi componenziali sono le coordinate delle variabili sulle componenti principali). Se vogliamo rappresentare le cinque variabili del nostro esempio sul piano costituito dalle prime due componenti principali useremo i loro pesi sulle stesse (vedi fig. 6.4). Figura 6.4 – La rappresentazione geometrica dei pesi componenziali di cinque variabili sulle prime due componenti principali 1,0 terz ,5 teuf risp 0,0 indu componente 2 abno -,5 -1,0 -1,0 com ponente 1 -,5 0,0 ,5 1,0 ACP 22 • Il calcolatore fornisce gli autovalori, gli autovettori, i diagrammi, etc., restituendo in pochi secondi i risultati di complicati calcoli che, fatti a mano, richiederebbero molti giorni di lavoro di un esperto. • Ogni asse rappresenta una componente. Di solito sull’asse delle ascisse si dispone la componente estratta prima e sull’asse delle ordinate quella estratta dopo (nella fig. 6.4 la prima componente è sulle ascisse e la seconda sulle ordinate). I due assi sono graduati lungo scale che variano da −1 a +1 (è questo infatti il campo di variazione dei pesi componenziali, come dei coefficienti di correlazione). ACP 23 • L’asse di ogni componente principale è divisibile in un semiasse positivo (con coordinate che variano da 0 a +1) e un semiasse negativo (con coordinate che variano da 0 a −1). Il punto di intersezione degli assi del piano cartesiano (con coordinate 0,0) si chiama baricentro. Il diagramma cartesiano è quindi scomponibile in quattro quadranti che si numerano in senso antiorario a partire dal primo, che è quello delimitato dai semiassi positivi delle due componenti (in alto a destra). ACP 24 • Normalmente, i diagrammi a dispersione riescono ad evidenziare le variabili che più saturano le componenti in modo migliore rispetto alla mera ispezione della matrice dei pesi componenziali (vedi oltre). Infatti, visto che la posizione di una variabile nel diagramma dipende dai suoi pesi sulle componenti rappresentate nel diagramma (vedi le linee tratteggiate nella fig. 6.4 che indicano la proiezione di ogni variabile sui due assi), più questi sono elevati più la variabile si allontanerà dal baricentro. • Naturalmente se ne allontanerà lungo lascissa se ha un alto peso sulla prima componente, lungo lordinata se ha un alto peso sulla seconda componente, lungo la diagonale se ha pesi alti su entrambe. ACP 25 • Al contrario, se una variabile presenta pesi modesti (tendenti a zero) su entrambe le componenti considerate, la sua posizione sarà prossima al baricentro. Se due o più variabili sono vicine fra loro e collocate presso un’estremità di un semiasse rappresentante una componente, ciò indica che esse sono altamente correlate in modo positivo fra loro e con la componente in questione (in modo positivo o negativo a seconda che si tratti del semiasse positivo o negativo della componente). Se due variabili si distanziano dal baricentro, ma una sul semiasse positivo e l’altra su quello negativo di una stessa componente, ciò indica che tra le due variabili esiste un’alta correlazione negativa e che entrambe presentano pesi elevati su quella componente (peso negativo per la variabile che si trova sul semiasse negativo e positivo per l’altra). ACP 26 • Se due variabili, o due gruppi di variabili, sono una vicina ad un asse e l’altra al secondo asse (non importa in quale quadrante del piano) ciò indica che tra le due variabili, o gruppi di variabili, ci sono basse correlazioni e che esse presentano pesi alti su una componente e bassi sull’altra. ACP 27 • I pesi componenziali, permettendo di collocare ogni variabile nello spazio determinato da due componenti, consentono di dare un’interpretazione alle componenti stesse. Operazione che ovviamente il calcolatore non può fare, e che spetta al ricercatore. All’utente dell’acp competono anche le scelte a monte (scegliere le variabili da sottoporre ad analisi, valutare l’utilità dell’applicazione dell’acp) e quelle a valle dell’analisi (valutare l’utilità dei risultati; decidere cioè quante componenti principali interpretare e utilizzare in successive analisi). L’interpretazione di una componente principale, con la conseguente scelta dell’etichetta verbale più adeguata per la stessa, verrà illustrata più avanti. ACP 28 • In modo analogo ai coefficienti di correlazione lineare, se eleviamo al quadrato i pesi componenziali otteniamo la quota di varianza in comune tra una componente e una variabile. Fatta questa precisazione, possiamo esplicitare la relazione fra ogni autovalore e il suo autovettore. Abbiamo già detto che l’autovalore è il risultato di una combinazione lineare delle variabili originarie in grado di riprodurre una data quota della varianza originaria e che i pesi componenziali elevati al quadrato esprimono la quota di varianza lorda in comune tra una variabile e una componente. Da ciò derivano algebricamente due conseguenze. La prima è mostrata nella fig. 6.5: sommando gli elementi di ogni autovettore elevati al quadrato otteniamo il valore dell’autovalore associato all’autovettore. ACP 29 • Nella fig. 6.5 mostriamo il significato algebrico dell’espressione ‘combinazione lineare’ e del rapporto fra ogni autovalore e il corrispondente autovettore. Figura 6.5 – La somma degli elementi elevati al quadrato di ogni autovettore è uguale al corrispondente autovalore I autovettore .688 -.676 .812 .902 -.759 I autova lore 2,979 II autovettore .254 -.487 .351 -.366 .604 II autova lore 0,924 ( .688) 2 ( .254) 2 ( .653) 2 (-.182) 2 (-.057) 2 + + + + + III autovettore .653 .462 -.061 .033 .154 III autovalore 0,668 (-.676) 2 (-.487) 2 ( .462) 2 ( .303) 2 (-.001) 2 IV autovettore -.182 .303 .461 -.009 .047 IV autovalore 0,340 V autovettore -.057 -.001 -.036 .226 .181 V autovalore 0,089 + + + + + ( .812) 2 ( .351) 2 (-.061) 2 ( .461) 2 (-.036) 2 + + + + + .814 .134 .001 .000 .052 + + + + + ( .902) 2 (-.366) 2 ( .033) 2 (-.009) 2 ( .226) 2 da cui: .473 .065 .426 .033 .003 + + + + + .457 .237 .213 .092 .000 + + + + + .659 .123 .004 .213 .001 + + + + + .576 .365 .024 .002 .033 = = = = = 2,979 0,924 0,668 0,340 0,089 + + + + + (-.759) 2 ( .604) 2 ( .154) 2 ( .047) 2 ( .181) 2 = = = = = λ1 λ2 λ3 λ4 λ5 ACP 30 • La seconda conseguenza algebrica della combinazione lineare è riportata in fig. 6.6 e riguarda il concetto di comunalità, relativo alle variabili su cui si è effettuata l’acp. La comunalità esprime la proporzione della varianza di ogni variabile riprodotta da un certo numero di componenti. Essendo una proporzione, essa varia tra zero e uno. • Anche la comunalità deriva da una somma (questa volta per riga; vedi fig. 6.6) dei pesi componenziali elevati al quadrato. E’ evidente che se si considerano tutte le componenti principali estraibili da una data matrice delle correlazioni (5 nel nostro esempio) la comunalità di ogni variabile sarà pari ad uno. Se però si decide di usare solo le prime, ad esempio le prime due, allora la comunalità di ogni variabile si ridurrà; e si ridurrà in maniera diversa da variabile a variabile. ACP 31 • Moltiplicando per 100 la comunalità di ogni variabile otteniamo la percentuale di varianza della variabile riprodotta dalle componenti principali scelte (nel nostro esempio le prime due). In questo modo possiamo valutare per ogni variabile i costi della sintesi prodotta scegliendo di usare le prime due componenti principali. L’informazione portata dalle variabili X4 ed X5 è riprodotta quasi per intero dalle prime due componenti (rispettivamente 95% la prima e 94% la seconda; vedi fig. 6.6). Mentre solo il 54% della varianza di X1 viene riprodotta dalle prime due componenti. Il residuo 46% è riprodotto dalle componenti successive alle prime due (che abbiamo deciso di tralasciare; vedi fig. 6.6). Figura 6.6 – La somma per riga degli elementi elevati al quadrato di ogni autovettore è uguale alla comunalità di ogni variabile variabile x1 x2 x3 x4 x5 somma per colonna = autovalore I autovettore .473 .457 .659 .814 .576 I autovalore 2,979 variabile x1 x2 x3 x4 x5 somma per colonna = autovalore II auto- III autovettore vettore .065 .426 .237 .213 .123 .004 .134 .001 .365 .024 II auto- III autovalore valore 0,924 0,668 IV autovettore .033 .092 .213 .000 .002 IV autovalore V autovettore .003 .000 .001 .052 .033 V autovalore somma per riga = comunalità 1 1 1 1 1 varianza totale 0,340 0,089 5 I autovettore II autovettore somma per riga = comunalità .473 .065 0,538 .457 .237 0,694 .659 .123 0,782 .814 .134 0,948 .576 .365 0,941 I autovalore II autovalore varianza totale 2,979 0,924 3,903 ACP 32 • Una volta che sono stati calcolati gli autovalori e gli autovettori di una matrice delle correlazioni, è possibile invertire il procedimento. In altri termini, è possibile, con opportune formule di algebra matriciale, ricalcolare la matrice delle correlazioni a partire dagli autovalori e dagli autovettori. Questa proprietà di reversibilità è un fondamentale criterio di distinzione tra l’acp e le tecniche di analisi fattoriale (vedi Di Franco, 1997). ACP 33 • Infine, dopo aver sintetizzato le variabili della matrice in un numero ridotto di componenti principali, è possibile assegnare ad ogni caso un punteggio su ognuna di queste. In questo modo possiamo aggiungere nella matrice dei dati nuove colonne che riportano gli stati dei casi sulle componenti principali che decidiamo di usare. Per ottenere questi punteggi sui casi (chiamati punteggi componenziali, component scores in inglese) si procede nel seguente modo. ACP 34 • Per ogni componente si passa dai pesi componenziali ai coefficienti componenziali (component score coefficients in inglese) effettuando una regressione multipla, dove la componente principale è la variabile dipendente e tutte le variabili originarie sono le indipendenti. Questo passaggio equivale al passaggio dai coefficienti di correlazione lineare bivariata a quelli di regressione lineare multipla standardizzati. Quindi se il peso componenziale è una misura dell’associazione lorda tra una variabile e una componente, il coefficiente componenziale (component score coefficient) è una misura del contributo netto di una variabile ad una componente (tenendo cioè sotto controllo tutte le altre variabili). ACP 35 • I coefficienti componenziali sono pertanto analoghi, dal punto di vista tecnico, ai coefficienti parziali standardizzati di una regressione lineare multipla (beta weights in inglese) e rappresentano il contributo netto delle variabili alla costruzione di ciascuna componente tenendo sotto controllo le altre variabili. Quindi è legittimo usarli come coefficienti di ponderazione di ciascuna variabile nella costruzione di un indice che rappresenti la dimensione individuata mediante l’acp. ACP 36 • Dopo aver calcolato i coefficienti componenziali si possono calcolare i punteggi di ciascun caso su ciascuna componente (punteggi componenziali). Ad ogni caso viene attribuito un punteggio sulla proprietà che è rappresentata dalla componente principale che si è costruita; questo è ottenuto sommando per ogni caso i suoi punteggi standardizzati su tutte le variabili che formano la componente. Prima di sommarli, i punteggi sono ponderati con i rispettivi coefficienti componenziali prodotti dall’acp. • Nel programma di analisi SPSS per Windows è presente una procedura per il calcolo automatico e per il salvataggio sulla matrice dei punteggi componenziali che applica i coefficienti componenziali per ponderare il contributo delle singole variabili. E inoltre possibile richiedere la stampa della matrice dei coefficienti componenziali nell’output (vedi fig. 6.11). ACP 37 • Quindi anche i punteggi componenziali assegnati a ciascun caso si calcolano come una combinazione lineare dei valori standardizzati assegnati a quel caso su tutte le variabili, ponderati per i rispettivi coefficienti componenziali. Questi punteggi sono espressi in unità di scarto-tipo (sono cioè valori standardizzati) e tendono a distribuirsi in modo simmetrico intorno al valore zero che rappresenta la media della distribuzione. Una volta salvati sulla matrice dei dati come nuove variabili, essi possono essere usati in analisi successive. • Come nel caso della regressione multipla, il coefficiente componenziale di una variabile risente dei coefficienti componenziali di tutte le altre; pertanto esso cambia ogni volta che si modifica l’insieme eliminando o aggiungendo variabili.