scarica quaderno - Dipartimenti - Università Cattolica del Sacro Cuore

Transcript

scarica quaderno - Dipartimenti - Università Cattolica del Sacro Cuore
UNIVERSITÀ CATTOLICA DEL SACRO CUORE
ISTITUTO DI STATISTICA
Angelo Zanella
Nuove metodologie statistiche per tecnologia e produzione:
il modello strutturale lineare a variabili latenti
corrisponde allo “strumento di misura”
nelle valutazioni dei costrutti concettuali?
Serie E.P. N. 114 - Gennaio 2003
Nuove metodologie statistiche per tecnologia e
produzione: il modello strutturale lineare a variabili
latenti corrisponde allo “strumento di misura” nelle
valutazioni dei costrutti concettuali?1
Angelo Zanella
Istituto di Statistica - Università Cattolica del S. Cuore, Milano
Sommario
Con riferimento al miglioramento ed al controllo di un processo produttivo, vengono, in primo
luogo, ricordati schematicamente i temi più significativi intorno ai quali si è situata, anche in
tempi recenti, una parte rilevante dei contributi della metodologia statistica mirata alle applicazioni tecnologiche. Vengono, in particolare, sottolineati due “punti di svolta”, corrispondenti
rispettivamente: all’affermarsi nel controllo della qualità “off-line” del cosiddetto approccio di
Taguchi ed all’attenzione rivolta, anche nella regolazione “manuale” dei processi produttivi,
nel caso di caratteristiche con valori autocorrelati, agli schemi di controllo stocastico e predittivo.
Con lo sguardo al futuro si fa, poi, presente un terzo punto di svolta, che è attualmente in corso
in conseguenza della gestione d’impresa basata sui principi del “Total Quality Management”.
Si sottolinea come la corrispondente esigenza di disporre di una descrizione quantitativa generalizzata dei fenomeni aziendali si scontra con la necessità di fare ricorso a valutazioni soggettive di aspetti concettuali (quale la customer satisfaction, l’efficacia interna di un sistema per la
qualità, ecc.), che contrastano con le “misure oggettive”, ottenute dagli “strumenti di misura”,
comunemente utilizzate in ambito tecnologico. Dato che uno degli obiettivi futuri della metodologia statistica sarà certo quello di contribuire all’utilizzazione standardizzata dei risultati corrispondenti a valutazione soggettive, si discute con qualche dettaglio tale aspetto. Viene al riguardo suggerita la possibile analogia che si riscontra fra il procedimento di misurazione, che
può istituirsi in base ad un modello statistico – strutturale a variabili latenti atto a descrivere
una caratteristica concettuale soggettiva, quale è, ad esempio, la customer satisfaction – ed i
risultati tecnologici ottenuti da uno strumento di misura.
1. Premessa
Un modo per rendersi conto delle attuali tendenze della statistica e di quali sono le prospettive future può essere quello di esaminare tali aspetti a partire da settori applicativi
nei quali il contributo del metodo statistico ha una particolare rilevanza.
Analisi settoriali di questo tipo potranno condurre a delle “anticipazioni dall’interno” e
consentire, una volta disponibili, l’individuazione di eventuali linee di tendenza generali.
In questo contributo si farà riferimento alla “Statistica per la tecnologia e la produzione”. Si intendono, precisamente, collegati a questo settore i concetti, i modelli ed i metodi statistici utilizzati: a) per il miglioramento ed il controllo tecnologico dei processi
di fabbricazione, che è l’ambito tradizionale del Controllo statistico della qualità, sia pu1
Il testo corrisponde al contenuto dell’intervento invitato alla Tavola Rotonda “La Statistica: tendenze
attuali e prospettive” svoltasi a Milano-Bicocca il 6 giugno 2002 nell’ambito della XLI Riunione Scientifica della Società Italiana di Statistica.
1
re inteso in senso lato; b) per la valutazione, in particolare, dell’efficacia di un sistema
per la gestione della qualità – sia globale che dei singoli processi costitutivi – e la valutazione della “customer satisfaction” nei confronti dei prodotti, che è un nuovo ambito
conseguente dall’approccio cosiddetto della “Qualità Totale”.
2. La statistica per l’ambito tecnologico: cenni su due importanti aspetti innovativi dell’ultimo ventennio ancora presenti nelle attuali
linee di tendenza
Con riferimento al controllo ed al miglioramento tecnologico dei processi di fabbricazione, nella Fig. 1 sono presentati in modo schematico i temi portanti intorno ai quali si
è situata, anche in tempi recenti, una parte rilevante dei contributi alla metodologia statistica, mirati alle applicazioni tecnologiche, con la configurazione di linee di tendenza
attuali, quale la sperimentazione simulata al computer, in particolare nella progettazione, lo sviluppo della teoria statistica collegata alle misure automatizzate, la sistemazione
teorica dei cosiddetti metodi di Taguchi, lo studio di modelli di rottura stocastica di un
processo produttivo, le misure della “capacità” di un processo produttivo nei confronti
di “limiti di tolleranza” multivariati, ecc.. Conviene avere presente che le attuali linee di
tendenza della statistica per la tecnologia, oltre allo sviluppo degli strumenti informatici,
sono ancora collegate a due “punti di svolta” innovativi, delineatisi nettamente fra la fine degli anni ’70 e l’inizio degli anni ’80, si veda per i dettagli Zanella (1995). Uno è
costituito dall’affermarsi dell’approccio di Taguchi alla sperimentazione programmata
su base statistica per il miglioramento off-line della qualità dei prodotti. In tale approccio, nel modello interpretativo posto alla base dello studio di una “risposta” quantitativa,
la varianza delle osservazioni di quest’ultima può dipendere dai livelli di uno o più fattori di disturbo o ambientali, presenti, ad esempio, nel contesto proprio
dell’utilizzazione del prodotto, e l’obiettivo della ricerca diviene l’ottimizzazione combinata del livello medio e della varianza della risposta.
Un secondo punto di svolta può ravvisarsi nella revisione del modello alla base delle
carte di controllo di Shewhart – che si riferisce a successioni di osservazioni fra loro
stocasticamente indipendenti – con l’estensione al caso in cui detta indipendenza non
sussiste, come è, ad esempio, tipico nei processi continui di tipo chimico. Ciò ha comportato l’innesto nel tema del controllo di un processo produttivo del poderoso strumentario reso disponibile dall’analisi delle serie storiche e l’introduzione di un modello di
controllo che, contrariamente a quello di Shewhart, ha carattere predittivo. Ciò con ovvie ripercussioni sulla progettazione dei regolatori automatici, ma anche, con adattamenti semplificanti, sul controllo di processi con interventi correttivi condotti su base
manuale o semimanuale. Si può ritenere che un contributo non trascurabile al riguardo
sia dovuto alla diffusione dell’opera fondamentale di G.E.P. Box e G.M. Jenkins “Time
Series Analysis: Forecasting and Control” Holden-Day, San Francisco, 1970, 1a ed.,
1976 2a ed., cui è seguita una terza edizione riveduta, a firma anche di G.C. Reinsel,
Prentice Hall, N.J., 1994.
2
MIGLIORAMENTO E CONTROLLO DI UN PROCESSO PRODUTTIVO
Y = µ + E = µ(x)
+
+
E1
x: variabili di regolazione
per modificare il
livello medio µ
σ21(x,Z)
+
E2
σ22
E3
σ23
fattori aleatori
interni ed esterni (Z):
approccio di Taguchi
errore (E2) del
procedimento
di misura
min {σ21(x,z) + [µ(x) − µ0]2}
x,z
errore (E3) dovuto
a fattori ignoti aleatori
subsperimentali
ottimizzazione del livello
medio e della variabilità
z: fattori sistematici che
“simulano” quelli di disturbo Z
programmazione
ed analisi statistica
degli esperimenti
valutazione
e miglioramento
delle misure
14424444443
stabilizzazione della
variabilità accidentale
approfondimenti sulle
carte di controllo statistico
• di Shewhart
• con aggiustamenti dinamici e
predittivi del processo
• misure della capacità di processo
Figura 1 Quadro sinottico delle problematiche collegate al miglioramento ed al controllo di un processo produttivo
3. La statistica per i sistemi produttivi: attuali proposte e linee di tendenza innovative
3.1 Un terzo punto di svolta
Con maggiore dettaglio si considererà un terzo punto di svolta nella “Statistica per la
tecnologia e la produzione”, particolarmente innovativo, che si è delineato nel corso de3
gli anni ’80 e si è affermato decisamente nel seguito fino a stabilire una delle principali
– se non la principale – fra le linee di tendenza e di sviluppo attuali. È maturato in un
ambito non direttamente statistico, quale è quello dell’organizzazione e dell’economia
aziendale, attraverso una revisione critica – condotta in ambito internazionale e sfociata
nelle norme dell’International Organization for Standardization (ISO) Serie 9000,
1994, 2000 – della nozione di qualità. Si intende ora che tale nozione “Esprima
l’adeguatezza o l’eccellenza di un qualsivoglia prodotto, processo, struttura, o di un
qualsiasi risultato in cui si estrinseca o che crea un’organizzazione”, si veda Smith
(1993). Una posizione di primo piano occupa, poi, la “voce del cliente o utilizzatore” di
un bene/servizio.
Si è, in corrispondenza, sviluppata una “dottrina di gestione aziendale”, cosiddetta della
“Qualità Totale”, che però rivela la matrice di cultura statistica, propria degli iniziatori,
fra i quali può annoverarsi, in particolare, lo “statistico” Edwards Deming. Questo traspare nella richiesta generalizzata di valutazioni quantitative, quindi, statistiche e suscettibili di controllo statistico, delle prestazioni di un Sistema Qualità, che deve intendersi
estesa ad aspetti astratti, quali, ad esempio, il grado di realizzazione di un sistema per la
gestione della qualità consono alle norme ISO 9000 e la customer satisfaction. Si è di
fronte ad esigenze ed a modelli interpretativi che appaiono esogeni rispetto al controllo
statistico della qualità tradizionale – che ha il suo fondamento nei procedimenti di misurazione tecnologica di carattere oggettivo e nella nozione, pure oggettiva, di qualità collegata alla frazione di elementi prodotti in conformità a prescritti valori di specifica. I
nuovi obiettivi, infatti, richiedono di utilizzare in linea principale, in luogo di vere misure, delle valutazioni soggettive, tipicamente espresse su scale solo ordinali. Questo per
ottenere degli indicatori statistici che hanno, però, talvolta nelle decisioni aziendali una
rilevanza anche superiore a quella degli indicatori tecnologici “oggettivi”, cfr. Zanella
(1996) e (2000).
La nuova prospettiva ha portato necessariamente a considerare, nel Controllo statistico,
nuovi modelli e strumenti di analisi statistica finora utilizzati e sviluppati in ambito psicometrico, sociologico e della ricerca di mercato, si veda Zanella (2001,a). Un importante obiettivo per il futuro, che richiederà un cospicuo sforzo di ricerca, è quello di stabilire gradualmente anche per queste nuove metodologie – fra le quali, al momento attuale, l’analisi statistica basata sui modelli strutturali lineari a variabili latenti appare
come la più rilevante e promettente – un’utilizzazione standardizzata che renda possibile delle norme di valutazione di validità generale, su cui fondare i confronti fra le diverse situazioni, come è corrente per le misure tecnologiche con riferimento alla copiosa
normativa ISO sui processi di misurazione, si veda “ISO Standard Textbook: Statistical
Methods for Quality Control”, Vol. II, 1995. Si tenga presente, ad esempio, lo sforzo
fatto per i servizi attraverso l’istituzione della scala SERVQUAL, si veda Zanella
(2001,b).
3.2 I modelli strutturali lineari a variabili latenti
Detti modelli consentono di dare rilevanza sperimentale in senso statistico ad un concetto di interesse, cioè, ad un tratto unificante che è presente nelle “manifestazioni fenomeniche” in studio. Queste possono, nell’ambito in esame, ricondursi spesso ad insiemi
di soggetti, quali sono gli utilizzatori di uno specifico bene e servizio, ciascuno caratterizzato da un proprio grado di “customer satisfaction”, o gli operatori di un Sistema
Qualità, ciascuno con una propria valutazione dell’efficacia del sistema, intesa come attitudine dello stesso a realizzare il progetto gestionale che ne è a fondamento, quale, ad
4
esempio, il modello posto dalle norme ISO 9000. In Bollen (1989), p. 179 e seg., viene
indicato un procedimento in tre passi:
a) Il modello del costrutto concettuale. Il primo passo richiede il collegamento del concetto di interesse con altri aspetti, pure concettuali, del fenomeno in studio, le dimensioni o determinanti, che insieme al concetto di interesse ne stabiliscono il cosiddetto costrutto concettuale; ad ogni dimensione è, poi, associata una variabile casuale non osservabile o latente. Fra le variabili latenti si distinguono quelle esogene, ξ, che non sono
collegate fra loro da espliciti vincoli di dipendenza presenti nel modello, e le endogene,
η, che sono esplicitamente collegate fra loro e con le ξ. L’esplicitazione del modello
causale in cui si estrinseca il costrutto concettuale è molto agevolata da una rappresentazione grafica nella quale le frecce indicano il legame di “causalità”. Nella Figura 2, v.
infra p. 11, si illustra il costrutto concettuale posto alla base della “customer satisfaction” nella definizione dell’American Customer Satisfaction Index (ACSI), si veda Anderson e Fornell (2000). Nei modelli strutturali lineari a variabili latenti i legami di causalità insiti nel costrutto concettuale sono descritti da equazioni lineari, che si assumeranno per semplicità del tipo seguente (modello di regressione “interno” di tipo ricorsivo):
(η1−η10)  0 0 L 0 0 (η1−η10)  γ11 γ12 Lγ1q  (ξ1−ξ10)
 (η
 β 0 L 0 0  (η −η )  γ γ Lγ (ξ −ξ )  ζζ1 
)
−η
⋅ 2 20 + 21 22 2q ⋅ 2 20 + 2 (1)
 2 20 = 21
 M   M M O M M  M   M M L M   M   M 
(ηm−ηm0) βm1βm2Lβm, m−10 (ηm−ηm0) γm1γm2Lγmq (ξq−ξq0) ζm
dove: ηj0 = E(ηj), j = 1, 2, …, m, ξs0 = E(ξs), s = 1, 2, …, q, sono le medie, di valore finito, rispettivamente delle variabili casuali ηj, ξs che si assumono pure di varianza finita e
costituiscono le componenti dei vettori casuali η, ξ; ζj sono variabili casuali – componenti latenti di errore – che si assumono di media nulla e varianza finita; le medie ηj0,
ξs0 anzidette e le quantità βji, γjs sono incogniti parametri del modello (1). Col ricorso a
notazioni matriciali si può dare alla (1) la seguente forma più compatta:
~
~
~
η = Bη + Γξ + ζ
~
(2)
~
dove η, ξ sono vettori, m × 1, q × 1, con componenti (ηj − ηj0), (ξs − ξs0), ζ è il vettore,
m × 1, di componenti ζj, B è la matrice quadrata, m × m, triangolare bassa, con elementi
βji, tutti nulli sulla diagonale principale, Γ è la matrice m × q con elementi γjs. Dalla (2)
~
consegue, spostando Bη al primo membro, la cosiddetta forma ridotta:
~
~
~
η = (I − B)−1Γξ + (I − B)−1ζ = Γ*ξ + ζ*
(3)
dove I è la matrice identità m × m ed ovvia è la definizione dei nuovi simboli. Si è, poi,
soliti aggiungere ulteriori specificazioni al riguardo del modello (2) o (3).
Nell’approccio cosiddetto “parametrico” è tipico almeno assumere che gli errori latenti
~
ζi, non siano correlati con le variabili latenti esogene ξj, cioè E(ξζ′) = O. Fra gli incogniti parametri del modello figurano, pertanto, anche gli elementi della matrice di va~~
rianze-covarianze delle variabili latenti esogene: Φ = E(ξξ′), e degli errori latenti
E(ζζ′) = Ψ, si veda Bollen p. 220 e seg..
5
Nell’approccio econometrico o predittivo si assume, con riferimento alla (3), che sia
~
~
E(ζ*j | ξ1, …, ξq) = 0
(4)
j = 1, 2, …, m, vale a dire sia nulla la media della generica componente trasformata ζ*j
dell’errore latente, condizionata dai valori delle variabili latenti esogene, si veda Fornell
e Cha (1994). Consegue per la generica equazione (1), tenuto conto della (3) e delle
condizioni (4):
~
~
~
~
j−1
~
q
~
~
E(ηj | η1, …, ηj−1; ξ1, …, ξq) = ∑ βjiηi + ∑ γjsξs
i=1
s=1
~
j > 1, dove per j = 1 mancano il primo addendo ed il condizionamento rispetto ad η. Segue anche agevolmente:
~
Cov(ηi, ζj) = 0, i = 1, …, j −1,
~
Cov(ξs, ζj) = 0, s = 1, 2, …, q,
vale a dire le variabili latenti di una equazione (1) sono non correlate con la corrispondente componente di errore. La prima di tali condizioni di non correlazione non consegue, in generale, dalle ipotesi fatte nell’approccio parametrico. Si ricorda, infine, che
l’approccio predittivo è sostenuto in quanto consente di ottenere, in base al principio dei
minimi quadrati, stime consistenti dei parametri di un modello di regressione lineare
sotto ipotesi molto tenui, al riguardo di possibili correlazioni fra gli errori, con la corrispondente minimizzazione asintotica della varianza dell’errore di previsione, si veda
Wold (1988), p. 589.
b) Attribuzione di un significato sperimentale alle dimensioni del costrutto concettuale:
il modello di misurazione. Ciò è fatto associando ad ogni variabile casuale latente, descrittiva di una dimensione, delle variabili manifeste o indicatori, ad esempio, tre per
ogni dimensione, che si ritengono, ad essa collegati. A tale fine il modello di regressione “interno”, (1), è completato con un ulteriore modello di regressione lineare “esterno”,
che collega le variabili latenti con i propri indicatori. Esso è, ad esempio, del tipo:
~
~
 Y1   Yλ1η1 
~
Y = ΛYη + ε =  M  =  M  + ε,
Y~ m Yλmη~ m
~
~
X1 Xλ1ξ1
~
~
X = ΛXξ + δ =  M  =  M  + δ,
X~ q Xλqξ~ q
~
~
(5)
(6)
~
dove Y ed X sono vettori casuali, colonna, corrispondenti agli scostamenti dalle loro
~
~
medie, Y = Y − µY ed X = X − µX, degli indicatori, riassunti nei vettori Y, X, diciamo
m* × 1, q* × 1, attinenti rispettivamente alle variabili latenti endogene η ed esogene ξ;
ΛY, ΛX sono matrici gli elementi delle quali sono incogniti parametri: si noti dalle forme
(5) e (6) che ogni colonna di dette matrici contiene elementi diversi da zero solo in corrispondenza alla variabile latente cui si riferiscono gli indicatori al primo membro
dell’equazione; ε, δ sono “errori” casuali di media nulla e varianza finita.
6
Nell’approccio parametrico è consuetudine specificare che almeno le variabili d’errore,
componenti di ε, sono fra loro non correlate e che, per ciascuna, la stessa proprietà vale
nei confronti delle componenti d’errore del vettore δ e delle componenti dei vettori η, ξ,
ζ; in modo simmetrico le stesse assunzioni sono fatte al riguardo delle componenti di δ.
Oltre agli elementi delle matrici ΛY, ΛX, e dei vettori delle medie µY, µX, il modello di
misurazione (5), (6) implica, quindi, come incogniti parametri gli elementi delle matrici
di varianze e covarianze degli errori: Θε = E(εε′), Θδ = E(δδ′). Nell’approccio non parametrico le ulteriori specificazioni al riguardo delle componenti di errore nei modelli
(5) e (6) sono le seguenti:
~
~
~
~
E(ε | δ) = 0, E(ε | η, ξ) = 0, E(δ | η, ξ) = 0,
cioè, è nulla la media di ogni componente di ε, condizionata dai valori delle variabili di
~
~
errore δ o anche delle variabili latenti endogene η ed esogene ξ, e, parimenti, è nulla la
~ ~
media per ogni componente di δ, condizionata dai valori di η, ξ. Segue, quindi,
immediatamente dalle (5), (6):
~
~
E(Y | η) = ΛYη,
~
~
~
E(X | ξ) = ΛXξ,
~
inoltre E(εη′) = E(δξ′) = O, E(εδ′) = O, vale a dire ciascuna delle componenti di errore
riassunte nei vettori ε, δ risulta non correlata con ciascuna variabile latente del “blocco”
di variabili η, ξ, cui si riferisce ed, inoltre, le componenti di errore dei due tipi non sono
correlate. I modelli (5), (6) sono, come si suole dire, completamente riflessivi, vale a dire le variabili manifeste sono funzioni lineari delle corrispondenti variabili latenti. I modelli (5), (6) possono essere, tutto o in parte, di tipo “formativo”, aggettivo utilizzato, in
generale, per indicare un legame lineare in cui sia una variabile latente ad essere espressa come combinazione lineare delle corrispondenti variabili manifeste, più un errore aleatorio. Con riferimento ai modelli riflessivi (5), (6) è fondamentale confermarne preliminarmente la validità mediante un’indagine campionaria. Ciò corrisponde ad accertare che le variabili manifeste costituiscono effettivamente un “procedimento di misurazione” nei confronti delle corrispondenti variabili latenti o, equivalentemente, si possa
sostenere che le dimensioni del costrutto concettuale effettivamente esistono e possono
misurarsi indirettamente mediante le variabili manifeste ad esse associate, si veda, ad
esempio Zanella (2001,b). Al riguardo, nella fase conclusiva, è tipicamente utilizzata
l’analisi statistica dei fattori latenti in senso confermativo.
c) Stima compionaria dei parametri del modello strutturale e dei valori delle variabili
latenti η, ξ. Conviene avere presente che, in effetti, il problema dell’assegnazione di valori alle variabili latenti η e ξ è indeterminato. Una motivazione intuitiva è la seguente.
Si supponga di disporre di un campione casuale di n osservazioni dei vettori casuali Y,
X, di dimensioni, rispettivamente, m*, q*. Tenendo conto delle (1), (5), (6) consegue che
le n (m* + q*) = h osservazioni sono “interpretate” mediante i valori di n (m + q + m* +
q*) = k variabili latenti η e ξ ed errori ε, δ, tutti per ipotesi linearmente indipendenti. Il
fatto che k > h è alla base dell’indeterminatezza dei valori delle variabili latenti, si veda
Vittadini (1992), p. 381.
Nell’approccio parametrico il punto centrale del procedimento di stima è rivolto, principalmente, ad ottenere stime degli incogniti parametri dei modelli (1), (5), (6), diversi
7
dalle medie: sia ϑ il vettore riassuntivo degli stessi. Il riferimento di base è costituito
dalla matrice “teorica” di varianze-covarianze delle variabili osservabili – che sono riassunte dai vettori Y, X – espressa mediante i parametri ϑ:
~
Y ~ ~ 
E  ~ [Y′ X′] = Σ(ϑ).

X
Ad essa corrisponde l’usuale versione campionaria, diciamo:
~
y*i ~ ~ 
S = ∑  ~ *[y*i′ x*i′] / n

i=1 x i
n
~
~
dove y*i, x*i indicano i vettori degli scostamenti dei valori osservati dalle rispettive medie
aritmetiche campionarie. I procedimenti di stima provvedono al calcolo, mediante tecniche numeriche, delle stime dei parametri ϑ in base ad un prescelto “criterio di accostamento” di Σ(ϑ) ad S: ad esempio il criterio dei minimi quadrati ordinari assume come
stima di ϑ valori che minimizzano (1/2) tr [(S − Σ(ϑ)2], dove tr(⋅) indica la traccia di una
matrice; altri usuali criteri di accostamento sono: quello dei “minimi quadrati ponderati”
e quello conseguente dal “criterio della massima verosimiglianza”. Tutti i criteri anzidetti conducono a stime consistenti per n → ∞, si veda ad esempio Bollen (1989), p.
111 e seg., p. 293 e seg.. Oltre alle ipotesi prima specificate, per l’approccio parametrico
è essenziale che il campionamento sia casuale semplice, cioè, con osservazioni stocasti~
~
camente indipendenti, da una stessa distribuzione congiunta di (Y′, X′). Per
l’applicazione del criterio della massima verosimiglianza detta distribuzione deve essere
multinormale e le stime ottenute risultano anche asintoticamente efficienti. Essenziale
per l’ottenimento di stime uniche è che il modello sia “globalmente identificabile” vale
a dire l’eguaglianza Σ(ϑ1) = Σ(ϑ2) sussista se e solo se ϑ1 = ϑ2, si veda, ad esempio,
Bollen (1989), p. 326 e seg.. Il modello ricorsivo descritto dalla (1) risulta sempre globalmente identificabile, una volta introdotte opportune convenzioni di scala per le variabili latenti nei modelli di misurazione (5), (6), si veda Bollen (1989), p. 319.
Il procedimento di stima può, poi, essere completato per l’ottenimento anche di stime
dei valori medi η0, ξ0, µY, µX, si veda Bollen p. 350 e seg..
La stima dei valori delle variabili latenti η, ξ può, poi, essere ottenuta con vari metodi,
ad esempio, quelli sviluppati nell’analisi dei modelli con fattori latenti per ottenere i cosiddetti “factor scores”, si veda ancora Bollen (1989), p. 305 e Vittadini (1992).
Si ricorda, infine, che esiste una copiosa disponibilità di “software” per condurre con
l’aiuto del computer l’adattamento e l’analisi parametrica di un modello strutturale;
routine pertinenti sono incluse in raccolte di uso corrente, quali SPSS (AMOS), SAS,
STATISTICA, ecc. e in raccolte dedicate, quali LISREL, EQS, MPLUS, ecc..
L’approccio predittivo si basa sul metodo proposto da Wold – si veda lo scritto di Wold
(1985), che rimane classico sull’argomento – cosiddetto del Partial Least Squares
(PLS). In Wold (1988) l’autore illustra cosa egli intenda per “inferenza predittiva”. Si
consideri una variabile casuale (m + 1)-dimensionale (Y, X1, …, Xm) = (Y, X′) e si assuma che per determinati generici valori Xj = xj, j = 1, 2, …, m, si abbia:
Y = β0 + β1x1 + … + βmxm + ε.
8
Si ammetta, poi, che:
m
E(Y | x1, …, xm) = β0 + ∑ βjxj,
(7)
j=1
da cui segue:
m
E[(Y − β0 − ∑ βjxj) | x1, …, xm] = E(ε | x] = 0,
j=1
vale a dire, che la media dell’errore ε, condizionata dai valori x1, …, xm, risulta nulla.
^
Segue anche immediatamente E(ε) = 0, che cioè l’errore ε ha media nulla. Sia Y = f(X)
un predittore di Y funzione dei valori X1, …, Xm. Si ha evidentemente:
E[(Y − f(X))2] = E{[Y − E(Y|X)] + [E(Y|X) − f(X)]}2 =
= Var(ε) + EX{[E(Y|X) − f(X)]2},
relazione dalla quale risulta evidente la nota proprietà, che si ottiene il predittore “teorico” ottimale ponendo f(X) = E(Y|X), cioè, f(X) coincidente con la media di Y, condizionata dai valori X. Ciò in quanto, solo in tale caso, risulta minimo l’errore quadratico
medio dell’errore di previsione (Y − f(X)), che viene a coincidere con Var(ε). Si supponga, ora, di avere una successione di n valori osservati (yi, x′i), i = 1, 2, …, n, provenienti anche da diverse distribuzioni di probabilità per le quali rimanga, però, valida la
specificazione (7). Come predittore del successivo valore yn+1, osservati i valori xi(n+1),
viene proposto da Wold (1988) p. 589:
^
m
^
y^ n+1 = β0 + ∑ βj xj(n+1),
(8)
j=1
^
^
dove β0, βj, j = 1, …, m, sono le stime secondo il principio dei minimi quadrati ordinari
degli incogniti parametri del modello lineare (7), ottenuti in base alle n osservazioni già
disponibili. Sempre in Wold (1988), p. 589, si afferma che le stime anzidette rimangono
consistenti, per n → ∞, anche se gli errori εi, i = 1, 2, …, n, sono correlati. Se
Cov(εi, εi+k) indica la covarianza fra due successive osservazioni, a parte altri vincoli
tecnici, la proprietà anzidetta è, in primo luogo, assicurata dall’ulteriore condizione:
∑ | Cov(εi, εi+k) | < ∞
k
k = 1, 2, …, che impone che gli errori tendano a divenire incorrelati al crescere della
“distanza” k fra successive osservazioni. La consistenza delle stime sopra ricordata implica che per n → ∞ l’errore di previsione ε′n+1 tenda a coincidere con l’errore di osservazione εn+1.
Con riferimento al modello ricorsivo (1) ed ai corrispondenti modelli di misurazione,
quali sono, ad esempio, i modelli (5), (6) – tenendo presente, però, che sono ammesse
anche relazioni formative – l’approccio predittivo, a partire da un campione di numerosità n, nella prospettiva di poter prevedere successivi valori coerenti con il modello ipo9
tizzato, si propone la ricostruzione completa della struttura, sia assegnando dei valori
alle variabili latenti che agli incogniti parametri del modello.
Il metodo PLS procede precisamente come segue:
1) provvede, in primo luogo, in corrispondenza ad ogni osservazione, alla stima dei valori delle variabili latenti, ciascuna in base ad una media ponderata dei dati osservati per
gli indicatori ad essa attinenti.
Così per i modelli (1), (5), (6) si ottengono le stime:
mj
^
~
ηji = ∑ ηwjs (yjsi − ȳjs) = η^ ji − η^ j0
s=1
qh
^
~
^
(9)
^
ξhi = ∑ ξwhk (xhki − x̄hk) = ξhi − ξh0
(10)
k=1
j = 1, 2, …, m; h = 1, 2, …, q; i = 1, 2, …, n; dove mj e qh sono, rispettivamente, il numero di indicatori collegati alle variabili latenti ηj e ξh; ηwjs, ξwhk sono dei “pesi” ottenuti dalle osservazioni in base ad un procedimento iterativo, piuttosto complesso, nel quale hanno un ruolo essenziale le stime dei coefficienti di regressione lineare fra ogni variabile latente ed una opportuna combinazione lineare delle variabili latenti ad essa adiacenti, vale a dire ad essa collegate nel grafo orientato descrittivo del modello, si veda
Wold (1985), p. 585; yjsi, xhki sono le osservazioni, ȳjs, x̄hk le medie aritmetiche delle
stesse relative ai vari indicatori di una stessa variabile latente. Tipicamente i pesi sono
“standardizzati” in modo che sia:
^
~
^
~
∑ η2ji / n = ∑ ξ2hi / n = 1, ∀ j, h.
i
i
2) si ritengono, quindi, valide le equazioni dei modelli (1), (5), (6) nei confronti delle
stime delle variabili latenti ottenute come si è detto. Si è, quindi, ricondotti ad un insieme di modelli di regressione lineare, in ciascuno dei quali sia i valori della variabile di^
pendente, η^ j ovvero yjs, xhk, e dei regressori, η^ j′, j′ ≠ j, ξh sono noti. In corrispondenza
tutti gli incogniti parametri di tipo β, γ, λ, ed anche le “intercette”, vengono stimati secondo il principio dei minimi quadrati ordinari.
La giustificazione teorica del procedimento PLS, a partire dalle “assunzioni tenui” prima specificate al riguardo dell’approccio predittivo, risiede nella cosiddetta “consistenza in senso lato” (consistency at large). Questa proprietà assicura la convergenza in
^
probabilità delle stime delle variabili latenti η^ j, ξh a quelle non osservabili ηj, ξh e delle
stime dei parametri dei modelli (1), (5), (6), ottenute, in corrispondenza, secondo il
principio dei minimi quadrati, ai rispettivi valori teorici β, γ, λ, sotto la condizione che
oltre al numero n di osservazioni anche il numero di indicatori per ogni variabile latente
(numerosità di ciascun “blocco di indicatori”) tenda all’infinito. Per lo studio analitico
della consistenza in senso lato si veda Schneeweiss (1993).
A commento della metodologia PLS riportiamo alcune osservazioni del proponente originario Herman Wold, riferite da Chin (1998), p. 297 – in un lavoro di sintesi e
chiarificazione dell’argomento che raccomandiamo al lettore – “Development of PLS
«was a desire to take an intermediate position between data analysis and traditional
modeling based on the “hard” assumption that the observable are jointly ruled by a
specific probability distribution. The PLS approach is distribution free … in comparison
with other approaches, and in particular to maximum likelihood method, it is often more
10
approaches, and in particular to maximum likelihood method, it is often more general
and typically so since it works with a smaller number of zero correlation assumptions
between residuals and variables…»”. Si ricorda, infine, che il metodo PLS è utilizzato
per il calcolo degli indici nazionali di customer satisfaction, in particolare dell’ACSI. Si
segnala, infine, che mentre, come ricordato, è disponibile in varie versioni dell’ottimo
software per svolgere l’analisi parametrica di un modello strutturale lineare a variabili
latenti, per quanto concerne il PLS ci è noto solo il programma di Lohmöller indicato
con la sigla LVPLS 1.8.
Si è ritenuta necessaria la precedente rapida presentazione metodologica per consentire
al lettore, che non conosca i modelli strutturali e la corrispondente analisi statistica, di
farsene un’idea generale, sufficiente, si ritiene, per seguire il successivo sviluppo del discorso.
3.3 Quale significato attribuire all’utilizzo dei modelli strutturali lineari a variabili
latenti nell’ambito di tecnologia e produzione?
In accordo a quanto si è detto precedentemente, questo settore è stato, finora, tipicamente caratterizzato dal fatto che l’indagine sperimentale è basata su valori numerici conseguenti ad un procedimento di misurazione in senso proprio. Quest’ultimo è “un processo almeno concettualmente ripetibile” di assegnazione empirica ed oggettiva di numeri
a proprietà di oggetti o eventi del mondo reale in modo da poterli descrivere.
L’assegnazione deve essere fatta in modo che le relazioni tra i numeri associati agli oggetti corrispondano alle relazioni esistenti tra le manifestazioni delle proprietà degli oggetti stessi, inoltre “si può stabilire che entro limiti accettabili di incertezza i numeri risulterebbero gli stessi indipendentemente dal soggetto valutatore, utilizzando la stessa
metodologia”, si veda Franceschini (2001), pp. 22-26. In tecnologia è anche tipico ricorrere a procedimenti di misurazione indiretti, tramite i quali la misura di interesse è ottenuta in funzione di varie altre (si pensi, ad esempio, alla misura del peso molecolare di
un composto chimico). La disponibilità per una caratteristica di interesse di un procedimento di misurazione in senso proprio sta alla base della ricerca sperimentale in campo
tecnologico, tipicamente mediante l’attuazione di un “piano statistico degli esperimenti”
relativo a fattori sistematici che si ritiene possano avere un effetto sulla risposta. Ad esempio un effetto, sulla media aritmetica di quest’ultima, della variazione del livello di
un fattore sistematico potrà ritenersi accertato quando ad essa consegue una variazione
di media della risposta non riconducibile all’incertezza insita nel procedimento di misurazione.
Sia η la variabile latente endogena associata al concetto focale del costrutto concettuale
rivolto ad interpretarla, che si intende studiare mediante un modello strutturale. Ad esempio η potrà descrivere il concetto di efficacia nell’attuazione di un determinato Sistema Qualità, di un’impresa di grandi dimensioni, come percepita dagli operatori dello
stesso, o di customer satisfaction degli utilizzatori nei confronti di uno specifico prodotto/servizio di una particolare “marca”.
Si supponga, per fissare le idee, di avere determinato su base campionaria il modello
strutturale a variabili latenti corrispondente al costrutto concettuale di “customer satisfaction” illustrato nella Fig. 2. Si supponga di avere utilizzato l’approccio predittivo
proprio del PLS. Si fa presente che, preliminarmente, particolare cura dovrà essere posta
nella definizione della popolazione di utilizzatori del determinato bene/servizio cui si è
interessati. La prova di “ammissibilità” di un soggetto a fare parte del campione, quale
utilizzatore di uno specifico bene/servizio nella costruzione dell’ACSI è, ad esempio,
11
Y21 Y22
VALORE
PERCEPITO η2
ASPETTATIVE
DEL CLIENTE ξ1
LAGNANZE η4
Y41
CUSTOMER
SATISFACTION η3
FEDELTÀ η5
X11 X12 X13
QUALITÀ
PERCEPITA η1
Y31 Y32 Y33
Y51 Y52
Y11 Y12 Y13
Figura 2 Schema del costrutto concettuale alla base dell’American Customer Satisfaction Index.
molto generica: il soggetto deve avere un’età compresa fra limiti prefissati (18-84 anni)
e deve avere un’esperienza di utilizzazione recente. Non vengono introdotti, ad esempio, fattori di stratificazione socio-economica e demografica che, a nostro avviso, hanno
il ruolo di fattori sistematici e sono importanti, come si dirà, per la successiva fase di utilizzazione del modello. Inizialmente interessa l’insieme di tutti i soggetti che si ritiene
siano titolari in “senso socratico” del concetto di “customer satisfaction” dello specifico
prodotto/servizio in esame. La numerosità campionaria n deve, poi, essere appropriata.
Purtroppo non sono disponibili regole precise al riguardo; ad esempio in Baumgartner et
al. (1996) viene presentata una valutazione sintetica di 73 applicazioni di un modello
strutturale, in cui emergono come dimensioni campionarie ragionevoli valori di n compresi a 100 e 250.
Fondamentale è, poi, la scelta di un questionario appropriato e la conferma della sua validità attraverso l’analisi preliminare circa l’esistenza delle dimensioni ipotizzate: si ricordi quanto si è già detto al riguardo.
Si supponga che l’adeguatezza del modello, adattato mediante la tecnica PLS, sia confermata dall’applicazione dei vari indicatori proposti in letteratura (fra i quali figurano i
coefficienti di determinazione R2 attinenti ai singoli modelli di regressione, le stime “jackknife” o “boot-strap” degli scarti quadratici medi dei pesi W e delle stime dei parametri del modello, si veda Chin (1998), p. 316 e seg. per una rassegna). Soprattutto si supponga che sia soddisfacente la “rilevanza predittiva del modello” valutata mediante
l’indicatore Q2 di Stone-Geisser – particolarmente enfatizzato da Wold (1985), p. 587 –
riferito all’equazione di diretto interesse (si veda la (14), infra). In accordo al costrutto
schematizzato nella Fig. 2, detta equazione risulta:
^
^
^
^
^
(η^ 3i − η^ 30) = [β31(η^ 1i − η^ 10) + β32(η^ 2i − η^ 20) + γ^ 31(ξ1i − ξ10)] + ζ3i,
^
^
(11)
dove β31, β32, γ^ 31 sono le stime secondo il principio dei minimi quadrati dei parametri
dell’equazione strutturale (cfr. (1)) attinente alla variabile latente η3, descrittiva della
12
customer satisfaction, e si sono calcolati in accordo alle (9), (10) i valori :
3
^
η^ 30 = ∑ ηw3sȳ3s ; η^ j0 = ∑ ηwjsȳjs ;
s
s=1
^
^
3
ξ10 = ∑ ξw1kx̄1k ;
(12)
k=1
^
~
^
quindi η^ ji = η~ ji + η^ j0, j = 1, 2, 3, ξ1i = ξ1i + ξ10, i = 1, 2, …, n.
La definizione dell’indicatore Q2 di interesse è illustrata nel seguito. Con riferimento
all’esempio della Fig. 2 la variabile latente η3 è collegata dalle seguenti relazioni ai propri indicatori, si veda la (5):
~
y31i = µy1 + yλ31η3i + ε31i
~
y32i = µy2 + yλ32η3i + ε32i
~
y33i = µy3 + yλ33η3i + ε33i
(13)
i = 1, 2, …, n. Gli incogniti parametri delle equazioni (13) possono stimarsi in base al
^
principio dei minimi quadrati utilizzando, in particolare, le stime η~ 3i (9) (cfr. (12)) per i
~
valori della variabile latente η3i. In corrispondenza, si ottengono dei “predittori diretti”
delle osservazioni y3ji, j = 1, 2, 3, – dati dalle (13) private del termine di errore – me^
diante i valori η~ 3i. In luogo di questi ultimi si possono, però, considerare quelli “indiretti” ottenuti dal secondo membro della (11) – privato del termine di errore – che tiene
~
conto della relazione di causalità formulata al riguardo della variabile latente η3 di im^*
mediato interesse, diciamo η 3i, e utilizzare questi ultimi per ottenere le stime, secondo il
principio dei minimi quadrati, dei parametri delle relazioni (13).
Si consideri il procedimento di stima che consente di determinare l’equazione (11) e le
(13), in base al procedimento “indiretto” ora ricordato. Esso include il calcolo dei pesi
w, secondo la tecnica PLS, necessari per ottenere i valori (9) delle variabili latenti, oltre
all’ottenimento, in base a questi ultimi, delle stime secondo il principio dei minimi quadrati degli altri parametri. La relazione (11), privata del termine di errore, consente,
dunque, in base alle (12), mediante l’utilizzo dei valori degli indicatori collegati ad η1,
η2, ξ1, di ottenere il valore η^ *3i, i = 1, 2, …, n, attinente alla variabile latente η3 nella ima osservazione.
Un indicatore Q2 del tipo di Stone-Geisser (cfr. Fornell e Cha, 1994, pp. 72-73) può ottenersi nel modo seguente. Nel calcolo delle stime dei parametri delle equazioni (11) e
(13), oltre che dei pesi w, si può omettere il contributo dell’i-mo soggetto, caso i-mo,
espresso dai valori (y1ji, y2ji, y3ji, x1si), i ∈ {1, 2, …, n}. Mediante le stime così ottenute,
^
siano queste µ^ Yj, Yλ3j, per le equazioni (13), si possono, quindi, “prevedere” i valori y3ji,
^
j = 1, 2, 3, i ∈ {1, 2, …, n} in base alle espressioni y^ 3ji = µ^ Yj + Yλ3jη^ *3i, dove si utilizza la
stima η^ *3i, che dipende anche dal “caso omesso” ed il cui calcolo è sotto illustrato per le
“nuove osservazioni”, cfr. (15). Gli errori di previsione risultano (y3ji − y^ 3ji), j = 1, 2, 3,
i = 1, 2, …, n. Una volta ripetuto il calcolo per tutti i soggetti, con riferimento ad y3ji,
j = 1, 2, 3, i = 1, 2, …, n, l’indicatore proposto è definito dall’espressione sotto riportata:
13
3
n
∑ ∑ (y3ji − y^ 3ji)2/3n
Q2 = 1 −
j=1 i=1
3 n
∑ ∑ (y3ji − ȳ*3j)2 /3n
=1−
E2
V2
(14)
j=1 i=1
dove ȳ*3j è la media delle osservazioni y3js, s = 1, 2, …, n, dalle quali si è, però, tolta y3ji.
L’indice (14), se > 0, misura la capacità del modello, in particolare della stima (11), di
ricostruire o “prevedere” singole osservazioni in base alle altre, cioè la sua “rilevanza
predittiva”, che può ritenersi “buona” se Q2 differisce poco da 1.
Torniamo alla relazione (11) e supponiamo che essa sia disponibile. La (11), può, allora
venire utilizzata per determinare o assegnare il valore di customer satisfaction ad un
nuovo soggetto, diciamo (n + 1)-mo. Siano y3s(n+1), y1s(n+1), s = 1, 2, 3, y2s(n+1), s = 1, 2;
x1k(n+1), k = 1, 2, 3, i valori degli indicatori ottenuti per tale soggetto attraverso le sue risposte al questionario posto alla base dell’indagine. Il “suo” valore di customer satisfaction η^ 3(n+1) si ottiene in base alla (11), privata del termine di errore, dopo avere calcolato, secondo le (9), (10) e utilizzando le nuove osservazioni, i valori:
3
2
s=1
s=1
3
^
η^ 1(n+1) = ∑ ηw1sy1s(n+1) ; η^ 2(n+1) = ∑ ηw2sy2s(n+1) ; ξ1 = ∑ ξw1kx1k(n+1),
(15)
k=1
^
si intende con riferimento ai pesi w ed ai valori η^ 30, η^ 10, η^ 20, ξ10 già disponibili.
Se si è calcolato l’indicatore Q2 di Stone-Geisser la validità della stima η^ 3(n+1),
nell’ambito del modello originario, potrà essere saggiata considerando le espressioni al
numeratore della (14), (y3j(n+1) − y^ 3j(n +1))2, j = 1, 2, 3, ed accertando, ad esempio, che
sono inferiori al massimo valore ottenuto per gli altri valori di i, i = 1, 2, …, n.
In conclusione la (11) mostra come un modello strutturale consenta di predisporre, anche per “grandezze concettuali”, uno strumento di misura o valutazione indiretta, che ha
una notevole analogia con gli strumenti fisici in base ai quali si è soliti ottenere le misure in senso proprio in campo tecnologico. L’analogia è rinforzata se si nota come, avendo messo a punto lo strumento di valutazione conseguente all’adattamento di un valido
modello strutturale, lo studio sperimentale dei fattori, che possono influenzare il valore
medio della grandezza latente di interesse, acquista un senso preciso, simile a quello ricordato per l’ambito tecnologico. Si potrà, infatti, eseguire un piano statistico degli esperimenti variando i livelli – ad esempio medi – di alcuni fattori, rispetto alla situazione di riferimento, cui attiene il campione alla base della stima dei parametri del modello.
Si potrà, ad esempio, saggiare l’effetto medio di possibili varianti oggettive del bene/servizio in esame, come un’ipotetica variazione del prezzo, ecc., ma anche della
composizione della popolazione degli utilizzatori, per quanto attiene all’età media o allo
stato economico-sociale, ecc.. Disponendo di un’equazione di misurazione, quale è la
(11), si sarà in grado, esaminando le risposte di un numero limitato di utilizzatori – cioè
con poche “replicazioni” del piano sperimentale come accade in campo tecnologico – di
accertare l’esistenza o meno di effetti sul valore medio della variabile latente di interesse, quale, ad esempio, la customer satisfaction e definire delle convenienti azioni di miglioramento/ottimizzazione. Precisamente, nell’ordine di idee delineato sopra, si potrà
ammettere l’esistenza dell’effetto della variazione ∆ di un fattore sistematico se, ad esempio, la media quadratica degli errori di previsione nelle R replicazioni attinenti allo
14
{
3
}
R
stesso ∆, diciamo ∑ j=1∑ r=1(y3j(n+r) − y^ 3j(n+r))2/3R 1/2, risulta maggiore del valore E nella (14) attinente alla situazione di riferimento che può interpretarsi come una stima della
ripetibilità del procedimento di misurazione. Quanto precede rappresenta una proposta,
ovviamente suscettibile di varianti, da approfondire dal punto di vista del significato
metodologico.
Deve, infine, sottolinearsi che l’analogia fra uno strumento di misura ed un modello
strutturale presuppone di potere ipotizzare per quest’ultimo la sostanziale invarianza,
anche al riguardo dell’incertezza predittiva che gli è propria, nell’arco di tempo del suo
utilizzo.
3.4 Il carattere di “modernità” dell’analisi statistica dei modelli strutturali lineari
a variabili latenti
Per quanto si è detto appare evidente l’importanza dell’approfondimento metodologico
ed applicativo dei modelli in discussione per le odierne problematiche dell’ambito di
“tecnologia e produzione”, collegate alla valorizzazione ben fondata in termini di teoria
statistica delle valutazioni soggettive di beni/servizi e di sistemi di gestione d’impresa,
ecc.. Si può, però, aggiungere che gli aspetti di teoria ed analisi statistica ad essi
collegati presentano delle connotazioni che forse corrispondono a linee di tendenza
abbastanza generali al momento attuale in campo statistico. Si tratta, in particolare,
degli aspetti sotto indicati.
• Si studiano modelli statistici atti a descrivere ed interpretare strutture reali complesse (modelli reticolari e di causalità).
• Si ha una tendenza ad “alleggerire” le ipotesi concernenti il modello probabilistico
da porre alla base dell’interpretazione dei dati, la verifica delle quali tende a divenire
sempre più difficile, se non impossibile, per le strutture complesse. Si ha, quindi, un
impiego “misto” di tecniche di analisi dei dati e di inferenza statistica probabilistica
di tipo tradizionale (si ricordi il PLS).
• La notevole complessità dei modelli e degli algoritmi di analisi statistica rende indispensabile l’impiego del “computer” e, quindi, la disponibilità di “software”
pertinente. Al riguardo si è talvolta di fronte ad una “scatola nera” della quale non è
sempre possibile capire pienamente il funzionamento interno. Questo tipicamente si
basa su un progetto messo a punto da informatici, che hanno “letto” in modo personale il modello ed il metodo di corrispondente analisi statistica, ed il loro pensiero
non sempre risulta chiaro dai manuali di istruzione. Al computer è, poi, talvolta attribuito il compito di accertare operativamente delle proprietà teoriche che non si
possono o non si è riusciti a dimostrare (ad esempio la convergenza del procedimento iterativo per il calcolo dei pesi w nel PLS, o la identificabilità parametrica di un
modello strutturale lineare, ecc.).
• Si utilizzano spesso valori numerici, che corrispondono ad una valutazione,
tipicamente soggettiva, di un carattere su una scala solo ordinale, come se fossero
valori metrici, cioè, relativi ad una scala a intervalli o di rapporti. Il problema delle
scale rimane, comunque, cruciale, si veda il volume di Franceschini (2001) e rimane
un importante tema di ricerca per il prossimo futuro anche in collegamento ai
modelli strutturali. In effetti il problema delle scale ordinali, se trattato a fondo,
comporta, però, talvolta tali complicazioni che il ricercatore può decidere di
ignorarlo, accettando le conseguenti approssimazioni dei risultati, si veda ad
esempio Rigdon (1998), p. 264, al riguardo, appunto, dei modelli strutturali.
15
4. Conclusioni
Si è visto come negli ultimi venti anni il settore di “tecnologia e produzione” abbia dato
un valido contributo allo sviluppo della Statistica sia valorizzando ed adottando in modo
mirato i risultati teorici già disponibili – si è visto questo al riguardo dell’analisi delle
serie storiche utilizzate nella revisione delle carte di controllo di Shewhart, e nel passaggio al controllo predittivo e dinamico – sia avanzando proposte innovative, come è
stato il caso per il modello ed i metodi di Taguchi.
Al momento attuale, in collegamento alla profonda revisione delle nozioni della Qualità
dei beni e dei servizi che ha condotto alla dottrina della “Qualità Totale”, in cui è insita,
come si è detto, la richiesta generalizzata di una descrizione quantitativa di ogni aspetto
di un sistema produttivo, l’ambito di “tecnologia e produzione” è di nuovo di fronte alla
necessità di arricchire il proprio strumentario statistico. Questo al fine di
un’utilizzazione metodologicamente ben fondata anche dei dati di valutazione soggettiva dei prodotti/servizi e dei sistemi gestionali. L’obiettivo di giungere, anche in questo
riferimento, almeno ad una sufficiente standardizzazione ed oggettività metodologica
ispirate all’approccio tipico in campo tecnologico, potrà costituire un’importante elemento promotore dei metodi statistici da utilizzare per la descrizione e l’analisi dei costrutti concettuali ed, in generale, dei complessi modelli di causalità di interesse in ambito gestionale.
Riferimenti Bibliografici
Anderson F.W., Fornell C. (2000) Foundation of the American Customer Satisfaction
Index, Total Quality Management, 11, 7, 869-882.
Baumgartner H., Homburg C. (1996) Application of structural Equation Modelling in
Marketing and Consumer Research: A Review, International Journal of Research in
Marketing, 13, 139-161.
Bollen K.A. (1989) Structural Equations with Latent Variables, Wiley, New York
Box G.E.P., Jenkins G.M., Reinsel G.C. (1994) Time Series Analysis: Forecasting and
Control, Holden-Day, San Francisco, 3rd Ed..
Chin W.W. (1998) The Partial Least Squares Approach to Structural Equation Modelling, in: Modern Methods for Business Research, Marcoulides G.A., (Ed.), Lawrence
Erlbaum Assoc., Publ., London, Chap. 10, 295-336.
Fornell C., Cha J. (1994) Partial Least Squares, in: Advanced Methods of Marketing Research, Bagozzi R. (Ed.), Blackwell Publ., Cambridge, MA, 72-78.
Franceschini F. (2001) Dai prodotti ai servizi: le nuove frontiere per la valutazione della qualità, UTET, Torino.
ISO Standard Textbook (1995), Statistical Methods for Quality Control, Vol. II, 4th Ed.,
Genève, CH.
Rigdon E.E. (1998) Structural Equation Modelling, in : Modern Methods for Business
Research, Marcoulides G.A., (Ed.), Lawrence Erlbaum Assoc. Publ., London, Chap.
9, 251-293.
Schneeweiss H. (1993) Consistency at Large in Models with Latent Variables, in: Statistical Modelling and Latent Variables, Haagen D., Bartholomew D.J., Deistler M.
(Eds.), Elsevier Science, Publ., 299-318.
Smith G.F. (1993) The meaning of Quality, Total Quality Management, 4, 1, 235-244.
16
Vittadini G. (1992) Un confronto fra un modello di analisi causale con variabili latenti e
metodi alternativi, Statistica, LII, 379-396.
Wold H. (1985) Partial Least Squares, in: Encyclopaedia of Statistical Sciences, Kotz J.,
Johnson N.L. (Eds.), Vol. 6, Wiley, New York, 581-591.
Wold H. (1988) Specification, Predictor, in: Encyclopaedia of Statistical Sciences, Kotz
J., Johnson N.L. (Eds.), Vol. 8, Wiley, New York, 587-599.
Zanella, A. (1995) Il ruolo dei metodi statistici nell’ambito di “produzione e tecnologia”, in: La statistica per lo sviluppo dell’azienda, A.V., Istituto G. Tagliacarne, Roma, 69-97.
Zanella, A. (1996) Introduzione alla sessione specializzata “Metodi statistici nella qualità totale”, in: Atti della XXXVIII Riunione scientifica della Società Italiana di Statistica, Rimini, Vol. 1, 245-247.
Zanella, A. (2000) Presentazione degli Atti della Giornata di studio “Valutazione della
qualità e «customer satisfaction»: il ruolo della statistica”, Vita e Pensiero, Milano,
9-24.
Zanella, A. (2001,a) Valutazioni e Modelli Interpretativi di Customer Satisfaction: Ricerca di un Quadro Complessivo, in: Atti del Convegno Intermedio della Società Italiana di Statistica, Roma, Vol. Sessioni plenarie, specializzate, satellite, 113-120.
Zanella, A. (2001,b), Valutazione e modelli interpretativi di customer satisfaction: una
presentazione di insieme, Istituto di Statistica, Università Cattolica del S. Cuore, Milano, Serie E.P. n. 105, 1-46.
17