Scarica l`articolo in PDF

Transcript

Scarica l`articolo in PDF
OSSERVATORIO
a cura del Centro Studi e Formazione ASSIRM – Ricerche di Mercato,
Sociali, di Opinione.
L’Osservatorio di questo numero propone un confronto fra Istituti ASSIRM sullo stato e
sulle prospettive della ricerca online in Italia.
Il dibattito metodologico sulla percorribilità di questo approccio di ricerca – già
ampiamente praticato – è ancora agli inizi, in Italia ma non solo. Risulta, in particolare,
ancora carente la riflessione sulle varie tecnicalità presenti nella ricerca online e sulle
conseguenze che questa varietà comporta nella costruzione dei risultati di ricerca. Di
qui l’impegno di ASSIRM per un confronto/condivisione del patrimonio di conoscenze
maturate dall’esperienza sul campo dei suoi istituti di ricerca. Il confronto ha dato
origine ad un recente convegno sul tema (cfr. Il futuro delle ricerche online in Italia.
Milano, 10 novembre, 2009).
Presentiamo qui di seguito i principali contributi emersi dal convegno nell’intento di
concorrere alla costruzione di una pratica più consapevole e approfondita, ma anche più
creativa della ricerca di mercato online.
L’Osservatorio di Micro&MacroMarketing, coordinato da Guendalina Grafigna, è a
cura del Centro Studi e Formazione dell’ASSIRM, associazione di rappresentanza degli
istituti di ricerca di mercato, sociali e di opinione in Italia.
L’Osservatorio offre un collegamento e un’occasione di scambio fra mondo delle
ricerche sociali/di mercato e mondo dei professionisti/studiosi del marketing. L’intento
è duplice: a) favorire la diffusione della conoscenza dei risultati della ricerca sociale e
di mercato, altrimenti circoscritta alla più ristretta cerchia dei committenti; b) creare
valore sulla ricerca sociale e di mercato quale strumento di marketing intelligence.
1
La ricerca online in Italia: stato e prospettive dell’arte
contributi di: A. Amadori∗, A.C. Bosio∗∗, F. Capeci∗∗∗, G. Di Fraia∗∗∗∗,
F. Ferrari∗∗∗∗∗, A. Franchini∗∗∗∗∗∗, G. Graffigna∗∗ E. Lucchi∗∗∗∗∗∗∗, M.
Pessato∗∗∗∗∗∗∗∗
Nodi e snodi della ricerca di mercato online in Italia: introduzione al panel (A.
Claudio Bosio e Guendalina Graffigna – Centro Studi e Formazione Assirm) – I
contributi che seguono si interrogano sulla ricerca di mercato basata su rilevazioni
online (d’ora in poi RMOL) in Italia, proponendo spunti di riflessione e esperienze sul
tema. Essi costituiscono un affinamento degli interventi ospitati in un recente
convegno/workshop promosso da ASSIRM (Il futuro delle ricerche online in Italia.
Milano, 10 novembre, 2009). Gli approfondimenti qui di seguito proposti possono
essere aggregati sulla base di due percorsi tematici:
- da un lato il problema della “qualità metodologica” della RMOL, che rimanda a
questioni aperte, quali l’attendibilità e la validità di questa pratica di ricerca (G. Di
Fraia) o la rappresentatività dei campioni (E. Lucchi);
- da un altro lato, la possibilità di ripensare, a partire dal mondo web, tecniche di
ricerca già collaudate come il metodo Delphi (A. Amadori) o di generarne di nuove
per potenziare le capacità euristiche della ricerca di mercato (A. Franchini, F.
Capeci e F. Ferrari). Si tratta di contributi variegati che toccano aspetti cruciali della
RMOL senza ovviamente esaurirne la complessità tematica; complessità che trova
comunque un suo punto di composizione nella sintesi finale di M. Pessato (che è
stato anche il curatore del convegno) e che vorremmo contribuire ad inquadrare in
questa introduzione proponendo due considerazioni: sullo stato di fatto e sulle
prospettive di crescita della RMOL in Italia.
1) Lo stato di fatto. La situazione della RMOL in Italia è ben rappresentanta dalla fig.
1, basata sul monitoraggio che ASSIRM compie sull’attività di ricerca degli istituti
affiliati (gli istituti ASSIRM – ricordiamolo – rappresentano un buon osservatorio
∗
Coesis Research
Centro Studi e Formazione Assirm
∗∗∗
Duepuntozero Research
∗∗∗∗
IULM
∗∗∗∗∗
Doxa
∗∗∗∗∗∗
Tns Italia
∗∗
Centro Studi Assirm
∗∗∗∗∗∗∗
Gfk-Eurisko
∗∗∗∗∗∗∗∗
SWG
∗∗
2
poiché coprono l’80% circa dell’intero volume di ricerche di mercato condotte in
Italia). I dati mostrano come - all’interno dei trend complessivi dell’attività di
ricerca – la RMOL rappresenti una realtà ancora marginale:
- valutabile in circa l’8% del totale ricerca (7% in ambito quantitativo e
1% in ambito qualitativo);
- con un trend di crescita comunque evidente almeno in riferimento alla
ricerca quantitativa
Figura 1 – La ricerche di mercato online in Italia (base: attività di ricerca annua condotta dagli Istituti
affiliati all’ASSIRM)
QT
74,2
QT
QT
79,5
78,6
QL
QL
22,5
0,5
18,9
3,1
0,4
2002 (=100%)
QL
2,2
2005 (=100%)
17,0
7,0
0,6
2008 (=100%)
On line
(Nota: il completamento a 100% delle distribuzioni è dato da ricerche non riconducibili a metodologie
quantitative o qualitative)
Un’attività piccola, anche se vivace, ancora lontana da quanto osservato nel resto
dell’economie avanzate.
Per quanto riguarda il resto del mondo, la situazione è ben illustrata nel rapporto Global
Market Research 2009 curata da ESOMAR (l'associazione mondiale dei professionisti
del marketing e dei sondaggi d'opinione) e può essere condensata in questa
affermazione “using the internet as a high-speed, low cost channel to run surveys has
become a mainstream research tool in many of the more mature research markets”.
Volendo supportare lo statement con qualche evidenza empirica (sempre ricavata dalla
stessa fonte) osserviamo che:
- la RMOL è stata la prima e principale tipologia di ricerca condotta nel 2008 nel
mondo (fig. 2);
- la RMOL risulta dominare nei principali paesi ad economia avanzata (USA, UK,
Germany, Japan, Netherlands…) oltreché in quelli bisognosi di sopperire con un
network telematico alle discontinuità territoriali (Canada, Australia…)
Rispetto a questo movimento, l’Italia si pone in una situazione di coda.
3
2) Le prospettive: nodi e snodi per favorire buone pratiche. Un male per noi? Sì e no.
Sì, perché ci collochiamo in posizione periferica rispetto a un’esperienza innovativa
destinata a cambiare la pratica della ricerca di mercato.
No, perché non siamo fuori in assoluto dal trend e possiamo concorrere ad un
ripensamento virtuoso di una pratica di ricerca affermatasi principalmente per ragioni
economiche (risparmio di tempo e di denaro) ma portatrice anche di non poche
ambiguità e problemi che chiedono una sua rielaborazione più critica e rispettosa dei
valori di riferimento della ricerca sociale e di mercato.
In questo senso, si prospetta la possibilità di avviare un doppio e positivo percorso per
gli Istituti di ricerca sociale e di mercato (ma non solo per essi): di allineamento con
pratiche internazionali, ma anche di ripensamento e di riorientamento di tali pratiche.
Ripercorrendo le linee di un dibattito presente nella letteratura scientifico-professionale
sul tema1 ci sembra di poter indicare tre vie su cui orientare il ripensamento della
RMOL.
Figura 2 –Spesa per tipo di metodologia nel mondo (Fonte: ESOMAR, Global Market Research 2009)
Spend by research method 2008
1
Il dibattito internazionale che ha avuto luogo nell’ultimo decennio sulla metodologia della ricerca
condotta via Internet è molto fiorente come si può vedere semplicemente sfogliando gli indici di alcune
riviste di riferimento: International Journal of Market Research; Journal of Consumer Behaviour;
Journal of Interactive Marketing; Journal for Cultural Research; Forum: Qualitative Social Research;
Qualitative Market Research: an International Journal
4
a) Confronto “di qualità” con altre tecniche di rilevazione. Si tratta del primo, più
ovvio e più frequentato percorso. A fronte di “un altro modo” (online) di fare ricerca
viene spontaneo domandarsi se esso sia meglio/peggio di altre tecniche di
rilevazione più tradizionali (face-to-face, CATI…). I temi dell’attendibilità e della
validità dei risultati, unitamente a quello della rappresentatività dei campioni
(relativo sia al fenomeno della autoselezione dei rispondenti, sia alla specificità del
profilo demo-socio-culturale) rappresentano gli argomenti di confronto principali in
questo contesto, ma non i soli. Basti pensare allo stretto legame che si tende
“fisiologicamente” a stabilire fra ricerca online e opzione per rilevazioni-panel (lo
strumento favorisce la consultazione ripetuta!). L’espansione di una tecnica di
rilevazione, insomma, ne favorisce anche altre; anch’esse portatrici di specifici
problemi e di qualche opportunità.
b) Confronto di “specificità” con altre tecniche di rilevazione. Accanto a chi si interroga
se la RMOL “sia meglio/peggio di …” altri si pongono una domanda leggermente
diversa, relativa al “come” un approccio online orienti in modo specifico i risultati di
una ricerca rispetto ad altre tecniche di rilevazione.
Un interrogativo esemplificativo: condurre una discussione di gruppo in modalità
online (utilizzando lo strumento del forum o della chat) porta agli stessi risultati di
una discussione di gruppo face-to-face? A questo tema stiamo dedicando parecchia
attenzione nel nostro gruppo di ricerca e abbiamo consistenti evidenze che
depongono a favore di una differenza di risultati: sia sul piano conoscitivo-affettivo,
sia sul piano degli effetti pratici generati da una discussione di gruppo2. In letteratura
esistono evidenze simili alle nostre per quanto riguarda la somministrazione di
questionari strutturati.
Insomma, un’altra direzione da raccogliere e affrontare riguarda la specificità dei
risultati prodotti da rilevazioni online: al loro interno (trattandosi di tecniche diverse:
forum, chat, blog…) e rispetto ad altre tecniche di rilevazione. Su questo aspetto
(denominabile “teoria della tecnica”) gli istituti di ricerca potranno fare molto,
magari mettendo a disposizione la loro ragguardevole base dati per le opportune
meta-analisi.
c) Riconfigurazione della ricerca nel mondo Internet. La ricerca web-mediata non offre
soltanto una tecnica ma propone anche un mondo allo stato nascente - che appare
sempre più improprio chiamare virtuale - destinato invece a rimodellare
complessivamente la realtà sociale e le sue pratiche, comprese quelle della ricerca. Il
richiamo al Web 2.0 non rappresenta qui un obbligo quasi liturgico, bensì
l’evocazione di un nuovo organizzatore sociale in cui forum, chat, blog, web
2
Bosio A.C., Graffigna G., Lozza E. (2008). Online focus groups: Toward a theory of technique. In T.
Hansson (Ed.) Handbook of Digital Information Technologies: Innovations and Ethical Issues, pp. 192212. Hershey: Idea Group Publishing; Graffigna G, Bosio, A.C. (2009), Comunicazione mass-mediale
sulla salute e contesti sociali di scambio: quale intreccio? Psicologia della Salute, 2/2009, p. 9-25.
5
communities, social networks … si affermano sempre più come pratiche generatrici
di nuove forme di partecipazione. Da questo mondo sono destinate ad uscire anche
nuove opportunità. A questo compito di lettura delle opportunità per il marketing e
per la ricerca di marketing offerte dal “nuovo mondo” gli istituti di ricerca (italiani o
non) faranno bene non sottrarsi.
All’interno di queste linee che abbiamo evocato sono facilmente ricollocabili i
contributi che seguono. Al di là delle singole peculiarità, vorremmo sottolineare un
valore di base condiviso: l’utilità di ripensare/rielaborare le proprie pratiche di ricerca
per preparare in modo concreto e paziente il futuro della ricerca di mercato. A fronte di
uno scenario che ci spinge a pensare la nostra professione in termini di marcata
discontinuità rispetto al presente, questo lavoro non potrà che risultare utile …
essenziale.
Validità e attendibilità delle ricerche online (Guido Di Fraia – IULM) - Nei corsi
introduttivi di metodologia della ricerca si usa definire la validità come la capacità di
uno strumento di rilevazione di misurare effettivamente la variabile per cui è stato
costruito (Corbetta, 20033, Bailey, 20064). È una definizione certamente corretta, ma
che prende in considerazione solo uno dei molteplici aspetti che incidono sulla validità
di un processo di ricerca: quello connesso con le modalità di manipolazione e
misurazione delle variabili. Ad un livello di maggior approfondimento si può affermare
che una ricerca «è valida quando i risultati a cui giunge offrono la migliore
approssimazione possibile alla verità dei fenomeni osservati» (Cook e Campbell, 1979,
p. 385). Tale definizione – che attraverso il concetto di “approssimazione” ci ricorda
come la verità scientifica sia sempre di natura probabilistica – propone il concetto di
validità in modo più ampio e corretto, in quanto comprende tutti i livelli su cui si
articola un processo osservativo scientificamente fondato. In questa prospettiva è
possibile distinguere almeno quattro livelli di validità: quella relativa alle conclusioni
statistiche, quella interna, quella esterna e quella associata appunto ai processi di
misurazione delle variabili6 (Ercolani, Areni, Mannetti, 19907).
3
Corbetta G. (2003) La ricerca sociale: metodologia e tecniche. Le tecniche quantitative. Bologna: Il
Mulino.
4
Bailey K., (2006) Metodi della ricerca sociale (vol. 2: l’inchiesta). Bologna: Il Mulino.
5
Cook, T.D. and Campbell, D.T. (1979). Quasi-Experimentation: Design and Analysis for Field Settings.
Rand McNally, Chicago, Illinois.
6
Nell’impossibilità di entrare nel merito dei diversi livelli di validità possiamo qui limitarci a ricordare
come ciascuno di essi si associ ad una specifica domanda: esiste una relazione tra le variabili? (v.
conclusioni statistiche); la relazione è di natura causale? (v. interna); le procedure di manipolazione e
misurazione delle variabili si riferiscono davvero ai costrutti indicati? (v. procedure di manipolazione e
misurazione delle variabili); le relazioni rilevate tra le variabili nel campione considerato possono essere
generalizzate all’intero universo di riferimento? (v. esterna); cfr. Ercolani, P.A. Areni, A. Mannetti, L.
6
Il concetto di attendibilità, più semplice concettualmente ma estremamente
problematico sul piano della sua effettiva misurabilità, ha invece a che fare con la
“stabilità” o affidabilità di una misurazione e dunque con la capacità dello strumento di
cogliere le variazioni presenti nel fenomeno osservato.
Tradotto in “termini aziendalistici”, è evidente come validità e attendibilità
costituiscano aspetti centrali della qualità complessiva di una ricerca di mercato, nonché
del valore aggiunto che l’Azienda paga all’Istituto di ricerca per avere informazioni (che
siano valide e attendibili, appunto) sulla cui base prendere le decisioni aziendali e
orientare i processi decisionali in maniera più efficace di quanto non avverrebbe
lasciandosi guidare dall’intuito.
La domanda che ci possiamo e, direi, dobbiamo, porre nel cercare di prefigurare il
futuro delle ricerche online, è, dunque, se attraverso la Rete sia possibile condurre
ricerche quantitative di tipo CAWI (che rappresentano tuttora la forma principale di
ricerche online8) valide e attendibili. A tale domanda si può evidentemente rispondere
solo attraverso un’attività di ricerca ad hoc, in grado di comparare i risultati ottenuti
attraverso la tecnica CAWI con quelli ricavati sullo stesso oggetto d’indagine attraverso
altre tecniche. I lavori di questo genere, realizzati sia in ambito accademico sia
all’interno degli Istituti di ricerca di mercato sono probabilmente meno di quanti non ci
si potrebbe aspettare, ma offrono conclusioni in larga parte convergenti.
Nell’impossibilità in questa sede di presentarne una rassegna dettagliata, mi limiterò a
citare alcuni tra i più recenti e rappresentativi contributi sull’argomento presi come
paradigmatici di un corpus più vasto di letteratura.
Un primo lavoro che vale la pena citare è una ricerca condotta nel 2008 in Olanda
(Scherpenzeel, 20089) secondo un disegno sperimentale multitrait-multimethod10,
1990. La ricerca in psicologia. Modelli di indagine e di analisi dei dati. Urbino: La Nuova Italia
Scientifica.
7
Cfr. nota 6.
8
Internet, in realtà, soprattutto attraverso il suo recente sviluppo rappresentato dal Web 2.0, offre
innumerevoli opportunità di ricerca, alcune delle quali decisamente innovative e che in qualche modo
rappresentano un vero e proprio cambiamento di paradigma non solo della ricerca ma più in generale
delle forme della comunicazione umana.
9
Scherpenzeel A., (2008) Online interviews and data quality. A multitrait-multimethods study. Paper
presented at the MESS (Measurement and Experimentation in the Social Sciences ) Workshop, 22-23
August, Zeist.
10
Tale disegno sperimentale si avvicina in qualche modo ai metodi di verifica dell’attendibilità degli
strumenti di rilevazione condotti attraverso l’approccio test-retest che prevedono la somministrazione
ripetuta, a distanza di tempo, degli stessi item agli stessi soggetti; in questo caso nelle varie ripetizioni gli
item sono stati mantenuti costanti variando il modo in cui venivano sottoposti allo stesso campione di
intervistati. Per una trattazione più specialistica del disegno MTMM si veda Campbell D. T., Fiske D. W.
(1959). Convergent and discriminant validation by the multimethod-multitrait matrix. Pscychological
Bullettin, 56, pp. 833-853 e Scherpenzeel A., Saris W. E., (1997) The validity and reliability of survey
7
specificamente realizzato per confrontare i risultati misurati sullo stesso campione di
rispondenti (2924 casi estratti dal panel LISS11 rappresentativo della popolazione
olandese) attraverso tecniche CAWI, CATI e CAPI. Le conclusioni cui i ricercatori
giungono attraverso tale disegno sono molto robuste sul piano statistico e
inequivocabili: «operando sullo stesso campione di rispondenti, i risultati raccolti
utilizzando questionari autosomministrati in modalità CAWI sono validi almeno quanto
quelli ottenibili attraverso metodologie CATI e CAPI» (Scherpenzeel, 2008, p. 7). Più
in particolare, in termini di validità, il CAWI appare «confrontabile con il CATI e
leggermente superiore rispetto al CAPI; mentre a livello di attendibilità i dati raccolti
via CAWI appaiono decisamente superiori rispetto a quelli ottenuti via CATI e CAPI»
(Ibid.). La capacità della tecnica CAWI di garantire un’ottima qualità/attendibilità della
rilevazione è, del resto, cosa nota ed è assicurata dalle caratteristiche stesse del mezzo e
dalle pratiche di compilazione che la Rete offre (Di Fraia, 200412). Tra i fattori positivi
in questo senso ricordiamo il contesto entro cui si svolge la compilazione (di solito la
casa o il luogo di lavoro del rispondente), che rappresenta un setting decisamente più
“ecologico” rispetto alle altre forme di intervista su questionario ed è in grado di
garantire un’intimità ed una riservatezza tali da ridurre i meccanismi di desiderabilità
sociale. Contribuiscono, però, all’accuratezza delle rilevazione anche le funzionalità dei
format di compilazione CAWI, che permettono di controllare la correttezza dei processi
di inserimento delle risposte orientando automaticamente gli intervistati attraverso le
eventuali domande filtro; come pure la possibilità di fornire stimoli visivi (a differenza
di quanto non avviene ad esempio con il CATI) che agevolano i processi mnemonici e
le risposte su domande che prevedono un numero elevato di modalità.
Sul fronte dei lavori condotti dalle stesse società di ricerca di mercato un esempio
interessante è costituito da una serie di indagini comparative realizzate tra il 2001 e il
2008 negli Stati Uniti e in alcuni paesi europei (AAVV. 200113, 200514) attraverso le
quali si voleva verificare se le decisioni aziendali prese basandosi sui risultati ottenuti
con rilevazioni CAWI su diverse tipologie di oggetto di studio (notorietà di marca,
concept test, advertising test, packaging test, ecc.) risultassero confrontabili con quelle
che sarebbero state assunte utilizzando dati raccolti con metodologie più tradizionali. Ci
limitiamo in questa sede a riportare le conclusioni del test comparativo realizzato nel
questions: a meta-analysis of Multitrait-Multimethod studies. Sociological Methods and Research, 25, pp
341-383.
11
Longitudinal Internet Studies for the Social Science (cfr. http://www.lissdata.nl/lissdata/).
12
Di Fraia G., (2004) E-Research. Internet per la ricerca sociale e di mercato. Bari: Laterza.
13
AAVV, (2001) “An Examination of Online Sampling Techniques”, Research on Research, 63,
Synovate.
14
AAVV, (2005) “Ten Years of Research on Research in the US: Synovate’s Contributions to
Understanding the Potential of Online Fielding”, Research on Research, Synovate.
8
2008 contemporaneamente in Francia, Italia, Spagna, Germania e UK15. Nello specifico
si è registrato un maggior numero di brand ricordati nella rilevazione online mentre la
loro “gerarchizzazione” su tutte le dimensioni studiate è risultata la stessa
indipendentemente dalla tecnica di rilevazione.
Fin qui, dunque, possiamo concludere che, se ben condotte e operando sugli stessi
campioni, le ricerche CAWI offrono garanzie di validità e attendibilità equivalenti (se
non superiori nel caso dell’attendibilità) a quelle offerte da altri metodi di rilevazione, in
particolare CATI e CAPI.
Ma solo, lo ripetiamo, “operando sugli stessi campioni”: le indagini CAWI soffrono,
come noto, di un problema di copertura di campionamento che, per quanto possa essere
parzialmente “corretto” attraverso procedure di ponderazione, resta comunque un limite
della tecnica (destinato progressivamente a ridursi nei prossimi anni per il graduale
aumento della penetrazione della Rete, ma con cui attualmente si deve fare i conti!).
Rimando al contributo proposto da E. Lucchi in questa sede le considerazioni su quanto
questo aspetto impatti sulla rappresentatività dei campioni. In questa sede mi preme
però focalizzare due aspetti.
In primo luogo la valutazione della validità esterna del CAWI non può essere condotta
in astratto, ma solo comparativamente con quella offerta da altre tecniche di rilevazione
e, in particolare, dal CATI. La rapida evoluzione in corso in tutti i paesi avanzati della
telefonia (mobile, VoIp, ecc.) ha completamente ridisegnato il tradizionale scenario
“una famiglia – un telefono” su cui si basavano i campionamenti telefonici e dunque le
rilevazioni CATI, riducendone notevolmente l’effettiva copertura (eliminazione
telefono fisso, aumento progressivo dei tassi di rifiuto, autoselezione, non inclusione dei
migranti, ecc.). Una ricerca molto dettagliata svolta nel 2008 (in parte basata sui dati
Eurobarometro) che ha monitorato la situazione delle telecomunicazioni in 6 paesi
europei (Francia, Italia, Polonia, Germania, Spagna, UK) in relazione a tre fasce d’età,
mostra la grande pluralità di situazioni che si registrano rispetto all’accesso alla
telefonia e alla Rete arrivando a concludere che «nei paesi considerati, una survey che si
limiti ad un solo metodo di rilevazione diverso dal face-to-face è destinato ad escludere
sottogruppi distintivi e significativi della popolazione adulta» (Blyth, 2008, p. 26016); e,
ancora, che: «i problemi di copertura associati all’uso diversificato delle tecnologie
della comunicazione nei paesi indagati possono ridurre in modo significativo la validità,
l’attendibilità, l’accuratezza e la replicabilità delle ricerche realizzate soprattutto in
quelle di portata internazionale» (ibid. p. 261). Un monito che non ha bisogno di
ulteriori commenti.
15
Si tratta di una ricerca condotta da IPSOS nel 2008, basata su 1000 casi per nazione estratti da panel
proprietario su notorietà di marca, immagine, e uso di 7 brand: i risultati ottenuti via CAWI appaiono del
tutto sovrapponibili con quelli raccolti offline (cfr. ricerca Ipsos non pubblicata).
16
Blyth, B., (2008) Mixed mode: the only “fitness” regime?. International Journal of Market Research
Society, 50, Issue 2.
9
La seconda considerazione muove, invece, dall’accezione ampia del concetto di validità
che abbiamo ricordato in apertura di queste brevi note. Accezione che avrebbe dovuto
indurci a riconoscere, da subito, come l’interrogarsi sulla validità e l’attendibilità delle
ricerche CAWI sia un modo scorretto di porre il problema in quanto generalizza ciò che
non può essere generalizzato. Quello della validità è, infatti, un interrogativo che va
posto e affrontato rispetto ad ogni singola ricerca e, all’interno di essa, in relazione ad
ogni aspetto del processo: dalla costruzione dello strumento di rilevazione e di ogni
singolo item, al campionamento; dal reperimento17 alle procedure statistiche utilizzate
per analizzare i dati raccolti. L’evoluzione del settore della ricerche di mercato negli
ultimi decenni, favorita da un aumento della concorrenza (e da un atteggiamento un po’
collusivo tra committenti e società di ricerca) ha probabilmente sin troppo assecondato i
desideri dei clienti che dalle ricerche vorrebbero sempre “risposte valide, in tempi rapidi
e a basso costo”. Ma qualità dei risultati, costi e tempi di realizzazione non sono
variabili indipendenti né fattori comprimibili oltre una certa soglia18. Se è pur vero che
fare ricerca significa sempre “scendere a compromessi” tra quanto idealmente si
desidererebbe fare per esplorare al meglio ciò che ci interessa e quanto effettivamente si
può fare in relazione alle risorse disponibili, è anche vero che non si possono accettare
compromessi sulla qualità. Investire soldi in una ricerca mal fatta che finisce per
generare risultati scarsamente validi e attendibili, significa gettar via non solo quel
denaro, ma anche tutto quello connesso con le diseconomie che le decisioni prese sulla
base dei risultati ottenuti potranno provocare.
Ponderazione e tutela della rappresentatività online (Edmondo Lucchi – GfkEurisko) - Internet rappresenta un canale di contatto con il pubblico molto agevole e
potente e, quindi, si offre come modalità economicamente efficiente per condurre
indagini campionarie.
Deve tuttavia essere valutata molto attentamente - per le indagini online - la
rappresentatività dei dati (cioè la possibilità di riferire le informazioni raccolte sul
campione – centinaia o migliaia di interviste – a un universo decisamente più ampio –
milioni di persone).
L’utenza di Internet, infatti, costituisce un segmento sociale con caratteristiche molto
differenti rispetto alla popolazione italiana: la qualificazione culturale e socioprofessionale è superiore alla media e le fasce anagrafiche mature sono ancora quasi
escluse. I comportamenti e gli atteggiamenti di consumo sono anch’essi ben differenti
17
Non abbiamo spazio qui per entrare nel merito dell’annoso tema degli “intervistati di professione”,
presente soprattutto nelle ricerche qualitative, ma anche nei panel.
18
I capelli bianchi mi consentono di ricordare quando l’analisi delle risposte ottenute nelle interviste
individuali e nei focus group veniva condotta sui testi sbobinati delle registrazioni anziché sugli appunti
presi dai/dalle recorder… con ben altre possibilità di approfondimento interpretativo!
10
da quelli medi della popolazione, come confermato dai dati dell’indagine Sinottica di
GfK Eurisko19.
Internet non rappresenta dunque uno strumento “neutrale” rispetto alla popolazione
italiana: chi usa Internet è “diverso” all’origine. Inoltre, con l’uso di Internet, ogni
utente è ulteriormente sottoposto ad un’evoluzione mediale, personale e stilistica che
rende molto difficile utilizzare le informazioni raccolte sugli internauti per rappresentare
sia la popolazione italiana complessiva, sia alcuni segmenti sociali specifici, poco
inclini all’uso della Rete.
Alcuni esempi:
- la stilistica alimentare “moderna”, che presso il totale popolazione italiana (di
almeno 14 anni) raggruppa il 36% degli italiani, presso l’utenza di Internet vale
circa il 63%;
- la visita di librerie negli ultimi 3 mesi, presso la popolazione complessiva ha una
penetrazione del 32%; mentre caratterizza il 55% dei navigatori online.
A fronte di questa situazione, il quesito da porsi è se sia possibile bilanciare - con
opportune procedure di ponderazione - un ipotetico “campione perfetto” di utenti
Internet per renderlo rappresentativo della popolazione italiana complessiva.
Gli esperimenti condotti da GfK Eurisko dimostrano che, applicando al campione di
utenti Internet i parametri socio demografici, mediali e stilistici della popolazione
italiana, è in effetti possibile ricreare artificialmente un nuovo campione con
orientamenti, atteggiamenti e comportamenti di consumo che appaiono decisamente più
allineati a quelli della popolazione “media”. Questa operazione è ovviamente possibile
solo partendo da campioni di grandi dimensioni (la ponderazione, infatti, “consuma” le
basi campionarie) e conoscendo su quali variabili agire e quali valori applicare. Il
ricorso alle informazioni fornite da Sinottica consente approcci di questo tipo.
Abbiamo, però, ipotizzato di effettuare questa operazione partendo da un campione
perfettamente rappresentativo di utenti Internet.
Tuttavia questa situazione non si verifica praticamente mai nella pratica. Realizzando
indagini online si ottengono, infatti, campioni che non sono mai rappresentativi
dell’utenza di Internet. Questo problema emerge sia quando il reperimento è condotto
con metodologia “web intercept” (cioè reperendo le persone nel corso della loro
navigazione spontanea del Web), sia quando si fa ricorso a database di indirizzi mail o
access panel di utenti Internet (GfK Eurisko ha condotto studi su più di un access panel,
ottenendo risultati straordinariamente convergenti).
Non si tratta insomma di errori dovuti a bad practices degli operatori, bensì di un
fenomeno strutturale dell’utenza Internet (cui purtroppo sono dedicati pochi studi, e
quei pochi sono spesso effettuati in paesi con una cultura civica e mediale
19
Sinottica è un monitor quantitativo continuativo basato su 10.000 interviste personali domiciliari ogni
anno, su caratteristiche degli individui, consumi ed esposizione mediale
11
assolutamente non generalizzabile al contesto italiano, come ad esempio la Scandinavia,
l’Olanda, il Belgio).
Alcuni esempi emersi dagli studi comparativi condotti da Gfk Eurisko:
- la penetrazione della carta di credito viene ad esempio stimata dalle interviste su
access panel a livelli del 63% - 74% (a seconda del panel utilizzato) contro un
valore corretto pari al 37% dell’utenza Internet;
- la dichiarazione di visita di un “blog” negli ultimi 3 mesi viene stimata al 54%62% dell’utenza Internet, contro un più corretto 18% stimato con indagini
personali domiciliari.
La spiegazione di tali distorsioni nei dati è, in effetti, abbastanza semplice: le persone
che accettano interviste online sono forti utilizzatori di Internet, con un’elevata
anzianità d’uso della Rete e, quindi, livelli di competenza e confidenza nettamente
superiori a quelli del navigatore medio. Il navigatore medio, infatti, capisce poco, si fida
poco e/o è poco interessato alle interviste online. L’intervistato online è, insomma,
“auto-selezionato”.
Abilità e fiducia nei confronti di Internet sono, tra l’altro, tratti strutturali che si
associano in modo spiccato ad atteggiamenti più evoluti nei confronti della tecnologia,
dell’informazione e degli strumenti di pagamento, e spesso presuppongono una
maggiore esploratività, selettività, capacità critica e conoscenza dei prodotti e delle
marche.
Gli intervistati online esprimono, di conseguenza, comportamenti e orientamenti di
consumo idiosincratici (quindi, non rappresentativi) anche nei mercati della cultura, dei
media, della pubblicità, dei viaggi, della finanza. Il fenomeno è invece meno critico per
certi ambiti dei consumi alimentari.
In sintesi, quindi, è possibile “correggere” tramite bilanciamento queste distorsioni e
“ricreare” un campione di utenti Internet “corretto”?
Le sperimentazioni condotte da GfK Eurisko conducono purtroppo ad una risposta
tendenzialmente negativa a tale quesito. Soprattutto gli aspetti legati all’expertise
tecnologica sono particolarmente difficili da correggere e comportano la necessità di
operare con campioni di grandissime dimensioni per procedere ad una ponderazione
“diretta” di un numero ampio di variabili. Nella pratica ciò spesso non è possibile, se
non a costo di vanificare completamente l’efficienza economica delle rilevazioni online.
Per evitare che le indagini online inducano ad accogliere in modo inconsapevole e
acritico errori molto rilevanti nella stima dei comportamenti e degli orientamenti di
consumo l’indicazione è, dunque, quella di un controllo dettagliato dei campioni online
in base alle evidenze di indagini campionarie realmente rappresentative dell’utenza
Internet (condotte preferibilmente con metodologie di tipo personale domiciliare).
12
Nuove applicazioni del metodo previsionale Delphi attraverso le tecniche di intervista
via Web con arruolamento di testimoni privilegiati (Alessandro Amadori – Coesis
Research) – Il metodo Delphi fu sviluppato dalla Rand Corporation durante un arco
temporale lungo più di un decennio (1950-1960) per prevedere l’impatto che gli
sviluppi tecnologici avrebbero potuto avere nel settore del cosiddetto “warfare” durante
la Guerra Fredda. In particolare, il metodo Delphi venne adoperato dagli esperti della
Rand per valutare la possibilità, la consistenza e l’intensità di un eventuale attacco
nemico.
Questo metodo di ricerca si fonda sulla valorizzazione dell’opinione personale,
dell’esperienza e dell’intuizione di un esperto o testimone privilegiato per formulare
soluzioni o ipotesi interpretative a partire da una situazione problematica di cui si ha
una conoscenza limitata. In pratica nel Delphi ci si avvale della collaborazione di un
gruppo selezionato di esperti che rispondono a una serie ripetuta di domande/interviste
somministrate mediante questionario (molto spesso autocompilato). Le domande sono
solitamente formulate come ipotesi di lavoro e i membri del panel esprimono
liberamente il proprio punto di vista su ciascuna di esse. Ciascun round d’intervista è
preceduto dal feedback (condiviso dagli esperti) sul precedente round di risposte fornite
dal gruppo nel suo complesso. La ripetizione di questa procedura genera un fenomeno
di “convergenza”, nel senso che il gruppo tende ad orientarsi verso una visione comune,
considerata più attendibile rispetto alle singole visioni individuali di partenza. Dopo
diversi round (di solito, da 3 a 5) il processo è completato, e la media dei risultati
determina il responso finale del panel.
Dalla letteratura internazionale è noto che processi di ricerca tipo Delphi basati su
piattaforme Web possono essere proficuamente impiegati per rispondere a quesiti
conoscitivi impegnativi quali: trovare la giusta soluzione a problemi di marketing e
stabilire la validità di costrutto di uno strumento di ricerca (cioè verificare che uno
strumento misuri effettivamente un determinato costrutto teorico). Infatti, grazie alla
possibilità di instaurare un ambiente di discussione (quello online) più “qualititativo”
(ossia ricco di stimolazioni) nonché decisamente confidenziale (grazie all’anonimità dei
partecipanti garantita da Internet e alla possibilità per l’intervistato di gestire la
situazione nel modo per lui più funzionale, anche dal punto di vista temporale) rispetto a
quello delle interviste tradizionali “carta e penna”, questo metodo sembra stimolare
maggiormente la creatività e l’apporto conoscitivo dei contributi proposti dai singoli
esperti20. In anni recenti, infatti, sono stati effettuati interessanti studi di marketing con
Colton C., Hatcher T., (2004). The Web-based Delphi Research Technique as a
Method for Content Validation in HRD and Adult Education Research, paper presented
at the Academy of Human Resource Development International Conference (AHRD),
Austin, TX, February 29-March 4, pp. 885-97.
20
13
la metodologia Delphi Web-based. Un esempio emblematico è riportato in letteratura21,
e concerne appunto l’uso della tecnica Delphi Web-based per la conduzione di indagini
previsionali sul mercato turistico.
Sulla base dei presupposti prima indicati, abbiamo costituito un panel Web-based di
esperti di numerosità pari a n = 100 casi (in modo da ottenere in media l’adesione di
almeno 50 persone a ciascuna singola iniziativa di ricerca). Con la tecnica dell’intervista
Delphi via Web (convergenza a 3 giri di intervista) da gennaio 2009 ad oggi abbiamo
utilizzato il panel in questione per effettuare previsioni su due importanti appuntamenti
elettorali. Il confronto con i dati demoscopici ottenuti con normali sondaggi quantitativi
CATI, e soprattutto con gli oggettivi risultati elettorali, indica che questo approccio
(interviste Delphi Web-based, su panel di esperti, con convergenza a 3 giri) è piuttosto
promettente come metodologia di forecasting qualitativo.
Il caso di maggiore interesse è quello delle elezioni regionali in Sardegna svoltesi a
febbraio 2009 (le giornate di voto sono state il 15 e il 16 del mese). A un mese circa dal
voto, cioè a metà gennaio 2009, il panel è stato consultato con la richiesta di formulare
una previsione: “Secondo voi, chi vincerà le elezioni regionali in Sardegna? Con quale
percentuale dei voti? Per quale ragione la vittoria dovrebbe andare al candidato da lei
indicato?”. La scansione temporale della ricerca è stata la seguente:
- prima consultazione (primo giro Delphi): avviata il 19 gennaio, chiusa il 24
gennaio;
- seconda consultazione (secondo giro Delphi): avviata il 26 gennaio, chiusa il 30
gennaio;
- terza consultazione (terzo giro Delphi): avviata il 2 febbraio, chiusa il 6
febbraio.
I risultati sono stati quelli riportati in tabella 1.
Tabella 1: principali risultati Delphi group Web-based – elezioni regionali Sardegna 2009
Valori %
Giro I (19-24 gen.)
Giro II (26-30 gen.)
Giro III (02-06 feb.)
Esito reale
Soru
50
48
47
43
Cappellacci
47
48
49
52
Altri candidati
3
4
4
5
La tendenza all’indebolimento di Soru e al rafforzamento di Cappellacci, sino al
possibile “sorpasso”, è stata correttamente “intuita” dal panel (formato, come detto, da
21
Garrod B., Fyall A. (2005). Revisiting Delphi: The Delphi Technique as a method of tourism research. CABI
Publishing, Wallingford (UK).
14
100 osservatori, scelti in modo tale da essere equidistribuiti quanto ad opinioni politiche
personali, sui due maggiori schieramenti). Il confronto fra le varie opinioni ha portato
ad una convergenza verso un’ipotesi di elezione dai possibili risultati a sorpresa,
esattamente come è poi avvenuto nella realtà.
Questo “esperimento” indica che, sia pure con tutta la prudenza valutativa che è sempre
necessaria quando si parla di una metodologia di forecasting qualitativo (quale è la
tecnica Delphi), questo approccio di ricerca può offrire risultati molto interessanti. E’
condicio sine qua non, però, per il successo del Delphi Web-based, che il panel di
esperti coinvolto nell’indagine rappresenti in modo bilanciato i possibili punti di vista
esistenti sul tema dell’indagine.
Le indagini “live interactive”, quale evoluzione delle ricerche online: il metodo 6dTv
(Andrea Franchini – Tns Italia) - Le riflessioni metodologiche sulla ricerca online si
concentrano generalmente sul tema della validità e dell’attendibilità del metodo. È
corretto continuare ad essere cauti (soprattutto dal momento che siamo ancora in una
fase evolutiva per quanto concerne sia la penetrazione di Internet nella popolazione, sia
la diffusione degli operatori che offrono panel e servizi online); il processo di
rilevazione dei dati, infatti, per sua natura, non è immune da possibili distorsioni legate
al ruolo dell’intervistatore (che inevitabilmente partecipa all’indagine in qualità di
reperitore, somministratore, controllore, raccoglitore, ecc.), al setting in cui si svolge
l’indagine e al questionario stesso. Infine, è evidente che qualsiasi mezzo/canale usato a
supporto della rilevazione (telefono, device mobile, meter, ecc.) genera una specifica
autoselezione del campione.
È, tuttavia, utile ed anche stimolante spingersi oltre la discussione dell’affidabilità del
metodo e ragionare sulle innovazioni metodologiche e tecniche che Internet offre. In
particolare si vuole porre l’attenzione sull’individuo che partecipa all’indagine e sul
valore delle sue risposte per il committente.
Il valore delle ricerche online, infatti, può essere meglio compreso attraverso l’analisi
del contributo che i diversi processi, attivati per condurre un’indagine online, forniscono
alla generazione di insight per l’Azienda Committente.
Tra i più diffusi modelli di analisi della customer satisfaction, il metodo Trim22
consente di comprendere in profondità la qualità di un prodotto-servizio attraverso la
verifica degli elementi o dei processi che lo compongono. In questo caso, applicando il
modello interpretativo del Trim al processo di una ricerca online e assumendo il punto
di vista dell’utilizzatore finale, si può verificare:
22 TRIMTM è un modello d’analisi di TNS che consente di valutare, gestire e monitorare la relazione con
gli stakeholder dell’azienda. In questo contesto è stato applicato solo come modello interpretativo per
tracciare una fotografia dello stato dell’arte della ricerca online.
15
l’ importanza percepita: quanto un processo viene giudicato importante per lo
svolgimento della ricerca;
2. l’efficacia reale: quanto, realmente, lo svolgimento di tale processo ha impattato
sul successo dell’indagine, cioè quale è stato il suo contribuito a rispondere alle
esigenze conoscitive e decisionali dell’Azienda;
3. la performance: quanto ci si ritiene soddisfatti di come quel particolare processo
è stato erogato.
1.
Figura 3 – La mappa dei processi della ricerca online per comprendere i fattori critici di successo di
un’indagine
IMPORTANZA
(I° dimensione TRI*M)
Alta
DOVUTI
MOTIVATORI
Sono i pre-requisiti,
le condizioni alla
base del successo
dell’indagine
Sono i fattori
motivanti che
determinano il
successo
dell’indagine
POTENZIALI
OPPORTUNITA’
Sono fattori oggi
non determinanti,
ma che possono
evolvere in fattori
critici di successo
Sono i fattori in
grado di dare valore
aggiunto all’indagine,
massimizzandone
la capacità di
risposta al cliente
Bassa
Bassa
EFFICACIA
(II° dimensione TRI*M)
Alta
In concreto, tale modello di analisi può essere applicato alle principali componenti di
un’indagine online, ad esempio:
- al processo di campionamento, o nello specifico, a tutto ciò che riguarda il
ricorso e la gestione di un panel online;
- al processo di intervista, dunque agli strumenti usati per raccogliere le risposte
dell’intervistato;
- al processo di coinvolgimento dell’intervistato, adottando tecnologie e approcci
quantitativi, qualitativi, integrati per stimolare la sua partecipazione;
- al processo di ascolto (passivo) degli individui, cioè senza richiedere alcuna
collaborazione (oggi definito come social media research);
16
- ecc.
In particolare la terza dimensione di analisi, cioè la performance dei processi, fornisce
indicazioni su come andrebbero allocate le risorse di ricerca. Posto, infatti, che tutti i
processi – sia relativi ai panel online, sia alle tecniche CAWI, sia alla online social
media research – sono utili per comporre il disegno di ricerca, è evidente però che, a
funzioni diverse, devono corrispondere livelli diversi di performance:
- performance medie (in altri termini fornire le giuste risorse) per “processi
dovuti”, ovvero pre-requisiti per il successo dell’indagine;
- performance sopra media (cioè dedicare un’attenzione elevata) per “processi
opportunità”, ovvero potenzialmente molto correlati con il buon esito
dell’indagine ma non ancora evidenti nel loro ruolo;
- performance molto sopra media (cioè dedicare il massimo sforzo) a “processi
motivatori”, da cui dipende il successo dell’indagine;
- performance sufficienti ai “processi potenziali”, ovvero a quelli che devono
ancora accreditarsi come fattori critici di successo.
Tale schema offre dunque una fotografia del ruolo dei diversi processi che operano in
una ricerca online (fig. 2): un quadro che inevitabilmente tenderà ad evolvere con
l’esperienza d’uso, con lo sviluppo di nuove tecnologie, con la penetrazione di Internet,
con l’evoluzione degli obiettivi di ricerca, ecc.
Figura 4 – La mappa dei processi della ricerca online: una fotografia ad oggi
Alta
DOVUTI
Rappresentatività
MOTIVATORI
Dimensioni
IMPORTANZA
(I° dimensione TRI*M)
PANEL
Incentivazione
Click Spot
Drag and drop
Click and Fly Images
Survey sound
Highli
CAWI&
ghter
Dynamic Grids
INTERACTIVE
Survey design
Regole
Targeting
Pre-profilazione
Web reputation
Consumer
insights
Hotsp
Slider Bars
Visually Appealing Buttonsots
Virtual shopping
Bulletin boards
Diary
Brand
Monitoring
LIVE
RESEARCH
SMR
(Social Media
research)
Sentiments
Consumer
feedback
POTENZIALI
Bassa
Bassa
3D
Image Enlargement
Chat
Etnography
OPPORTUNITA’
EFFICACIA
(II° dimensione TRI*M)
Alta
17
In sintesi, quindi:
- per gli Istituti di ricerca che propongono ai propri Clienti indagini online - dopo
averne valutato attentamente i vantaggi rispetto a CATI, CAPI, ecc. – ricorrere
ad un panel ampio e di qualità è oggi un “processo dovuto”, senza il quale un
progetto di ricerca non andrebbe neppure proposto;
- nell’area dei “processi potenziali”, l’ascolto passivo (cioè senza il
coinvolgimento del soggetto) delle conversazioni spontanee che hanno luogo sul
Web è senza dubbio una strategia affascinante per raccogliere molte
informazioni e per monitorarle nel tempo. Ad oggi, tuttavia, l’online social
media research non sembra poter vivere da sola e richiede l’attivazione di altri
strumenti di ricerca per selezionare e dare significato all’eterogeneità di fonti e
di conversazioni online;
- la massima perfomance dei processi di ricerca si deve avere, invece, là dove si ci
sono nuove “opportunità” per massimizzare il coinvolgimento del soggetto. In
altri termini, mixando opportunamente strumenti Web, approcci qualitativi e
strumenti quantitativi, si deve investire nella partecipazione attiva del soggetto
per ottenere dati e analisi più ricche sull’esperienza dell’individuo/consumatore.
Il modello importanza-efficacia-performance, qui proposto, vuole dunque essere una
riflessione sull’evoluzione metodologica di Internet. La ricerca online si configura,
infatti, come un laboratorio in cui far nascere nuove modalità di indagine, non
alternative a quelle “classiche”, bensì capaci di favorire un maggior engagement del
rispondente. Infatti, l’innovazione basata sulla tecnologia Web è valida soprattutto se
riesce a generare un alto coinvolgimento dei soggetti al processo di intervista. Una
proposta metodologica che va in questa direzione è, ad esempio, il metodo 6dtv23, che si
caratterizza per:
- il ricorso a una piattaforma Web sviluppata ad hoc per fini di ricerca;
- un setting di tipo televisivo (Web + Tv) per facilitare l’interazione, mediante
presentatore, video, slide, lavagne e altri stimoli multimediali;
- sessione di intervista di tipo qualitativo;
- integrazione con verifiche quantitative;
- moderazione in tempo reale della sessione di intervista con rilancio di stimoli e
nuove verifiche.
Questa combinazione tra nuove tecnologie e approcci multipli di ricerca permette di
creare un ambiente “live” per condurre indagini capaci di dare risultati in “tempo reale”
(cioè man mano che evolve il processo di raccolta delle informazioni), massimamente
23
6dTv è la piattaforma Web Tv di Tns per condurre ricerche quali-quantitative online utilizzando video,
domande strutturate, chat boxes, ecc.
18
flessibili nel loro disegno e capaci di migliorare l’engagement del partecipante alla
ricerca stessa.
Figura 5 – le caratteristiche del metodo 6dtv © TNS 2009
In tempo
reale
I risultati sono presentati, analizzati e discussi nel corso della sessione di ricerca
La generazione di insight cresce man mano che la sessione di intervista procede
Flessibilità
L’interazione può essere one-to-many o many-to-many, in base ai diversi obiettivi
dell’indagine
In base alle evidenze emergenti, possono essere introdotte nuove domande,
stimoli (condivisi prima nell’ “area privata” di ricerca)
Respondent
engagement
Il contesto televisivo crea un ambiente facile e stimolante di interazione
L’approccio qualitativo, con le diverse possibilità di partecipazione ed espressione,
massimizza il coinvolgimento dei soggetti
In conclusione, l’evoluzione delle ricerche online è spinta dall’innovazione tecnologica,
di cui occorre cogliere il reale contributo in termini di economicità o di valore
conoscitivo. Occorre, infatti, analizzare con attenzione il valore delle possibili
innovazioni tecnologiche per evitare quelle inutilmente complesse o semplicemente
illusorie. E’ importante che gli sviluppi offerti dalla tecnologia (e da Internet in
particolare) siano incorporati nei processi di ricerca al fine di massimizzare il
coinvolgimento dei partecipanti, con l’obiettivo finale di fornire al committente
strumenti conoscitivi in grado di supportare al meglio il decision making, minimizzando
le probabilità di errore.
La parola al consumatore: tecniche di analisi testuale per la raccolta di significati di
marca (Federico Capeci – Duepuntozero Research – e Franca Ferrari – Doxa) - Da
tempo gli Istituti di ricerca vanno dicendo ai propri Clienti che è necessario un “salto di
paradigma”, intendendo con questa affermazione la necessità di uscire dagli schemi
19
consueti e di “guardare al nuovo con occhi nuovi”: la segmentazione dei mercati, il
consumer understanding, le modalità di comunicazione, le implementazioni di
marketing sino alle strutture organizzative stesse dell’Azienda richiedono una profonda
rivisitazione e un’inedita apertura al nuovo!
Ma anche gli Istituti di ricerca si devono attrezzare per essere in grado di cogliere
appieno le nuove complessità nel loro divenire: l’ascolto dell’individuo non può più
essere lineare come qualche anno fa poiché non sono più lineari i comportamenti e gli
atteggiamenti dei consumatori stessi nei confronti delle Aziende. Per questo i processi e
le tecniche di ricerca stanno cambiando: le modalità consolidate si integrano con nuove
modalità di relazione con il target (nuovi canali, ma non solo) e nascono nuove
opportunità dietro la spinta dell’evoluzione tecnologica.
Un po’ come avvenne nel passaggio dalla configurazione di Internet agli esordi al più
recente Web 2.0 (ovvero da “nuovo” canale di trasmissione dati a “nuovo” territorio di
scambio relazionale) così sta accadendo al mondo della ricerca di mercato: da un lato
nuove possibilità di contatto con il target (le ricerche CAWI) si affiancano alle più
tradizionali (personali e telefoniche) per ampliare lo spettro delle possibilità; dall’altro il
Web apre a nuove tecniche/modalità di fare ricerca, prima non possibili.
Questa è, e può essere, la grande opportunità della ricerca di mercato condotta tramite i
nuovi mezzi digitali. E’ la ‘Ricerca 2.0’ intesa come nuova modalità di ascolto e dialogo
con il target: una ricerca che parte dall’applicazione delle tecniche consolidate ai nuovi
ambiti digitali, ma tenta un passo ulteriore nell’individuazione di nuove possibilità di
comprensione e misurazione dell’individuo contemporaneo.
La prospettiva di questo contributo è quindi quella di condividere esperienze di ricerca
nate da un approccio “2.0” alla ricerca di mercato, basato su alcuni cardini
fondamentali:
- innovazione nelle modalità di raccolta dati, facendo uso delle più nuove
tecnologie web based;
- ibridazione delle tecniche qualitative e quantitative (dal processo di raccolta a
quello di analisi dei dati);
- libertà di espressione del rispondente (lasciandolo spontaneamente comunicare,
descrivere e raccontare le proprie opinioni, idee e storie sul brand).
Tale approccio si è mostrato particolarmente utile nella raccolta e generazione di insight
di marca, ovvero nella comprensione di quei fattori su cui un brand guadagna valore
differenziante, stima, loyalty: si parla dei bisogni del consumatore che il brand soddisfa,
dei valori a cui rimanda e a cui risponde, del legame emotivo che riesce a consolidare.
Secondo questo approccio, il processo di ricerca parte proprio dal Web e dalla nuova
“@tnografia”, ovvero dall’“ascolto” delle conversazioni che oggi avvengono
spontaneamente in Rete, la sintesi di un’enorme mole di dati testuali rilevanti per il
brand e la successiva analisi qualitativa - motivazionale, semantica o semiotica - dei
corpi linguistici. Questo nuovo approccio alla raccolta delle informazioni sul
20
consumatore, ove è lo stesso individuo a fornire stimoli all’Impresa in maniera diretta e
proattiva (con una consapevolezza e capacità critica enormemente cresciute nel tempo)
viene poi integrato con la raccolta di racconti, storie, descrizioni, esperienze individuali
focalizzate sul brand.
Figura 6 – Dalle informazioni open source alla generazione di insight per l’Azienda
Informazioni O pen S ource Web 2.0
(B log, F orum, S ocial Networks , V iedeo/P hoto S haring)
on
azi
m
r
o
Inf
i d
a
tu r
rut
es t
te
z
iriz
in d
a te
Ins ig ht di marc a
P roces s o di verifica e prioritizz az ione
Secondo questa prospettiva metodologica la generazione degli insight si compone di
momenti di ascolto destrutturato (bottom-up, divergente), e di un suo progressivo
focalizzarsi sugli obiettivi conoscitivi principali della ricerca (sempre in modo aperto,
cioè a partire dalla spontaneità del consumatore, dei suoi racconti, vissuti, esperienze
individuali). Un percorso di ricerca che, proprio partendo da domande aperte e processi
di generazione creativa stimolati attraverso tecniche proiettive, associazioni, analogie,
racconti, fornisce un quadro esaustivo degli insight del consumatore e del
posizionamento del brand.
T@LK® è lo strumento di ricerca su cui questo approccio si fonda: questionari composti
quasi esclusivamente da domande aperte chiedono al consumatore di esprimersi sul
brand o su un tema che costituisce il “territorio emotivo” al quale il brand intende
affacciarsi. Le domande T@LK® sono state sviluppate al fine di raccogliere
informazioni chiave per ciascuno degli elementi fondanti di un concetto di
posizionamento: l’insight, il target, i benefit, le reason why prendono forma a partire
dall’uso di stimoli proiettivi che consentono all’individuo di immergersi e parlarci del
mondo a cui il brand rimanda nel bagaglio dei suoi vissuti e delle sue rappresentazioni.
Saranno quindi le parole, da sole o nel loro affiancarsi e rincorrersi nei testi, che ci
descriveranno i segni e i significati che i consumatori associano al brand. Tale mole de-
21
strutturata (perché libera) di informazioni è successivamente analizzata e sintetizzata
tramite tecniche di analisi statistica testuale. A queste elaborazioni viene affiancata
l’analisi qualitativa motivazionale o semiotica in profondità di tutti i verbatim raccolti.
Si tratta, quindi, di un nuovo approccio di ricerca che trae il massimo beneficio proprio
dall’integrazione tra differenti tecniche e strategie di indagine:
- le tecniche motivazionali permettono di stimolare risposte sulla cui base
tracciare il profilo percepito del brand;
- le tecniche di statistica testuale sintetizzano ed organizzano la mole di dati
ottenuta in classi di senso omogeneo e in percorsi linguistici codificati;
- le analisi qualitativa e semiotica offrono una lettura in chiave di marketing dei
dati raccolti, garantendo immediate ricadute operative dei risultati di ricerca.
Figura 7 – Un esempio di output dall’analisi statistica dei corpus linguistici
C lus ter S emantico
n.1
C lus ter S emantico
n.2
L emmi (rank C hi2 )
paes aggio mare
16%
bianco fiore
oro s piaggia cielo nero tramonto luna s ole L emmi (rank C hi2 )
ins ieme s tella s fondo innamorato Mos trare fals o 32%
lunare pietra film perla
ros s etto s embrare trucco finto dopo brutta
L emmi (rank C hi2 )
C lus ter S emantico
n.5
s ituaz ione coppia cena romantico fidanz amento pers one orecchino anello lei sempre amore
C lus ter S emantico
n.4
28%
24%
L emmi (rank C hi2 )
donna gioiello ragaz z o bello indos s are pubblicità
orologio
Questa tecnica, in sintesi, permette al ricercatore di tracciare il profilo del brand o di
generare un nuovo concept di posizionamento e di identificare le modalità più consone
per orientare una comunicazione mirata sul target (poiché generata proprio a partire dai
suoi discorsi e dalle sue parole).
In sintesi, l’innovazione metodologica permessa dal Web - di cui la tecnica T@LK è un
esempio - ci sembra offrire nuove prospettive di analisi che garantiscono una visione
sempre più “tridimensionale” dell’oggetto d’indagine.
Le nuove tecniche di approccio al consumatore, quindi, non esauriscono la loro utilità
nel fornire un ulteriore canale di contatto, pur importante e cruciale nella complessità
22
mediatica odierna, bensì offrono nuove modalità di relazione. Riteniamo che tali nuove
modalità di relazione, che nascono dal connubio tra tecnologie che favoriscono la
partecipazione e l’aumentata disponibilità contributiva del consumatore, forniscono
nuova linfa alla ricerca di mercato, incrementandone la capacità di cogliere, leggere e
rappresentare il consumatore e i significati di marca.
Conclusioni (Maurizio Pessato – SWG) - Al di là della ricchezza e della varietà dei
contributi, gli spunti offerti da questo confronto sulle ricerche di mercato via Web
possono essere ricondotti a sei temi principali.
f Un primo punto riguarda l’importanza di analizzare con attenzione gli scopi della
ricerca. Cresce, infatti, l’importanza di scegliere accuratamente l’approccio
metodologico più adeguato a rispondere agli obiettivi conoscitivi del Committente.
Negli ultimi anni stiamo assistendo ad una minore richiesta di “modelli standard” di
ricerca a favore di indagini disegnate ad hoc per coprire specifici obiettivi
conoscitivi. Questo perché: in primo luogo, gli approcci classici di ricerca
presentano limiti crescenti e in secondo luogo, i contesti di applicazione della
ricerca risultano sempre più differenziati ed articolati; in terzo luogo, sta crescendo
la richiesta di ricerche dalla forte capacità esplicativa piuttosto che soltanto orientate
a dare stime quantitative.
I ricercatori si trovano chiamati a rispondere alle sempre più sfidanti attese delle
Aziende e le ricerche quantitative e qualitative online si rivelano un’importante
soluzione per riuscire in questo compito in un’ampia varietà di situazioni (sia in
complementarietà con approcci più classici di ricerca, sia applicate da sole).
d Un secondo aspetto è legato alla necessità di correggere le distorsioni dovute alle
evidenti differenze tra la popolazione generale e la popolazione dei navigatori di
Internet (problema accentuato nel caso dei panel poiché chi vi aderisce risulta aver
caratteristiche molto particolari!). Si noti però che queste distorsioni non ledono la
validità della ricerca online se sono conosciute e tenute sotto controllo. D’altra parte
il problema della non rappresentatività dei campioni oggi riguarda anche le indagini
telefoniche, dal momento che la popolazione raggiungibile via telefono non è
sovrapponibile alla popolazione reale (problema che si aggiunge a quello delle
“cadute” e del conseguente aumento dei fenomeni di autoselezione!). Fenomeni
simili, infine, riguardano anche le interviste face-to-face… per non parlare poi del
fatto che una parte consistente delle indagini attuali si basano su campioni di cui non
è conoscibile la composizione dell’universo.
Il problema centrale che qui si pone, alla fine, non è quello di verificare la
rappresentatività di un campione bensì quello di garantire - attraverso l’esperienza,
gli studi, le analisi, gli interventi mirati - la buona significatività dei risultati della
ricerca.
23
h Si deve, inoltre, ricordare che Internet consente di raggiungere livelli di relazione
con l’intervistato di assoluta novità e intensità. Non si coglierebbe totalmente la
portata del Web come strumento di ricerca se non ci si rendesse conto che Internet
non rappresenta solo un nuovo canale per la raccolta dei dati, ma spesso riconfigura
il modo di fare ricerca. Nella ricerca di mercato online i tempi, gli spazi e i modi con
cui ha luogo la relazione con l’intervistato sono del tutto inediti: il nuovo livello di
coinvolgimento e di interattività dell’intervistato che Internet permette aprono a
nuovi modi di fare ricerca che possono essere in grado di rispondere efficacemente a
molte delle attuali domande delle Aziende.
f Un quarto aspetto da considerare è quello della necessità di un’analisi completa e
accurata delle fonti informative. In altri termini, è necessario sviluppare
un’attitudine alla lettura del contesto informativo entro cui si costruiscono i dati di
una indagine online al fine di coglierne pienamente il senso. L’altra faccia di questa
medaglia è la necessità di saper gestire la ricchezza (o la sovrabbondanza) di
informazioni che la ricerca via Web offre.
h Una quinta questione è legata alla necessità di maturare una buona padronanza dello
strumento. Se si svolgono ricerche via Web occorre aver ben chiaro che la facilità
con cui si può realizzare un’indagine è del tutto apparente. Non è sufficiente, infatti,
replicare in Internet quello che si fa in altri approcci di ricerca: condurre una ricerca
via Internet necessita una grande padronanza di questo mezzo al fine di sfruttarne a
pieno le potenzialità.
h Il sesto e ultimo spunto concerne il tema delle regole. Procedure, standard per la
buona applicazione delle tecniche, gestione della privacy … sono tutti aspetti molto
rilevanti nel campo delle ricerche via Web. Per questo sia l’ESOMAR sia
l’ASSIRM si sono dotati di norme per garantire la qualità della ricerca di mercato
online e per tutelare i diritti sia degli intervistati sia dei Clienti: una ulteriore
conferma del fatto che fare ricerca via Web richiede molta professionalità,
esperienza e attenzione sia alla metodologia della ricerca sia alle specificità della
rete.
In conclusione, il confronto avviato porta a identificare alcune delle (pre)condizioni
necessarie per la buona realizzazione delle ricerche di mercato e di opinione online. E’
evidente come le indagini via Web non solo costituiscano un indubbia opportunità per la
ricerca italiana e internazionale, ma siano anche un impegnativo banco di prova per i
ricercatori chiamati a fronteggiare la complessità crescente del campo ricerca, a gestire
una gamma sempre più ampia di strumenti di indagine, a costruire risultati rilevanti e
validi.
L’affinamento delle risposte a queste (pre)condizioni consentirà un buon sviluppo del
nuovo campo di ricerca.
24
25