capitolo 8 – box 1- pagina 211

Transcript

capitolo 8 – box 1- pagina 211
CAPITOLO 5 – BOX 1- PAGINA 159
IL FONOSIMBOLISMO
Il fatto che un suono possa essere dotato di significato autonomo grazie a proprietà
“evocative” ad esso attribuite ha affascinato linguisti e studiosi della comunicazione.
In questa prospettiva la sostanza sonora è concepita come qualcosa di più della
semplice "materia acustica" impiegata nella costruzione di unità sintagmatiche
superiori dotate di senso, quali i termini delle diverse lingue [de Saussure 1916].
In una interessante ricerca sperimentale sui rapporti tra percezione e linguaggio,
Alberini [1960] ha messo in luce che anche le forme di congiunzione, come le
particelle E e CON, possono rivestire un preciso valore iconico. Esse evocano infatti
una specifica rappresentazione della situazione percettiva che mediante esse viene
descritta; viceversa, certe strutture percettive favoriscono l’uso dell’una piuttosto che
dell’altra congiunzione.
Secondo Alberini, E viene impiegata per descrivere un’esperienza percettiva
caratterizzata dall’esistenza nel campo fenomenico di almeno due figure diverse tra
loro, che vengono unificate in un unico atto di esplorazione; CON, invece, viene
utilizzata quando si costituisce una struttura percettiva unitaria, caratterizzata da una
forma molto pregnante che domina il campo (e che viene descritta per prima), alla
quale si aggiungono una o più altre componenti, meno essenziali al costituirsi del
percetto.
L’espressione “Un uomo E un cane” tenderà ad evocare la situazione percettiva
rappresentata in figura 1a, mentre l’espressione “Un uomo con un cane” quella
rappresentata in figura 1b.
Fig. 1. Condizioni percettive evocate da E e da CON
Fonte: Dogana 1990
Tuttavia, l’interesse degli “addetti ai lavori” si è concentrato perlopiù attorno a
questioni linguistiche di contenuto (che cosa, ad esempio, nel rimando associativo
istituito da un'onomatopea, un suono può rappresentare) piuttosto che su di un piano
1
“esplicativo”, sottovalutando parallelamente la funzione svolta dal simbolismo fonico
nello sviluppo di capacità rappresentazionali e le sue potenzialità in quanto “sistema
comunicativo” [Suler 1980, Werner e Kaplan 1984 Dogana 1994, Anolli e Ciceri
1995, 1997].
Funzioni comunicative del fonosimbolismo sinestesico e fisiognomico. Sul piano
comunicativo, due aspetti risultano centrali nel dibattito suscitato da linguisti e
psicologi della comunicazione a proposito del fonosimbolismo: da un lato la
questione dell’unità ultima della significazione, intesa come il contesto a partire dal
quale la lingua acquista significato autonomo, primato che, a seconda delle
prospettive, viene attribuito ora al fonema ora al morfema. Nella prima ipotesi è
possibile attribuire proprietà simboliche alla sostanza fonica, considerando diversi
piani di associazione tra suono e significato. Innanzitutto mediante un legame di tipo
ecoico il suono “fa eco” direttamente al referente che rappresenta: le onomatopee
linguistiche costituiscono un esempio esplicito di questa proprietà fonosimbolica. Al
contrario, uno stimolo sonoro è in grado di evocare correlati percettivi diversi da
quello acustico (ad es., visivo, tattile, ecc.), come accade nel fenomeno
fonosimbolico sinestesico propriamente detto. A questo tipo di fonosimbolismo è
associabile una seconda tipologia di fonosimbolismo, che sfrutta le proprietà emotive
fisiognomiche del suono (fonosimbolismo fisiognomico) [Dogana 1988], per cui ad
esso possono essere attribuite proprietà come l’essere triste o allegro, aggressivo o
dolce, ecc.
D’altro lato, l’analisi dell’esperienza fonosimbolica ha l’obiettivo di fornire elementi
esplicativi rispetto al processo di semiotizzazione che si realizza ogni volta che un
segno diviene rappresentativo di un significato. Il rapporto sincretico che si istituisce
tra materia fonica e significato sinestesico/fisiognomico rappresenta infatti un
percorso di simbolizzazione alternativo a quello convenzionalmente definito sul
piano morfemico o sintagmatico, basato su un insieme di regole condivise e arbitrarie
che consentono di formulare un’equazione segno-significato [Malmberg 1974,
Cigada 1989]. Il fonosimbolismo si realizza infatti mediante un processo evocativo in
cui la distanza tra simbolizzante e simbolizzato viene ridotta al minimo ed è fondata
sulla somiglianza tra le due componenti della significazione, per cui il suono rimanda
immediatamente e quasi “naturalmente” al significato che rappresenta.
Le componenti comunicative vocali non-verbali nella fisiognomizzazione delle
emozioni. La simbolicità della sostanza fonica può assumere una valenza differente
da quella percettiva e cognitiva per rappresentare proprietà di tipo “emotivo” o
“fisiognomico” [Dogana 1988, 1994]. Specificamente, in questo caso l’istituzione di
un rapporto simbolico può seguire due percorsi distinti: nel primo caso per via
indiretta o metaforica viene definito un legame iconico tra proprietà acustiche e
proprietà emotive, con un primo passaggio dal percetto alla simbolizzazione
sinestesica e dalla simbolizzazione sinestesica all’attribuzione di proprietà
fisiognomiche [Lindauer 1990]. Ad esempio, il suono /i/ è associato alla gioia in
2
quanto sinestesicamente la /i/ richiama vissuti di luminosità, chiarezza, ecc. e tali
proprietà percettive richiamano direttamente la rappresentazione di uno stato emotivo
positivo.
Un secondo percorso fa derivare le proprietà fisiognomiche del fono da un processo
di trasposizione mediante il ricorso a correlati mimico-gestuali o a risposte motorie e
neurovegetative. In questo caso il significato emotivo del suono viene considerato
come traslazione simbolica di determinate configurazioni visive o motorie che
accompagnano generalmente uno specifico contenuto emotivo. Si pensi, per esempio,
all’articolazione dei suoni “duri”, dominante nelle espressioni di odio o aggressività,
ed il concomitante irrigidimento dell’intero organismo tipico di chi si predispone
all’attacco; o, ancora, all’elaborazione del correlato motorio del tremore mediante il
suono /r/ nelle espressioni di paura; alle voci di disprezzo e svalutazione, che
contengono spesso suoni legati alla gestualità orale tipica delle espressioni facciali
dello schifo e del disgusto. In questo caso, la concordanza tra suono e proprietà extraacustiche ha antecedenti o in una congruenza tra i due piani associativi (secondo la
teoria dell’isomorfismo gestaltico), o nella concomitanza tra valenze sinestesiche e la
loro ripercussione sugli organi fonatori (secondo la teoria della generalizzazione
mediata).
Analizzando alcuni correlati articolatori tipici dell'espressione di specifiche emozioni
è possibile individuare una relazione sistematica con le valenze fisiognomiche di
alcuni fonemi [Fónagy 1972, Laver 1980, Van Bezooyen 1984, Scherer 1986]. In
particolare:
a) In relazione alla pressione espiratoria e alla tensione della muscolatura, quando
questi ultimi raggiungono i valori massimi, le vocali vengono accorciate e le
consonanti allungate, il profilo di intonazione è caratterizzato da un andamento rotto:
ciò si presta all’espressione della durezza e dell’aggressività rivolta all’esterno. Al
contrario, quando possiedono valori più bassi, appaiono congruenti con emozioni
trofotrope di benessere, piacevolezza, ecc. L’articolazione dura delle occlusive e la
tensione muscolare che ne accompagna il gesto fonico, ad esempio, fa sì che essi (e,
in particolare i nessi /st/, /sk/, /sp/) ben si prestino ad esprimere il disprezzo e l’odio e
che costituiscano il nucleo di molti epiteti d’insulto (come, ad esempio, in italiano:
spudorato, schifoso, sporco, stolto, ecc.). Un’altra componente dei sentimenti ostili
legata all’idea di durezza e tensione muscolare è il fremito e il tremore, che
accompagnano gli atteggiamenti aggressivi, veicolati soprattutto dalla vibrante /r/,
ampiamente presente nel lessico dell’ira e della collera (il termine stesso ira, collera,
rabbia, ecc.);
b) Rispetto all’emissione di fiato, nel caso in cui sia elevata, essa segnala una forte
eccitazione psichica nel soggetto e il suo essere incapace di gestire adeguatamente
l’emozione. Un gesto mimico nel quale trovano espressione i vissuti negativi di
rifiuto, insofferenza, disprezzo è l’espulsione del fiato, che può esprimere
simbolicamente sia un atto aggressivo, sia il desiderio di proiettare all’esterno un
contenuto interno doloroso e ingestibile. I suoni fricativi /f/ e /v/ si prestano, pertanto,
a veicolare i sentimenti di disprezzo e disgusto, come nelle onomatopee uffa, veh;
3
c) L’apertura faucale è un’ulteriore caratteristica distintiva della configurazione
articolatoria presente nell'espressione delle emozioni. Infatti, quando è ampia, sembra
corrispondere alla disponibilità dell’organismo a esperienze piacevoli; quando è
stretta indica chiusura verso il mondo esterno. L’origine di tale componente può
essere ricondotta alle reazioni gustative all’amaro e al dolce, con due Gestalt gestualiarticolatorie contrapposte. Un esempio esplicativo è rappresentato dai due fonemi
contrapposti sul piano articolatorio come /a/, esemplificativa di valenze
fisiognomiche positive, con massima apertura faucale ed /u/, con apertura faucale
ridotta, rappresentativa di sentimenti negativi;
d) Inoltre, un ruolo primario è riconosciuto alla nasalità. Tale segnale è tipico delle
espressioni che si riferiscono a stimoli sensoriali (ad esempio il piacere fisico)
rispetto a quelli di livello più elevato, o anche i sensi di contatto (gusto e tatto)
rispetto a quelli caratterizzati da distanza (vista e udito). Una componente fonica
connessa ad atteggiamenti di aggressività latente è il suono di timbro nasalegutturale, emesso facendo fuoriuscire il soffio dal naso a bocca chiusa e mostrando i
denti come nella postura del “ringhiare”. Tale comportamento espressivo trova
riscontro fonetico nei suoni /ñ/ o /gn/, come nei termini: arcigno, ghigno, cagnesco,
indignato, ingrugnito, ecc. D’altra parte numerosi studi sul comportamento verbale
del bambino hanno identificato nella nasalizzazione un gesto fonico associato
all’espressione di contenuti emotivi dolorosi, di insoddisfazione e a comportamenti di
pianto e gemito;
e) Infine, alcune considerazioni interessanti riguardano il registro. Il registro di
petto sarebbe legato all’autoaffermazione, all’imposizione, al dominio sull’altro; il
registro di testa, al contrario, ad atteggiamenti positivi o a una disposizione a farsi
accettare o a sottomettersi.
La tabella 1 riassume sinteticamente alcuni degli aspetti fondamentali nella
fisiognomizzazione delle emozioni.
In linea con questa prospettiva, alcune recenti ricerche hanno consentito di
confermare il ruolo prioritario dei tratti soprasegmentali e delle qualità vocali come
elementi costitutivi di un codice vocale non-verbale dell’esperienza emotiva, con
particolare attenzione ad alcuni parametri quali intensità, tono (frequenza
fondamentale) e variazioni temporali (pause, ritmo, ecc.). Rispetto a queste
componenti, sono stati rilevati patterns di articolazione ed espressione delle emozioni
autonome e differenziate, contraddistinte da una costanza sia in termini di codifica
che di decodifica [Anolli e Ciceri 1997].
4
Tab. 1. Alcuni esempi di correlazioni articolatorio-fonetiche nella fisiognomizzazione
delle emozioni
Patterns articolatori
Caratterizzatori fonetici
Pressione espiratoria e
accorciamento vocalico
tensione muscolare elevate
allungamento consonantico
Patterns emotivi
durezza, aggressività
suoni occlusivi (/st/, /sk/, /sp/)
suoni vibranti (/r/)
ira, collera, paura
Pressione espiratoria e
suoni vocalici (/i/, /a/, /e/)
benessere, piacevolezza
tensione muscolare basse
liquide (/l/)
Emissione ed espulsione di
suoni fricativi (/f/, /v/)
fiato
aggressività, disgusto,
disprezzo
Apertura faucale ampia
suoni vocalici "aperti" (/a/)
gioia, apertura
Apertura faucale stretta
suoni vocalici "chiusi" (/o/, /u/)
cupezza, chiusura
Nasalità
suoni nasali-gutturali (/ng/)
pianto, gemito
Registro di petto
"timbro maschile"
autoaffermazione,
imposizione
Registro di testa
"timbro femminile"
disposizione a farsi accettare,
sottomissione
Anolli, L. e Ciceri, R. [1995], Elementi di psicologia della comunicazione, Milano, L.E.D.
Anolli, L. e Ciceri, R. [1997], La voce delle emozioni. Verso una semiosi della
comunicazione vocale non verbale delle emozioni, Milano, Franco Angeli.
Bezooyen, R., van [1984], Characteristics and recognizability of vocal expressions of emotions,
Dordrecht, Foris Pubblications.
Cigada, S. [1989], Per un’analisi contrastiva delle strutture retoriche, in «S.I.L.T.A.», 1, pp. 99113.
Dogana, F. [1988], Suono e senso, Milano, Franco Angeli.
Dogana, F. [1990], Le parole dell’incanto. Esplorazioni dell’iconismo linguistico, Milano, Franco
5
Angeli.
Dogana, F. [1994], Dalle sinestesie alle qualità espressive, in «Archivio di Psicologia Neurologia e
Psichiatria», 1-2, pp. 464-480.
Fónagy, I. [1972], Motivation and remotivation. Comment se dépasser, in «Poétique», 3, pp. 414431.
Laver, J. [1980], The phonetic description of voice quality, Cambridge, Cambridge University
Press.
Lindauer, M.S. [1990], The effect of the physiognomic stimuli taketa and maluma on the
meaning of neutral stimuli, in «Bulletin of the Psychonomic Society», 28[2], pp. 151154.
Malmberg, B. [1974], Manuel de phonétique générale, Paris, Picard, trad. it. Manuale di fonetica
generale, Bologna, Il Mulino, 1977.
Saussure, F., de [1916], Cours de linguistique générale, Paris, Payot, trad. it. Corso di linguistica
generale, Bari, Laterza, 1970.
Scherer, K.R. [1986], Vocal affect expression: A review and a model for future research, in
«Psychological Bulletin», 99, pp. 149-165.
Suler, J.R. [1980], Primary process thinking and creativity, in «Psychological Bulletin», 88, pp.
144-165.
Werner, H. e Kaplan, B. [1984], Symbol formation, Hillsdale, Erlbaum, trad. it. La formazione del
simbolo, Milano, Raffaello Cortina Editore, 1989.
6
CAPITOLO 5 – BOX 2 – PAGINA 163
INDIZI VOCALI NON VERBALI
Due messaggi che includono il medesimo contenuto verbale-grammaticale possono
assumere dei significati molto differenti per l’ascoltatore, in funzione delle loro
caratteristiche vocali non verbali.
Se questo può apparire come una conclusione comprensibile anche dal senso comune,
ben più complesso è invece risultato comprendere in modo analitico quali elementi
vocali non verbali cambino e in che maniera.
Proprio per studiare le componenti vocali non verbali della comunicazione secondo
un approccio matematico è stato necessario procedere alla definizione di quali indizi
acustici (in inglese, acoustic cues) estrarre dalla traccia sonora.
Dato un messaggio è possibile, infatti, attraverso un registratore digitale, ricavare una
traccia sonora che può essere processata da specifici strumenti, software o hardware.
Tali strumenti sono in grado di rilevare i valori che determinati elementi non verbali
del parlato assumono in corrispondenza di un particolare istante.
Fig. 2. Rappresentazione classica della traccia sonora: in ascissa è rappresentato il tempo, in
ordinata l’ampiezza dell’onda
In maniera più dettagliata, sono stati identificati quattro domini di acoustic cues
potenzialmente significativi per lo studio delle componenti vocali non verbali del
parlato: pitch, intensità, aspetti temporali e qualità della voce.
La presente descrizione segue quella proposta recentemente da Juslin & Laukka
(2003) in un contributo circa l’espressione delle emozioni nel parlato e nella musica.
Al primo dominio (PITCH) appartengono tre indici: Frequenza fondamentale (F0),
che rappresenta il ritmo con cui le corde vocali si aprono e si chiudono nella glottide.
Da un punto di vista acustico, la F0 è la componente dell’onda sonora caratterizzata
del più basso ciclo periodico ed è estraibile attraverso algoritmi informatici (Scherer,
1982); il profilo di F0 (o forma / contorno) che è la sequenza dei valori istantanei di
F0 all’interno di una sequenza; Jitter, che sono le piccole perturbazioni di F0
7
connesse con le variazioni rapide e casuali del tempo di apertura e chiusura delle
corde vocali tra un ciclo e l’altro.
Fig. 3. Rappresentazione delle corde vocali (Vocal cord)
Al secondo dominio (INTENSITÀ) sono riconducibili due indici: la stessa intensità,
che è la misura dell’energia contenuta nel segnale acustico, generalmente ricavata
dall’ampiezza dell’onda; l’unità di misura standard è il decibel, che è calcolato come
una trasformazione logaritmica del valore dell’ampiezza dell’onda; l’attacco, che è il
tempo o il tasso di crescita dell’ampiezza dell’onda sonora nei segmenti che
contengono informazione sonora (Scherer, 1989).
Un terzo gruppo di indici sonori sono connessi alla DIMENSIONE TEMPORALE
della produzione vocale: velocità di eloquio, può essere misurata come durata
complessiva o come numero di unità rispetto alla durata (ad es. parole al minuto o
sillabe al secondo); pause, misurate come numero o come durata complessiva di
silenzio all’interno della traccia considerata.
L’ultimo dominio fa riferimento alla QUALITÀ DELLA VOCE, che si esprime in
indizi più complessi e sofisticati rispetto a quelli inclusi nei primi tre: energia delle
alte frequenze, si riferisce, rispetto alla energia acustica totale, alla proporzione tra
l’energia delle frequenze sopra e quella delle frequenze sotto un certo valore soglia
(Scherer, Banse, Walbott e Goldbeck, 1991). All’aumentare dell’energia delle alte
frequenze la voce diventa più acuta e meno morbida. Si può calcolare attraverso lo
spettro medio a lungo termine (Long Term Average Spectrum), che è la distribuzione
media dell’energia su uno spettro di frequenze in un certo periodo di tempo; formanti,
sono regioni di frequenza in cui l’ampiezza dell’energia sonora è alta, e riflettono le
risonanze naturali del tratto vocale; le prime due formanti determinano la qualità
delle vocali, mentre le altre dipendono dalle caratteristiche del parlante (Laver,
1980); precisione di articolazione, può essere misurata come la deviazione delle
formanti in occasione di alcuni eventi (ad esempio in occorrenza di un arousal
emotivo; Tolkmitt & Scherer, 1986) dalla formante neutra; onda sonora glottale
(glottal waveform), rappresenta il tempo in cui l’aria passa attraverso le corde vocali
e il tempo in cui la glottide è chiusa all’interno di ciascun ciclo di vibrazioni; la forma
di questa onda fornisce informazioni utili per determinare l’intensità/volume e il
timbro del suono.
8
Questi indizi acustici, nel loro insieme, forniscono al ricercatore una serie di valori
attraverso cui cercare di analizzare i suoni e le produzioni vocali di un parlante con
l’obiettivo di rendere maggiormente comprensibile come determinati significati
possono essere veicolati attraverso gli elementi paralinguistici. L’indagine su quali
elementi siano maggiormente portatori di significato è attualmente uno dei principali
versanti lungo cui si sta muovendo la ricerca, in particolare rispetto all’espressione
vocale delle emozioni (Juslin & Laukka, 2003).
In conclusione, è opportuno ricordare come l’elenco qui riportato non possa essere
considerato come esaustivo: con il progredire degli strumenti di calcolo e
l’affinamento della scienza acustica è lecito ritenere che sarà possibile identificare
altri elementi potenzialmente significativi e/o affinare la precisione degli algoritmi di
calcolo utilizzati.
Juslin, P. N., & Laukka, P. (2003). Communication of Emotions in Vocal Expression and Music
Performance: Different Channels, Same Code? Psychological Bulletin, 129(5), 770-814.
Laver, J. (1980). The phonetic description of voice quality. Cambridge, England: Cambridge
University Press.
Scherer, K. R. (1982). Methods of research on vocal communication: Paradigms and parameters. In
K. R. Scherer & P. Ekman (Eds.), Handbook of methods in nonverbal behavior research (pp.
136–198). Cambridge, England: Cambridge University Press.
Scherer, K. R. (1989). Vocal correlates of emotional arousal and affective disturbance. In H.
Wagner & A. Manstead (Eds.), Handbook of social psychophysiology (pp. 165–197). New York:
Wiley.
Scherer, K. R., Banse, R., Wallbott, H. G., & Goldbeck, T. (1991). Vocal cues in emotion encoding
and decoding. Motivation and Emotion, 15, 123–148.
Tolkmitt, F. J., & Scherer, K. R. (1986). Effect of experimentally induced stress on vocal
parameters. Journal of Experimental Psychology: Human Perception and Performance, 12, 302–
313.
9
CAPITOLO 5 – BOX 3 – PAGINA 165
L’ESPRESSIONE VOCALE DELLE EMOZIONI
La voce possiede un forte potenziale evocativo, legato non solo a ciò che viene detto,
ma soprattutto a come viene detto. Attraverso la modulazione del ritmo,
dell’intonazione e dell’intensità dell’eloquio, la voce è in grado di comunicare anche
la tipologia di emozione provata dall’interlocutore. Gli studi sulla possibilità di
esprimere l’esperienza emotiva attraverso la voce prendono in considerazione due
differenti aspetti: il processo di encoding, esaminato attraverso l’esame dei correlati
acustici dell’espressione vocale delle emozioni, e il processo di decoding, ovvero la
capacità da parte dell’interlocutore di riconoscere o inferire correttamente lo stato
emotivo del parlante prestando attenzione unicamente alle sue caratteristiche vocali.
A livello metodologico gli studi sull’encoding presentano una variabilità piuttosto
elevata per il numero di locatori, il ricorso ad attori professionisti od ingenui, il
numero e il tipo di emozioni esaminate, il tipo di materiale acustico impiegato, le
condizioni elicitanti, ecc. Nonostante la differenza di metodologie, esiste una
sostanziale convergenza di risultati. Attraverso una rassegna riguardante quaranta
ricerche che si sono focalizzate sulla fase di encoding, e che hanno preso in
considerazione caratteristiche della voce come il tono (frequenza fondamentale e
intonazione), la durata (ritmo, velocità di eloquio e pause), l’intensità e la qualità
articolatoria della fonazione, Anolli e Ciceri [1997] hanno individuato le seguenti
caratteristiche collegate a sei differenti emozioni:
1. la collera è caratterizzata da un incremento della media della variabilità e della
gamma della frequenza fondamentale della voce, da un aumento dell’intensità,
dalla presenza di pause molto brevi o anche dalla loro assenza e da un ritmo di
eloquio molto elevato; la voce della collera può dunque essere definita come tesa e
piana;
2. la paura viene espressa con un forte aumento della media, della variabilità e della
gamma della frequenza fondamentale, con un’elevata velocità del ritmo di
articolazione e con un’intensità di voce molto forte; inoltre la voce della paura è
caratterizzata dalla presenza di tremore, è può essere definita come sottile, tesa e
“stretta”;
3. la tristezza viene comunicata attraverso un tono mediamente basso, un volume
basso, la presenza di lunghe pause e un ritmo di articolazione rallentato; si tratta
dunque di una voce stretta e rilassata;
4. la voce della gioia è caratterizzata da tonalità acuta, aumento dell’intensità e, a
volte, accelerazione del ritmo di articolazione; essa si presenta come una voce
ampia, piana e mediamente tesa;
5. il disprezzo viene espresso attraverso un’articolazione particolarmente lenta delle
sillabe e una durata prolungata della frase, con un tono profondo e un’intensità
10
bassa; si tratta di una voce abbastanza tesa, stretta e mediamente piana;
6. la tenerezza è caratterizzata da un ritmo regolare, da una tonalità grave e da un
volume tenuto costantemente basso; essa si presenta dunque ampia e distesa.
Per quanto riguarda gli studi che si sono dedicati alla fase di decoding, da una recente
rassegna della letteratura è emersa un’accuratezza media di riconoscimento pari al
60%. Si tratta di un valore che spesso supera le percentuali di riconoscimento delle
emozioni attraverso le espressioni facciali. L’efficacia dei tratti paralinguistici per il
riconoscimento dell’espressione vocale delle emozioni sembra doversi attribuire alle
variazioni di tono, all’intensità e alle sue modificazioni, nonché al ritmo di
articolazione.
Esiste una sostanziale congruenza tra i risultati ottenuti nelle ricerche condotte da van
Bezooijen [1984], Scherer [1981] e Anolli e Ciceri [1997]. La collera è risultata
essere l’emozione più facilmente riconosciuta, mentre il disgusto, la tenerezza e il
disprezzo sono le emozioni meno facilmente riconoscibili attraverso la voce. In
generale, sono maggiormente identificabili le emozioni negative rispetto a quelle
positive.
Anolli, L. e Ciceri, R. [1997], La voce delle emozioni. Verso una semiosi della comunicazione
vocale non verbale delle emozioni, Milano, Franco Angeli.
Scherer, K.R. [1981], Speech and emotional states, in J.K. Darby (a cura di), Speech evaluation in
psychiatry, New York, Grune & Stratton.
Bezooijen, R., van [1981], The characteristics and recognizability of vocal expression of emotions,
Dordrecht, Foris.
11
CAPITOLO 5 – BOX 4 – PAGINA 168
IL FACIAL ACTION CODING SYSTEM
Le tecniche atte alla misurazione del comportamento facciale sono nate
sostanzialmente per rispondere a svariati quesiti riguardanti i legami esistenti tra le
espressioni del viso e le caratteristiche di personalità, l’esperienza emotiva, i processi
comunicativi, e così via. Gli studi che si occupano di questi temi si suddividono in
studi di misurazione, che utilizzano metodi atti a fornire una descrizione o una
misurazione delle reali modificazioni del volto, e studi di giudizio, che si basano sulle
risposte di osservatori al comportamento facciale, e che si concentrano quindi sulla
quantità e la qualità delle informazioni veicolate dal viso.
L’elettromiografia (EMG) rientra nel primo tipo di metodi, e rappresenta una delle
modalità più oggettive di misurazione fra quelli a nostra disposizione. La
registrazione EMG facciale comporta l’applicazione di piccoli elettrodi di superficie
sui muscoli del volto. Gli elettrodi rivelano i potenziali d’azione muscolari aggregati
dalle fibre muscolari sottostanti, e il segnale, opportunamente filtrato, amplificato e
ripulito dalle irregolarità, viene considerato approssimativamente proporzionale alla
forza di contrazione dei muscoli sottostanti.
Sempre all’interno degli studi di misurazione, accanto a metodi come l’EEG
troviamo sistemi, detti di codifica, che si basano sull’identificazione e la misurazione
di unità visibili di comportamento facciale. Essi si distinguono dai metodi di giudizio
in quanto l’attività di codifica, essendo puramente descrittiva, non ha carattere
interpretativo.
Questi metodi sono basati sulla riflessione teorica, in quanto mirano
all’identificazione dei pattern di movimento facciale che risultano associati a
particolari emozioni, quelle considerate “universali”. Il Facial Action Coding System
di Ekman e Freisen [1978] rientra in questa categoria di metodi.
Secondo questi due autori, il volto è in grado di veicolare informazioni attraverso
quattro classi di segnali:
1. segnali “statici” e relativamente permanenti, determinati dalla struttura ossea e
dalle masse di tessuto che compongono il viso;
2. segnali “lenti”, determinati da cambiamenti che avvengono con il tempo e
apportano delle mutazioni nell’apparenza della faccia di un individuo, come ad
esempio la comparsa di rughe;
3. segnali “artificiali”, causati da trattamenti esterni, come l’applicazione di cosmetici
o il fatto di indossare degli occhiali;
4. segnali “rapidi”, che comportano modificazioni dell’attività neuromuscolare e
provocano dei cambiamenti visibili dell’apparenza del viso.
È proprio quest’ultimo tipo di segnali (modificazioni muscolari rapide e visibili) che
può essere individuato e categorizzato attraverso il F.A.C.S., in cui ogni movimento
facciale singolarmente riproducibile e individuabile visivamente è stato indicato
come AU (action unit). Esistono in tutto 46 AU relative ai movimenti del volto, e 12
12
AU che rendono conto dei cambiamenti nella direzione dello sguardo e
nell’orientamento della testa. Tali unità d’azione costituiscono la base del sistema di
codifica e misurazione.
Nella tabella 2 sono riportati alcuni esempi di AU.
13
14
Tab. 2. Esempi di AU, con l’indicazione dei muscoli coinvolti in ogni movimento descritto
Il processo di acquisizione della metodologia di analisi sottesa al F.A.C.S. è molto
laborioso. Un apprendista spende quasi 100 ore per apprendere come funziona tale
15
sistema di codifica, attraverso materiale autodidattico che insegna l’anatomia
dell’attività facciale, ovvero come i muscoli singolarmente o in combinazione
cambiano l'apparenza di un volto. Un analista FACS disseziona ogni espressione
individuando le specifiche AU che hanno prodotto il movimento, utilizzando
soprattutto nastri videoregistrati. Il nastro viene analizzato sia al rallentatore che
fermando le immagini, per determinare quali unità di azione, o combinazioni di unità
di azione, sono coinvolte nei cambiamenti del viso. Per ogni azione viene anche
determinata la precisa durata, l’intensità e i casi di asimmetria bilaterale. Nell'uso più
esperto della metodologia FACS, l'analista riesce a determinare da indizi molto lievi
l'unità di azione coinvolta in un movimento rapido, ed è inoltre in grado di
individuare il momento preciso in cui l'azione raggiunge l'apice, quando inizia a
declinare e quando scompare definitivamente dalla faccia.
Le AU possono essere convertite da un computer utilizzando un dizionario di
interpretazione e predizione delle emozioni (appositamente creato). In questo modo è
possibile tradurre le combinazioni di AU in configurazioni facciali che, a loro volta,
corrispondono a determinate esperienze emotive. Attualmente un supporto alla teoria
sottostante il F.A.C.S. proviene da una sperimentazione empirica che ha dimostrato
che:
1. le codifiche fatte con il F.A.C.S. producono predizioni e post-dizioni altamente
accurate delle emozioni segnalate agli osservatori in più di quindici culture, sia
dell’Est che dell’Ovest, letterate e pre-letterate [Ekman 1989];
2. i punteggi specifici riguardanti le AU e la loro intensità mostrano una correlazione
da moderata ad alta con i report soggettivi sulla qualità e l’intensità dell’emozione
sentita dai soggetti che esprimono l’emozione stessa [Davidson et al. 1990];
3. modelli differenti e specifici di attività fisiologica cooccorrono con specifiche
espressioni facciali [Davidson et al. 1990].
Uno dei limiti del F.A.C.S. risiede nel fatto che è stato sviluppato per identificare
solo i cambiamenti del viso chiaramente visibili e individuabili, ignorando tutti quei
cambiamenti che non sono rilevabili tramite la semplice osservazione, come le
modificazioni del tono muscolare. Inoltre non prende in considerazioni fattori come il
sudore, il fenomeno dell’arrossire, o le caratteristiche permanenti della morfologia
del viso.
Ekman, P. e Friesen, W.V. [1978], Facial action coding system: A method for the measurement of
facial movement, Palo Alto, California, Consulting Psychologists Press.
Ekman, P. [1989], The argument and evidence about universals in facial expressions of emotion, in
H. Wagner e A. Manstead (a cura di), Handbook of social psychophysiology, Chichester, Wiley.
Davidson, R.J., Ekman, P., Saron, C., Senulis, J. e Friesen, W.V. [1990], Emotional expression and
brain physiology I: Approach/withdrawal and cerebral asymmetry, in «Journal of Personality and
Social Psychology», 58, pp. 330-341.
16
CAPITOLO 5 – BOX 5 – PAGINA 170
L’IPOTESI DELL’UNIVERSALITA’
Secondo molti autori, il risultato più convincente e stimolante del FACS [Ekman e
Friesen 1978] è stato l’aver dimostrato in modo significativo l’universalità
dell’espressione facciale delle emozioni. Per provare la veridicità di tale conclusione,
Russell e Fernández-Dols [1997] hanno sottolineato come sia necessario dimostrare
la validità di tre proposizioni in relazione tra loro:
1. In tutti i gruppi umani si verificano gli stessi pattern di movimenti facciali.
2. Osservatori appartenenti a società diverse attribuiscono le stesse emozioni
specifiche a tali pattern facciali universali.
3. In tutte le società umane, questi stessi pattern facciali sono veramente
manifestazioni di quelle precise emozioni.
Nelle ricerche passate, la maggior parte degli studiosi non ha distinto fra queste tre
proposizioni. Per esempio, Ekman [1980] ha pubblicato fotografie di aborigeni della
Nuova Guinea che sorridono, assumono un’espresione severa corrugando le
sopracciglia, piangono e via dicendo. In seguito ha tratto delle conclusioni favorevoli
alla tesi dell’universalità, senza tuttavia specificare quale aspetto dell’universalità sia
stato effettivamente provato. Naturalmente, l’esistenza di pattern facciali, di per sé,
riguarda solo la Proposizione 1.
La Proposizione 1 è stata generalmente assunta come vera, benché il fatto di
sottoporla a un esame empirico possa essere estremamente rivelatorio. Al contrario,
la Proposizione 2 ha ricevuto molta attenzione, mentre la Proposizione 3 è stata
curiosamente ignorata. La verifica indipendente di tale proposizione sarebbe
particolarmente importante, poiché essa non sarebbe necessariamente vera anche
qualora le Proposizioni 1 e 2 fossero dimostrate [Russell e Fernández-Dols 1997]. Al
presente, non vi sono prove che dimostrino che in una varietà di società diverse le
persone felici sorridono, quelle irate aggrottano le sopracciglia, quelle disgustate
arricciano il naso e via dicendo.
Per quel che riguarda la Proposizione 2, in figura 1 viene riportata una sintesi di dati
pertinenti, provenienti da studi di giudizio transculturali che si sono avvalsi di un
metodo standard. Le cifre riportate riguardano i “punteggi di riconoscimento” (la
percentuale di soggetti che sceglie la definizione prevista). La prima serie di barre si
riferisce a società occidentali alfabetizzate (i soggetti sono in gran parte studenti
universitari). Le cifre sono impressionanti, ben al di sopra di quanto ci si possa
aspettare per effetto del caso, rappresentato in figura 1 con linee orizzontali bianche).
La seconda serie di barre proviene da società non occidentali (benché si tratti ancora
in gran parte di studenti universitari). I punteggi di questa seconda serie sono
significativamente inferiori a quelli della prima, ma pur sempre elevati. La terza
serie, che riguarda campioni di osservatori isolati non occidentali (per lo più persone
17
analfabete), mostra come tali individui concordino nell’attribuire la felicità ai sorrisi
ma raggiungono punteggi di riconoscimento notevolmente più contenuti per quel che
riguarda tutte le altre fotografie.
Fig. 4. Punteggi di riconoscimento per sei espressioni facciali dell’emozione
Fonte: Russell 1994
Ovviamente, sia gli osservatori occidentali che quelli non occidentali si conformano
alla predizione in misura maggiore di quanto non sarebbe dato attendersi per effetto
del caso. Al contempo, i punteggi di riconoscimento sono proporzionati all’entità
dell’influenza occidentale e possono essere gonfiati a causa di una serie di fattori di
natura metodologica: espressioni in pose esagerate, disegno entro il soggetto e
formato di risposta a scelta forzata, influenza dello sperimentatore [Sorenson 1975,
1976].
Per quel che riguarda la terza serie di barre, è possibile immaginare che ciascuna
barra si riduca anche soltanto di poco ogni volta che viene rimosso un fattore
metodologico che può avere prodotto una gonfiatura dei dati. Resta da valutare quali
barre restino al di sopra della casualità, ammesso che ve ne siano. Quale che sia la
risposta, resta aperta anche la questione della loro interpretazione.
Ammettendo che tutti i punteggi di riconoscimento rimangano significativi anche una
volta superati i problemi tecnici, resterebbero ancora varie spiegazioni a favore
dell’associazione non casuale oltre a quella ipotizzata dal Programma Espressione
Facciale. La spiegazione più parsimoniosa di tutti i dati attualmente a disposizione
circa il modo in cui le espressioni facciali vengono prodotte e interpretate si chiama
universalità minima (tabella 1). l’uso di questa espressione paradossale deriva dalla
presupposizione che ci si trovi di fronte a una scelta fra due possibilità: da una parte,
la causalità (l’ipotesi nulla utilizzata nei test statistici condotti negli studi
transculturali); dall’altra, l’universalità piena. Come la dicotomia natura-cultura,
quest’alternativa risulta semplicistica. Infatti, l’universalità minima predice una
somiglianza transculturale di una certa entità nell’interpretazione delle espressioni
18
facciali, senza postulare un sistema innato di segnalazione dell’emozione. L’aver
chiamato questa posizione minima sta a sottolineare che almeno questo grado di
universalità sembra esistere [Russell e Fernández-Dols 1997].
Tab. 3. L’universalità minima
Assunti
− Certi pattern di movimento della muscolatura facciale occorrono in tutti gli esseri umani.
− I movimenti facciali sono coordinati a stati psicologici (azioni, preparazione alle azioni,
stati fisici, stati emozionali, stati cognitivi e altre condizioni psicologiche).
− La maggioranza delle persone in ogni luogo può inferire qualcosa in merito allo stato
psicologico altrui dal movimento facciale, come da qualsiasi altra cosa che le altre persone
fanno.
− Le persone delle culture occidentali possiedono un insieme di credenze secondo le quali
tipi specifici di azioni facciali sono espressioni di tipi specifici di emozione.
Alcuni ammonimenti
− Le azioni facciali non sono necessariamente segnali.
− L’azione facciale non è né necessaria né sufficiente per l’emozione.
− L’azione facciale non è necessariamente associata all’emozione più di quanto sia
associata ad altri stati psicologici.
− Non necessariamente le inferenze compiute in una cultura, o da un individuo, coincidono
esattamente con le inferenze compiute in un’altra cultura o da un altro individuo.
− Non necessariamente le persone di tutte le culture condividono le credenze occidentali
circa le associazioni specifiche di emozioni e azioni facciali.
− Le credenze occidentali circa l’associazione fra espressioni facciali e emozioni non sono
necessariamente valide.
Predizioni
− Le fotografie di movimenti facciali verranno associate a stati psicologici con un accordo
maggiore di quello atteso in base al caso.
− A volte le persone compiono inferenze accurate sulla base dei movimenti facciali.
− Ci saranno delle somiglianze attraverso le culture in ciò che viene inferito dai movimenti
facciali.
Ekman, P. e Friesen, W.V. [1978], Investigator’s guide to the Facial Action Coding System, Palo
Alto, Consulting Psychologists Press.
Russell, J.A. e Fernández-Dols, J.M. (a cura di) [1997], The psychology of Facial Expression,
Cambridge, Cambridge University Press, trad. it. Psicologia delle espressioni facciali, Trento,
Erickson, 1998.
Ekman, P. [1980], The face of man: Expressions of universal emotions in a New Guinea village,
New York, Garland STPM Press.
19
Russell, J.A. [1994], Is there universal recognition of emotion from facial expression?, In
«Psychological Bulletin», 115, pp. 102-141.
Sorenson, E.R. [1975], Culture and the expression of emotion, in T.R. Williams (a cura di),
Psychological anthropology, Chicago, Aldine, pp. 361-372.
Sorenson, E.R. [1976], The edge of the forest: Land, childhood and change in a New Guinea
protoagricultural society, Washington, Smithsonian Instutution Press.
20
CAPITOLO 5 – BOX 6 – PAGINA 172
IL SORRISO DI DUCHENNE
L’applicazione di diversi tipi di sistemi di codifica, come il FACS [Ekman e Friesen
1978] e l’AFFEX [Izard, Dougherty e Hembree, 1983], ha permesso di distinguere
differenti tipi di sorriso. Tra questi ritroviamo il sorriso di Duchenne, individuato dal
neurologo francese nel XIX secolo, e nel quale gli angoli delle labbra si spostano
verso l’alto, mentre la contrazione dei muscoli orbicolari degli occhi solleva le
guance e, negli adulti, tipicamente increspa di rughe gli angoli degli occhi.
Gli studi di Duchenne de Boulogne hanno fornito alle successive generazioni di
ricercatori le basi per l’elaborazione di esperimenti riguardanti la percezione e la
comunicazione delle espressioni facciali. Attraverso l’utilizzo di elettrodi di
stimolazione applicati ai muscoli facciali, Duchenne è stato in grado di tracciare una
vera e propria mappa dell’apparato muscolare sotteso ai movimenti del viso, e quindi
legato anche ai meccanismi di espressione delle emozioni (fig. 5, 6 e 7).
Fig. 5. Duchenne fotografato mentre utilizza la macchina per somministrare impulsi elettrici
(faradic battery) su di un soggetto
21
Fig. 6. La macchina usata da Duchenne per somministrare impulsi elettrici
Fig. 7. Esperimento di Duchenne riguardante la percezione e la comunicazione delle espressioni
facciali
Grazie ai suoi esperimenti egli è stato in grado di distinguere un sorriso naturale che
nasce da un’emozione gioiosa, da un sorriso prodotto artificialmente. Infatti i
muscoli facciali coinvolti nel sorriso spontaneo sono il muscolo zigomatico e quello
orbicolare (dell’occhio). Il primo muscolo, quando si contrae, sposta gli angoli della
bocca in alto e increspa le guance, nella classica espressione del sorriso, mentre il
secondo è responsabile dei movimenti delle palpebre.
E’ stata dimostrata la presenza di una relazione sinergica fra l’azione dello
zigomatico, che produce il sollevamento degli angoli delle labbra, e l’azione di quella
parte degli orbicolari che solleva le guance. E’ stato riscontrato che in soggetti di età
inferiore ai sei mesi la contrazione dei muscoli orbicolari degli occhi è dodici volte
più probabile in presenza del sollevamento degli angoli delle labbra, che in assenza di
tale azione. Gli effetti fisici della contrazione dello zigomatico sulla contrazione
dell’orbicolare dell’occhio sono dunque alla base dell’evidente coordinazione
esistente nel sorriso di Duchenne. Oltre a questi, esiste un coinvolgimento neuronale
caratterizzato da un alto grado di interconnessione dai rami nervosi che innervano la
22
faccia e regolano i movimenti dei muscoli facciali.
Sarebbe un errore, tuttavia, cercare di ridurre la coordinazione del sorriso di
Duchenne a un pattern neuromuscolare. La presenza di predisposizioni neurali e
muscolari per un’azione congiunta non esaurisce le possibili spiegazioni della
cooccorrenza della contrazione dello zigomatico e dell’orbicolare dell’occhio. Per di
più, come accade per gli elementi di altre strutture coordinative, la contrazione di
questi muscoli avviene anche indipendentemente.
Duchenne scriveva che, mentre lo zigomatico obbedisce alla volontà, l’orbicolare
“obbedisce solo alle dolci emozioni dell’anima. La falsa gioia, la risata menzognera,
non può provocare la contrazione di questo muscolo (…) L’orbicularis oculi non
obbedisce alla volontà, ma è messo in gioco solo dal vero sentimento” [Duchenne
1862]. Effettivamente alcune recenti ricerche mostrano che il sorriso di Duchenne
compare, nell’infante, durante eventi interattivi a tonalità emotiva positiva e,
nell’adulto, è associato a un’esperienza di piacere [Ekman, Davidson e Friesen 1990,
Fox e Davidson 1988].
Esistono contesti sociali in cui il sorriso di Duchenne è più probabile? Da alcuni dati
emerge l’esistenza, per esempio, di associazioni significative fra sguardo in direzione
della madre e sorriso di Duchenne. Inoltre le madri tendono a far corrispondere a
questo tipo di sorriso un sorriso analogo [Messinger 1995]. È dunque probabile che
gli infanti acquisiscano consapevolezza di questo pattern e che, da un certo momento
in avanti, comincino a loro volta a corrispondere ai sorrisi di Duchenne delle loro
madri.
Duchenne de Boulogne, G.B. [1990], The mechanism of human facial expression, Cambridge,
Cambridge University Press, (ed. orig. pubblicata nel 1862).
Ekman, P. e Friesen, W.V. [1978]. Facial action coding system: A method for the measurement of
facial movement, Palo Alto, Calif, Consulting Psychologists Press.
Ekman, P., Davidson, R.J. e Friesen, W.V. [1990], The Duchenne smile: Emotional expression and
brain physiology II, in «Journal of Personality and Social Psychology», 58, pp. 342-353.
Fox, N.A. e Davidson, R.J. [1988], Patterns of brain electrical activity during facial signs of
emotion in 10 month old infants, in «Developmental Psychology», 24, pp. 230-236.
Izard, C.E., Dougherty, L.M. e Hembree, E.A. [1983], A system for identifying affect expressions by
holistic judgements (AFFEX), Newark, DE, Instructional Resources Center, University of
Delaware.
Messinger, D.S. [1995], How mothers and infants smile, manifesto presentato all’incontro biennale
della Society for Research in Child Development, Indianapolis, IN.
23
CAPITOLO 5 – BOX 7 – PAGINA 185
LO STUDIO DEI PROCESSI DI SINCRONIZZAZIONE COMUNICATIVA:
RICERCHE E STRUMENTI
Una caratteristica fondamentale della comunicazione umana è la sua organizzazione
temporale: durante un’interazione, gli interlocutori non agiscono in maniera
scoordinata o casuale, bensì secondo un preciso ritmo temporale, che contribuisce a
rendere l’interazione efficace, dotata di senso e quindi comprensibile.
I fenomeni di accomodazione che avvengono tra gli interagenti e che consistono nella
tendenza ad adattare il proprio stile comunicativo a quello del partner (vedi box x)
sono strettamente legati alla sincronizzazione del comportamento con quello
dell’interlocutore.
La sincronia e la coordinazione interattiva sono caratteristiche universali della
comunicazione umana e si sviluppano a partire dai primissimi mesi di vita. In una
ricerca relativa all’interazione madre-bambino (Ciceri, 2001) viene riportata una
sequenza sincronizzata di comportamenti attraverso la quale avviene la progressiva
realizzazione di una sequenza coordinata di azioni tra la madre e il bambino di pochi
mesi. In particolare, la sintonizzazione dei comportamenti fra i due interagenti genera
un format stabile che porta alla creazione di un ritmo condiviso attraverso il quale
madre e bambino suonano un tamburo.
E’ interessante sottolineare come il bambino stesso assuma un ruolo attivo nei
processi di sincronizzazione. Emerge da una ricerca (Tronick, Als, Adamson & Wise,
1978) che i bambini che interagiscono con adulti poco interessati tendono a produrre
più frequentemente sequenze di comportamenti coordinati con quelli dell’adulto
rispetto a quanto manifestato da bambini che interagiscono con adulti maggiormente
coinvolti. Al contrario, bambini affetti da dislessia o disturbi dell’apprendimento
mostrano difficoltà a sincronizzare i propri comportamenti cinesico-gestuali con
quelli verbali (Condon, 1982).
In un altro studio (Bernieri, Reznick & Rosenthal, 1988) è stato chiesto ad un gruppo
di soggetti di dare un giudizio sulla sincronizzazione percepita nel comportamento di
coppie madre-bambino in filmati privati del sonoro. Metà dei filmati riproducevano
l’interazione originale, mentre nell’altra metà dei filmati l’immagine era stata
modificata, in modo che i comportamenti della madre e del bambino non fossero
contemporanei, ma leggermente distonici l’uno rispetto all’altro. La ricerca ha
rilevato come la sincronizzazione percepita da parte dei giudici fosse
significativamente più elevata nei filmati non modificati, dimostrando così che alcune
sequenze sincronizzate tra madre e bambino possono essere direttamente percepite.
Per quanto riguarda le interazioni tra adulti, già Kendon (1970) ha individuato
sequenze di comportamenti coordinati all’interno di conversazioni tra più persone. In
particolare, sono emersi non solo fenomeni di sincronizzazione, ma veri e propri
processi di rispecchiamento, in cui il comportamento manifestato riproduce quello
del partner comunicativo, soprattutto dal punto di vista non verbale. E’ interessante
24
sottolineare come, anche se la conversazione coinvolgeva più persone, tali sequenze
di rispecchiamento sono state rilevate prevalentemente tra il parlante e l’interlocutore
diretto, dimostrando così la valenza comunicativa di tali processi.
Dal punto di vista sperimentale, lo studio della sincronizzazione comunicativa
prevede in primo luogo la definizione di una griglia di osservazione, in cui vengano
elencati i comportamenti che devono essere rilevati, siano essi di tipo verbale o non
verbale.
Successivamente, mediante la griglia viene effettuata la codifica delle interazioni, che
devono essere videoregistrate. Tale codifica può essere compiuta manualmente
(codifica carta-matita) o mediante l’ausilio di software specifici. In entrambi i casi è
necessario codificare l’unità di tempo (indicata in secondi o frames) in cui viene
rilevato ogni comportamento oggetto di osservazione incluso nella griglia.
Un software specifico per l’analisi dell’interazione e per la rilevazione di sequenze
comportamentali coordinate e ripetute nel tempo è stato creato da un ricercatore
islandese nei primi anni Novanta (Magnusson, 1993) ed è denominato THEME.
Il programma consente di effettuare la codifica del comportamento, a partire dalla
quale vengono rilevate sequenze comportamentali che si ripetono in modo
significativo nel corso dell’interazione. Tali sequenze comportamentali vengono
definite T-patterns (Time-patterns). Il software, infatti, è in grado di confrontare i
tempi in cui si verifica ogni comportamento rilevato, valutando se le differenze siano
dovute al caso o meno.
Il modello teorico sottostante è quello del flusso continuo di comportamento
(Continuous Behavioural Stream), per cui i comportamenti manifestati nel corso di
un’interazione dovrebbero distribuirsi nel tempo secondo una continua ripetizione di
sequenze di vario tipo, che possono o meno sovrapporsi tra loro, secondo
un’organizzazione gerarchica.
Un esempio di T-pattern è riportato in figura 1. Il pattern è costituito da due
comportamenti di tipo non verbale, manifestati dai due interagenti. In particolare, un
soggetto produce un autocontatto (“actor 2, begin, mano su corpo”) mentre l’altro
distoglie lo sguardo rispetto all’interlocutore (“actor 1, begin, sguardo via”). Come si
vede nella parte destra della figura, questa sequenza comportamentale si ripete sette
volte nel corso dell’interazione. In pratica, per sette volte nel corso dell’interazione,
mentre un soggetto compie un autocontatto, il suo partner comunicativo distoglie lo
sguardo. Questo T-pattern, seppur molto semplice, esemplifica una sequenza di
coordinazione e sincronizzazione nel comportamento non verbale di due soggetti
coinvolti in un’interazione.
Una delle peculiarità di THEME è la sua versatilità: infatti il modello sottostante
permette di ricercare strutture sequenziali non solo nel comportamento umano, ma in
qualunque serie di eventi correlati nel tempo; è anche grazie a questa proprietà che
THEME è stato utilizzato per l’analisi della struttura sequenziale del DNA.
25
Fig. 8. Un esempio di T-pattern costituito dalla ripetizione di due comportamenti
Nell’ambito dello studio della comunicazione umana, alcune ricerche che si sono
avvalse di tale strumento sono state condotte da Magnusson (1996), che ha rilevato in
sequenze interattive pattern di sincronizzazione intra-e inter-individuali non visibili
ad occhio nudo. Inoltre, Jonsson (2000) ha evidenziato come i pattern
comportamentali prodotti nel corso di un’interazione possano differire in funzione di
alcune caratteristiche di personalità dei partecipanti: in particolare, gli individui
estroversi e con un’elevata autostima tendevano a realizzare pattern più complessi e
coordinati dei soggetti introversi e con bassa autostima. Lo stesso autore (Jonsson,
1998) ha realizzato anche uno studio che ha portato all’individuazione di sequenze di
coordinazione e sincronizzazione comportamentale tra i componenti di due squadre
di calcio durante una partita.
Bernieri, F. J., Reznick, J. S., & Rosenthal, R. (1988). Synchrony, pseudosynchrony and
dissinchrony: Measuring the entrainment process in mother-infant interactions. Journal of
Personality and Social Psychology, 54, 243-253.
Ciceri, R. (2001). Comunicare il pensiero. Procedure, immagini, parole. Torino: Omega.
Condon, W. S. (1982). Cultural microrhythms. In M. Davis (Ed), Interaction rhythms:
Periodicity in communicative behavior (pp. 53-76). New York: Human Sciences Press.
26
Jonsson, G. K. (1998). Detecting patterns in complex behavioural processes with the Observer and
Theme. In L.P.J.J. Noldus (Ed), Measuring Behavior ’98. 2nd International Conference on
Methods and Techniques in Behavioral Research. Groningen, The Netherlands.
Jonsson, G. K. (2000). Relation between self-esteem, personality dimensions of extraversion and
real-time patterning of social interaction. Poster presented at Measuring Behavior 2000, 3rd
International Conference on Methods and Techniques in Behavioral Research, Nijmegen, The
Netherlands.
Kendon, A. (1970). Movement coordination in social interaction: Some examples described.
Acta Psychologica, 32, 100-125.
Magnusson, M. S. (1993). Theme, Behavior Research Software. User’s manual, with notes on
theory, model and pattern detection method. Unpubblished manuscript. University of
Iceland, Reykjavik.
Magnusson, M. S. (1996). Hidden real-time patterns in intra- and inter-individual behavior:
Description and detection. European Journal of Psychological Assessment, 12, 112-123.
Tronick, E. D., Als, H., Adamson, L., & Wise, S. (1978). The infant’s response to entrapment
between contradictory messages in face-to-face interaction. Journal of the American
Academy of Child Psychiatry, 17, 1-13.
27