1 Estratto dalla conferenza “Linguaggio e musica: confronto di due

Transcript

1 Estratto dalla conferenza “Linguaggio e musica: confronto di due
Estratto dalla conferenza
“Linguaggio e musica: confronto di due capacità umane”
di Elena Menegazzo
Musica e linguaggio sono due capacità universali che accomunano tutti i popoli. Superando le
differenze più superficiali date dalle variazioni individuali di ciascuna, la struttura profonda di
entrambe sembrerebbe combaciare perfettamente. Tale sovrapposizione strutturale si riflette
nell’interpretazione che avviene a livello cerebrale e, in modo altrettanto interessante, anche sulla
base, o meglio, sulle ipotesi fino ad ora formulate, riguardanti la loro origine.
Relativamente all’analisi degli aspetti formali di musica e linguaggio, i primi studi sono stati
condotti negli anni ’70 con Hockett e ripresi poi nel 2006 da Fitch e nel 2009 da Jackendoff. Dai
lavori di questi ricercatori sono poste in luce le caratteristiche che accomunano e che differiscono
nei due sistemi cognitivi. Musica e linguaggio sono costruiti a partire da una sequenza di suoni e, in
riferimento al linguaggio verbale e al canto, sono prodotti tramite fonazione. In quanto suoni, questi
sono veicolati attraverso l’aria ed entrambi consentono un feedback immediato. Nonostante
permettano fin da subito un giudizio su quanto prodotto, sia i suoni musicali sia i suoni verbali sono
a dissolvenza rapida, quindi, una volta prodotti, non sono modificabili. Addentrandoci nell’aspetto
creativo dei due sistemi cognitivi, è possibile notare che sono entrambi generativi, ossia a partire da
una sequenza finita di elementi discreti e di regole, si ottiene una serie potenzialmente infinita di
formule ben formate. Come conseguenza di questo aspetto generativo, ne consegue che sono
entrambe produttive e complesse. Musica e linguaggio inoltre variano localmente, pertanto avremo
lingue, dialetti e musiche popolari differenti da luogo a luogo. L’ultima caratteristica formale che
accomuna musica e linguaggio è data dalla possibilità di trasposizione. Più evidente in musica, in
quanto si può trasporre un brano da una tonalità ad un’altra, meno intuibile ma altrettanto efficace
nel linguaggio verbale in cui uno stesso enunciato non muta il suo significato se prodotto da una
voce maschile o femminile.
Le peculiarità che differiscono musica e linguaggio fanno riferimento agli aspetti più
caratterizzanti dei due sistemi cognitivi. La musica ha altezze discrete (rappresentate dalle scale), è
tendenzialmente isocrona, poiché contraddistinta da battiti regolari che permettono di avere un
quadro temporale di riferimento per le altre caratteristiche ritmiche musicali, e ha un proprio
repertorio. La produzione linguistica, sia in termini di altezze sia in termini ritmici è libera invece di
variare continuamente. Gli aspetti tipici del linguaggio che al contrario non sono condivisi dalla
musica fanno riferimento alla referenzialità. Se infatti le lingue sono costituite da suoni arbitrari che
attraverso il sistema di doppia articolazione costituiscono dei segni portatori di significato, e
1
pertanto con valore semantico, la musica non porta significato allo stesso modo. Vale a dire che la
musica non ha significato referenziale. Un’ultima differenza tra i due sistemi cognitivi è data
dall’intercambialità. Se una frase infatti è facilmente ripetibile da chi la ascolta, non si può dire lo
stesso di chi ascolta musica.
Anche Jackendoff in “Parallels and Nonparallels between Language and Music” del 2009 si
occupa del confronto fra le due capacità umane concentrando la sua visuale sugli aspetti
prettamente cognitivi. Secondo il linguista, le caratteristiche assimilabili ad entrambi i sistemi
cognitivi fanno riferimento alla memoria a lungo termine, alla capacità di integrare le
rappresentazioni nella memoria di lavoro, alla capacità di creare aspettative, di intraprendere
collettivamente determinate azioni e di produrre suoni ben controllati. L’opinione di Jackendoff,
tuttavia, è che, fatta eccezione per la produzione di suoni ben controllati, le altre caratteristiche sono
condivise da molte altre attività umane, come ad esempio dalla percezione visiva.
Se dunque dagli aspetti formali si notano tante somiglianze ma anche tante differenze fra
linguaggio e musica, Katz e Pesetsky, nella formulazione della tesi di identità di linguaggio e
musica del 2009, sostengono che le differenze riscontrabili in musica e linguaggio sono
riconducibili solamente ai loro elementi costitutivi, ossia parole nel linguaggio e note e accordi in
musica, e che in realtà sono identiche rispetto al comportamento che hanno con gli elementi che le
costituiscono, tanto da definirle “stessa ricetta con ingredienti diversi”. In questo modo si arriva a
parlare di identità sintattica evidente nella rappresentazione gerarchica del significato. Se dunque
alla struttura superficiale della frase “io coltivo e tu vendi i fagioli” soggiace la struttura profonda
“io coltivo i fagioli e tu vendi i fagioli”, lo stesso accade nella struttura sintattica musicale “II-V-IIV-I” con struttura profonda “II-V-I-II-V-I”. Le dipendenze a lunga distanza “coltivo i fagioli” e “VI” mostrano con chiarezza che le frasi linguistiche e musicali coincidono nella formulazione di un
loro significato.
Il secondo punto di analisi delle caratteristiche linguistiche e musicali si concentra nella
valutazione degli aspetti neurobiologici. Dal procedimento iniziale dell’informazione acustica,
tradotto in attività neurale dai recettori uditivi della coclea, il messaggio acustico viene trasformato
nel tronco cerebrale uditivo per passare attraverso il corpo genicolato mediale, o talamo uditivo, da
cui prosegue verso la corteccia primaria uditiva. Nella corteccia uditiva si localizzano diverse
mappe tonotopiche che rappresentano l’intero spettro delle frequenze udibili; altre zone della
corteccia invece contribuiscono all’estrazione di specifiche informazioni acustiche, quali il timbro,
l’altezza del suono, l’intensità e l’asprezza. Tutta questa serie di operazioni si riflette nell’attività
2
elettrofisiologica registrata dai componenti ERP1. In seguito all’estrazione delle caratteristiche
dell’informazione acustica, questa entra nella memoria sensoriale uditiva in cui avviene il
raggruppamento degli elementi acustici che la formano. Le operazioni della memoria sensoriale
uditiva si riflettono nella mismatch negativiy (MMN), componente dell’onda suscitato dal
potenziale evento-correlato, usato per studiare gli effetti della formazione musicale nell’analisi del
suono, dell’informazione melodica, del raggruppamento di suoni in sequenza e dell’attenzione
spaziale.
Di seguito a questa fase, si procede all’approfondimento dell’analisi acustica da diverse
prospettive: melodica, armonica e ritmica. Il lobo temporale destro è di fondamentale importanza
per la percezione della melodia, come confermato anche da studi con tecnica di risonanza
magnetica funzionale (fMRI) e comportamentali su soggetti con lesione al lobo temporale anterolaterale destro.
Tutti i tipi di musica mostrano un’organizzazione sintattica musicale, quel che è interessante
è che l’analisi della sintassi musicale sembra essere un processo automatico negli esseri umani,
tanto da esser riscontrato anche nei casi di ascolto passivo (ad esempio mentre i partecipanti
giocano ai videogiochi o mentre leggono un libro). Koelsch e Siebel (2005c) affermano che anche i
non musicisti, ossia quelle persone che non hanno avuto un’istruzione musicale formale, hanno una
forte conoscenza implicita della sintassi musicale. Questa conoscenza deriverebbe dalla grande
esperienza acquisita nel corso della vita. Quel che è sorprendente però, è che la sintassi musicale
può essere articolata in sequenze di dipendenze a lunga distanza che richiedono una complessa
analisi strutturale, come dimostrato nella Tonal Pitch Space Theory di Lerdahl (Patel 2003).
La sintassi musicale è stata studiata anche dal punto di vista neurobiologico. Secondo
Koelsch (2005a), l’analisi sintattico-musicale attiva la circonvoluzione frontale-laterale inferiore, la
corteccia premotoria ventrolaterale e probabilmente anche la parte anteriore della circonvoluzione
temporale superiore. L’abilità di analisi sintattico-musicale è strettamente correlata alla percezione
del linguaggio. Gli studi che collegano le due capacità umane trovano i primi riscontri nell’analisi
degli accordi irregolari per mezzo del magnetoencefalogramma (MEG). Gli accordi irregolari nel
contesto sintattico-musicale, infatti, attivano la parte inferiore dell’area di Broadmann 44, ossia la
corteccia fronto-laterale inferiore. L’area, situata nell’emisfero sinistro, è solitamente definita “area
di Broca”, un’area implicata anche nell’analisi della sintassi linguistica. La coincidenza sintattica tra
musica e linguaggio è ancora più evidente se si considerano i risultati ERP per cui entrambi i
1
ERP, dall’inglese event related potential, in italiano “potenziale evento-correlato” è la risposta elettrofisiologica del
cervello ad uno stimolo che viene misurato dall’elettroencefalogramma attraverso il posizionamento di elettrodi sullo
scalpo.
3
sistemi cognitivi elicitano il P600, potenziale evento correlato associato all’analisi degli elementi
sintattici.
Oltre alla sintassi, è stata studiata anche la semantica musicale e linguistica a livello
neurobiologico. Anche in questo caso si è potuta notare un’interessante coincidenza, in quanto sia
l’analisi semantica linguistica, sia l’analisi del significato musicale si riflettono nell’N400,
potenziale evento correlato che misura elettrofisiologicamente l’analisi dell’informazione che porta
significato. Perciò, sebbene la musica sia semanticamente meno specifica del linguaggio, come
evidenziato nell’analisi formale dei due sistemi cognitivi, può però essere più specifica nella
trasmissione di informazione sulle emozioni che sono difficili da esprimere a parole. Ciò sarebbe
dovuto al fatto che la musica può funzionare prima che le sensazioni vengano trasmesse a parole.
Sebbene attraverso i dati della neuroimmagine sia stato possibile affermare che vi sia una
sovrapposizione nel funzionamento dei due sistemi cognitivi, i dati forniti dalla neuropsicologia
confermerebbero il contrario. Un disturbo molto raro è la sordità verbale pura. I soggetti affetti da
questa patologia hanno un normale audiogramma e l’analisi uditiva periferica è pressoché intatta
inoltre non sono considerabili afasici, poiché, a differenza degli afasici, i pazienti affetti da sordità
verbale pura possono leggere, scrivere e parlare, seppure non fluentemente. Il loro deficit è quindi
riscontrabile nell’incapacità di comprendere il discorso orale, quel che sorprende però è che la
percezione musicale è relativamente intatta. Tra gli altri disturbi che scindono l’abilità linguistica da
quella musicale troviamo l’amusia che si manifesta nell’incapacità di discriminazione o di
riconoscimento delle melodie con capacità linguistica intatta e l’afasia senza amusia che, al
contrario, è l’incapacità di produrre o comprendere il linguaggio con inalterata competenza
musicale.
Di fronte al paradosso che vede da un lato una chiara coincidenza fra i due sistemi cognitivi,
dall’altro un’evidente dissociazione, è emersa nel 2003 l’ipotesi formulata da Patel: la Shared
Syntactic Integration Resources Hypothesis (Ipotesi della risorsa d’integrazione sintattica
condivisa). Nel presentare questa ipotesi, Patel crea una distinzione fra le rappresentazioni modulari
2
(domain specific) nella memoria a lungo termine e le risorse neurali condivise. L’opinione di Patel
è che nelle rappresentazioni modulari si trovino gli elementi tipici del linguaggio quali le categorie
lessicali e le dipendenze sintattiche a lunga distanza, come nel caso di ragazza e ha aperto in “La
ragazza che ha baciato il ragazzo ha aperto la porta”. Al contrario, le dipendenze a lunga distanza
2
Con “rappresentazioni modulari” si fa riferimento al modello modularista proposto da Jerry Fodor nei primi anni ’80,
il quale propone che vi sia un’architettura cognitiva disposta, relativamente ai sistemi di analisi dell’input, in strutture
verticali il cui compito è di trasformare gli input in rappresentazioni. Queste rappresentazioni vengono poi offerte ai
sistemi centrali per le elaborazioni successive che saranno più complesse. Tali strutture prendono appunto il nome di
moduli. La trasformazione degli input in rappresentazioni sottintende una teoria computazionale della mente, pertanto si
avrà una realizzazione dei processi cognitivi basata su una elaborazione di tipo sequenziale.
4
presentate dalla teoria musicale, non possono essere assunte semplicemente come percepite, ma
devono essere invece viste come ipotesi soggette a prova empirica.
Patel ha dunque proposto che le rappresentazioni modulari dell’analisi linguistica e musicale
sono situate nelle regioni temporali del cervello, mentre le risorse condivise sono localizzate nelle
regioni frontali. Rispetto alla neuroimmagine, quindi, la Shared Syntactic Integration Resources
Hypothesis (Ipotesi della risorsa d’integrazione sintattica condivisa) è coerente con i risultati già
menzionati, mentre rispetto alla neuropsicologia, propone che le dissociazioni fra musica e
linguaggio, ad esempio nel caso degli amusici, siano dovute a lesioni nelle rappresentazioni
modulari relative alla sintassi musicale, piuttosto che a problemi nell’integrazione dei processi
sintattici.
L’ultimo punto di analisi dei due sistemi cognitivi è volto ad indagare la genesi ed
evoluzione di musica e linguaggio.
Il problema principale nella definizione dell’origine del linguaggio è data dal fatto che,
diversamente dalla musica, non lascia tracce fossili. A causa di ciò, l’8 Marzo 1866, la Società
Linguistica di Parigi sanciva nel suo statuto il divieto ai linguisti di occuparsi della questione. Per lo
stesso motivo, anche la Società Filologica di Londra impose nel 1872 lo stesso veto. Solo a partire
dalla seconda metà del Novecento si è ripreso ad indagare sull’argomento, e ciò è stato possibile
dapprima grazie al consolidamento della teoria evoluzionistica darwiniana, poi attraverso
l’intervento
di
antropologi,
neuroscienziati,
scienziati
cognitivi,
biologi
evoluzionisti,
paleoantropologi, psicologi e primatologi.
Chomsky in “Cartesian Linguistics” del 1966 ci trasmette l’idea che la facoltà del linguaggio
umano segna un punto di svolta fra l’uomo e l’animale in termini qualitativi, ribadendo il concetto
di capacità linguistica come abilità specifica degli esseri umani derivante da un tipo unico di
organizzazione cognitiva che si manifesta attraverso l’aspetto creativo dell’uso del linguaggio.
Differentemente da Chomsky che ritiene quindi che vi sia un “salto evoluzionistico” fra l’animale e
l’uomo, Gould e Lewontin (1979) considerano il linguaggio uno spandrel ossia un “effetto
secondario” di altre abilità cognitive. Per questo motivo, dunque, il linguaggio, nato come frutto
dell’architettura generale dell’organismo, si può considerare conseguenza della conformazione
fisiologica dell’uomo.
Attraverso analogie utili allo studio del linguaggio umano con i cercopitechi verdi, i
babbuini gelada e i gibboni, l’archeologo cognitivo Mithen ha potuto affermare che i primi
messaggi umani fossero olistici, manipolativi, ossia con lo scopo di condizionare il comportamento
altrui, musicali, caratterizzati quindi da ritmo e melodia, e multimodali, per cui ci sarebbe stato un
uso combinato di vocalizzazioni e gesti. Con l’Homo ergaster, ominide quasi completamente
5
bipede vissuto tra i due e un milione di anni fa, vi sarebbe stato un punto di svolta. Il bipedismo,
infatti, ha avuto notevoli ripercussioni sul sistema di comunicazione, poiché modificando la
posizione del cranio rispetto alla colonna vertebrale, si è reso possibile l’abbassamento della
laringe, principale organo di fonazione, e quindi l’evoluzione del linguaggio. Il linguaggio
articolato si è sviluppato soprattutto con l’homo erectus e con l’homo heidelbergensis poiché il
sistema si arricchisce della mimesi, ossia della capacità di produrre atti intenzionali coscientemente.
Dall’homo neanderthalensis, vissuto in Europa tra 400.000 e 30.000 anni fa, questo linguaggio si
arricchisce di espressioni semanticamente sempre più complesse e flessibili. Ma il primo vero
sistema di comunicazione dei nostri antenati avrebbe fatto uso della gestualità. Il fondamento di
questa ipotesi è la scoperta dell’esistenza nel cervello dei macachi dei neuroni specchio, così
chiamati perché, al vedere un’azione permettono un rispecchiamento tra la percezione e l’azione.
L’area di rilevamento dei neuroni specchio nei macachi è denominata F5, quel che sorprende però è
che anche il cervello umano è dotato del sistema dei neuroni specchio e l’area F5 sarebbe l’omologa
dell’area di Broca negli umani, che svolge un ruolo di fondamentale importanza per la produzione e
comprensione del linguaggio, oltre ad essere implicata anche nella produzione di movimenti più
generali. L’idea di Corballis (2011 in Adornetti 2012) è che i gesti imitativi sono diventati nel
tempo sempre più arbitrari e astratti, perdendo così il legame iconico con l’oggetto o l’evento che
rappresentano. Questo processo è denominato convenzionalizzazione. Nel momento in cui il
linguaggio è convenzionalizzato, perde il suo aspetto mimetico e quindi non è più limitato alla
modalità visiva. Sarebbe proprio in questo stadio dunque che le vocalizzazioni sostituiscono gli atti
manuali allo scopo comunicativo. Ma quando si sarebbe passati da un sistema di comunicazione
verbale? La risposta che fornisce Philip Liebermann (1975, 1998, 2007 in Adornetti 2012) è che il
linguaggio vocale si sarebbe definitivamente affermato negli Homo sapiens circa 50.000 anni fa.
Questo calcolo è stato possibile attraverso la ricostruzione del tratto vocale sovralaringeo degli
ominidi estinti. La laringe dell’uomo di Neanderthal, infatti, sarebbe in una posizione troppo vicina
alla base del cranio per garantire una vasta modulazione tonale, così come il tratto vocale
dell’Homo Sapiens di 100.000 anni fa è ancora troppo corto, precludendo quindi la possibilità di
ospitare un tratto vocale sovralaringeo simile a quello attuale.
Chomsky, assieme a Hauser e Fitch è tornato nel 2002 sull’argomento proponendo una
distinzione fra la facoltà di linguaggio in the broad sense (in senso ampio), capacità degli uomini
condivisa con gli animali e facoltà di linguaggio in the narrow sense (in senso stretto), tipicamente
e specificamente umana. Il punto focale della distinzione delle due facoltà risiederebbe nella
ricorsività, componente fondamentale nella facoltà di linguaggio. La specificità della facoltà di
linguaggio in the narrow sense è data dal meccanismo computazionale/cognitivo che genera
6
rappresentazioni interne che vengono trasmesse al sistema senso-motorio attraverso il sistema
fonologico e al sistema concettuale-intenzionale attraverso il sistema semantico.
Anche l’origine e l’evoluzione della musica hanno affascinato gli studiosi e la nascita di
diverse teorie, da quelle adattazioniste a quelle non-adattazioniste. Mentre il linguista Steven Pinker
(in Huron, 2003) ritiene che, mentre il linguaggio sia un adattamento evolutivo, la musica sia
fondamentalmente inutile (sebbene le prove a sostegno del linguaggio come adattamento non sono
in effetti più forti rispetto alle prove comparabili in musica), Gould e Lewontin (1979) ritengono
che la teoria dell’evoluzione della specie possa essere manipolata da un ragionamento ad hoc.
Esistono poi altre proposte riguardanti la possibile origine evolutiva della musica, quali la selezione
del compagno e la sua variante nella selezione sessuale, la coesione sociale, la regolazione
dell’umore, lo sviluppo delle abilità motorie, la riduzione dei conflitti, la musica come passatempo
sicuro e comunicazione transgenerazionale per citarne solo alcuni. Alla base delle teorie di
selezione del compagno e selezione sessuale sottostà l’idea che l’abilità canora sia indice di buona
salute nell’individuo, oltre ad indicare particolare coordinazione motoria, capacità di
automatizzazione e creatività melodica. Inoltre chi produce musica deve aver tempo per
l’esercitazione, che, ancora, indica che l’individuo che esegue musica non ha responsabilità
genitoriali. Relativamente invece alle teorie più prettamente sociali è emerso che ancora oggi la
musica è usata per la gestione dello stato d’animo e, secondo Fukui (in Huron 2003: 70) ascoltare
musica riduce i livelli di testosterone. Questo particolare effetto ormonale avrebbe permesso
maggiore coesione sociale tra i nostri antenati evitando così aggressioni, conflitti e competizione
sessuale. Sebbene nessuna di queste teorie sia stata suffragata, si ricordano infatti teorie più recenti
come quella di Justus e Hutsler (2005) e Trainor (2006) per cui la musica sarebbe un
transadattamento, molto favorita sembra invece la tesi di Fitch (2006), il quale ritiene la musica un
adattamento la cui funzione originale sarebbe stata inglobata nel linguaggio. L’opinione dello
studioso è che la musica non potrebbe essere un relitto, come l’appendice o i capezzoli maschili,
perché richiede un’eccessiva spesa di energie, e inoltre gioca un ruolo molto importante nelle
relazioni umane. Attraverso la comparazione con i sistemi di comunicazione animale come il canto
degli uccelli e delle balene, Fitch ritiene sia opportuno considerare la musica come un istinto ad
imparare, poiché è proprio l’abilità umana di imparare nuovi aspetti complessi che costituisce il
fondamento della nostra specie.
Se da quanto affermato da Fitch musica e linguaggio sono in un certo senso assimilabili
l’uno all’altro, interessante è anche la datazione approssimativa della nascita della musica. Come il
linguaggio, infatti, sembra che la musica sia nata 50.000 anni fa. Questa datazione è stata possibile
attraverso il ritrovamento del più antico strumento musicale: un flauto, rinvenuto nel parco
7
archeologico di Divje Babe presso Circhina, nella Slovenia occidentale, proveniente dal femore di
un giovane orso e contraddistinto da alcuni fori distanziati. Huron (2003: 63) afferma che il canto
potrebbe essersi sviluppato all’incirca nello stesso periodo della nascita di questo strumento, vero e
proprio prototipo musicale, collocando quindi la nascita della musica proprio a 50.000 anni fa circa.
Alla luce di quanto analizzato è stato possibile stabilire alcune fra le somiglianze e
differenze che caratterizzano linguaggio e musica. Come abbiamo visto, oltre ad evidenti differenze
fra i due sistemi cognitivi, è possibile affermare che vi siano interessanti e quasi incredibili
somiglianze, non solo strutturali, ma anche neurobiologiche e filogenetiche. Poiché l’analisi e il
confronto di linguaggio e musica è un ambito di ricerca emerso solo recentemente, rimane ancora
molto da indagare, soprattutto se si considerano i notevoli progressi che stanno compiendo le
neuroscienze che permettono uno studio sempre più chiaro e approfondito delle caratteristiche
neurologiche.
Riferimenti bibliografici citati:
Adornetti, I. (2012). Origine del linguaggio. APhEx, portale italiano di filosofia analitica.
No. 5, pp. 1-39
Chomsky, N. (2009). Cartesian Linguistics. A Chapter in the History of Rationalist Thought.
3rd ed., Cambridge, Cambridge University Press.
Fitch, W. T., Hauser, M. D., Chomsky, N. (2005). The evolution of the language faculty:
Clarifications and implications. Cognition 97, pp. 179-210
Fitch, W. T. (2006a). The biology and evolution of music: A comparative perspective.
Cognition 100, pp. 173-215
Fitch, W. T. (2006b). On the biology and evolution of music. Music Perception: An
interdisciplinary journal. Vol. 24, No. 1, pp. 85-88
Gould, S. J., Lewontin, R. C. (1979). The Spandrels of San Marco and the Panglossian
Paradigm: A Critique of the Adaptionist Programme. Proceedings of the royal society of London,
Series B, Vol. 205, No. 1161, pp. 581-598
8
Hauser, M. D., Chomsky, N., Fitch, W. T. (2002). The faculty of Language: What is it, Who
has it, and How did it evolve? Science. Vol. 298, pp. 1569-1579
Jackendoff, R. (2009). Parallels and Nonparallels between Language and Music. Music
Perception, Vol. 26, Issue 3, pp. 195-204
Justus, T., Hutsler, J. T. (2005). Fundamental issues in the evolutionary psychology of
music: assessing innateness and domain specificity. Music Perception: An interdisciplinary journal.
Vol. 23, No. 1, pp. 1-27
Katz, J., Pesetsky, D. (2009). The Identity Thesis for Language and Music. MIT
Koelsch, S. (2005a). Neural substrates of processing syntax and semantics in music. Current
opinion in neurobiology. Vol. 15, pp. 207-2012
Koelsch, S., Gunter, T., Wittfoth, M., Sammler, D. (2005b). Interaction between Syntax
Processing in Language and in Music: an ERP Study. Journal of Cognitive Neuroscience, pp. 15651577
Koelsch, S., Siebel, W. A. (2005c). Towards a neural basis of music perception. Trends in
Cognitive Sciences, Vol. 9, No. 12, pp. 578-584
Patel, A. D. (2003). Language, music, syntax and the brain. Nature neuroscience, Vol. 6,
No. 7
Trainor, L. J. (2006). Innateness, learning, and the difficulty of determining whether music is
an evolutionary adaptation. Music Perception: An interdisciplinary journal. Vol. 24, No. 1, pp. 105110
In Arbib, M. A. (2013) “Language, Music, and the Brain”. MIT Press:
Thompson-Schill, S., Hagoort, P., Dominey, P. F., Honing, H., Koelsch, S., Ladd, D. R.,
Lerdahl, F., Levinson, S. C., Steedman, M. (2013). Multiple Levels of Structure in Language and
Music. In Michael A. Arbib, “Language, Music, and the Brain”, Chapter 12. MIT Press
9
Huron, D. (2003). Is Music and evolutionary adaptation? In Isabelle Peretz, and Robert J
Zatorre, “The Cognitive Neuroscience of Music”, Chapter 5, pp. 57-75. Oxford, New York. Oxford
University Press
10