SCIENZA E RICERCA

Melodia e parole: come il nostro cervello riesce a separare gli input acustici della musica

La musica ci accompagna in tanti momenti della giornata, a volte accendiamo la radio come semplice sottofondo mentre siamo indaffarati a fare altro, altre volte invece abbiamo proprio voglia di metterci comodi e ascoltare quella specifica canzone, magari con delle buone cuffie e senza fonti di distrazione. Naturalmente non tutti i brani musicali ci emozionano allo stesso modo e in questo hanno un peso anche i ricordi legati all’ascolto di una certa canzone. Tralasciando però la sfera delle emozioni, forse a molti di noi sarà capitato di pensare a come il cervello umano sia in grado di percepire ed elaborare la musica e le parole delle canzoni: ci arrivano sotto forma di un'unica onda sonora, eppure siamo in grado di riconoscere i diversi strumenti musicali che compongono la melodia, senza compromettere la comprensione del significato delle parole (e viceversa). Ma quali sono le aree cerebrali coinvolte in questa elaborazione e su quali meccanismi si basano? L'esistenza di due diversi emisferi cerebrali, ognuno dei quali caratterizzato da specificità funzionali, è nota da tempo ed è stata confermata anche da una ricerca recentemente pubblicata su Science che ha rivelato nuovi particolari sulle modalità attraverso cui il nostro cervello è capace di distinguere le parole dalla musica. L'articolo presenta i risultati di uno studio realizzato da Philippe Albouy insieme a un gruppo di scienziati dell'Università McGill di Montréal: il team di ricerca ha fatto registrare a un soprano cento brani ottenuti combinando gli elementi di base di dieci testi e dieci melodie originali. A queste canzoni sono poi state applicate delle distorsioni, sia a livello spettrale che a livello temporale, e i neuroscienziati hanno fatto ascoltare questi input acustici a quarantanove volontari con l'obiettivo di approfondire le modalità con cui il cervello umano riesce a decodificare la melodia e le parole. 

Per comprendere meglio qual è l'elemento innovativo emerso dai risultati di questa ricerca e quali sono altri spunti di analisi che potrebbero ampliare le nostre conoscenze sulle modalità con cui elaboriamo gli stimoli sonori abbiamo intervistato Massimo Grassi, docente del dipartimento di Psicologia generale all'università di Padova e specializzato nel filone di ricerca sulla percezione uditiva. 

Riprese e montaggio di Barbara Paknazar

"In questo articolo - spiega il professor Massimo Grassi - si sviscera e si porta avanti uno dei temi forse più vecchi della percezione uditiva: immaginiamo di dover ascoltare della musica o anche un giornale radio, come stiamo facendo in questi giorni, da una radiolina transistor come quelle dei nonni. Questa radiolina transistor ha un unico altoparlante e se ascoltassimo della musica attraverso questo strumento l’onda sonora che colpisce le nostre orecchie è un’unica onda sonora che è quella prodotta da questo altoparlante. Nonostante ciò ascoltando la musica noi riusciamo a sentire il basso, la batteria, il cantante, le tastiere, il pianoforte, le percussioni e così via. Il nostro cervello infatti da un unico oggetto sonoro estrae tutte le singole componenti presenti, ma è un’estrazione che avviene appunto a partire dal nostro cervello, non nell’onda sonora che è oggetto unico e privo di divisioni. L’articolo pubblicato su Science mostra un ulteriore passo in avanti rispetto a questa area di ricerca ed è il seguente: musica e linguaggio condividono lo stesso medium, quando parliamo generiamo onde sonore e lo stesso accade quando produciamo musica. Ecco che per il cervello si crea un problema di elevatissima complessità nel senso che deve dividere le due parti ascoltando un medesimo oggetto. L’elemento importante di questa ricerca risiede nel fatto che, utilizzando un unico tipo di stimolazione, si è riusciti a vedere quale parte del cervello risponde alla musica e quale parte risponde al linguaggio".

Il professor Grassi ha poi illustrato nel dettaglio come è stata condotta lo ricerca. "In particolare questi studiosi hanno preso delle frasi e le hanno fatte cantare, ottenendo quindi una melodia che avesse anche i contenuti semantici del linguaggio. Poi hanno fatto ascoltare queste registrazioni a delle persone manipolando due aspetti differenti: da un lato manipolavano il contenuto di frequenza delle frasi cantate, ovvero qualcosa di intimamente legato alla melodia, e dall'altro manipolavano un aspetto più temporale, qualcosa di simile al contenuto ritmico delle stesse frasi cantate. In questo modo hanno scoperto che questa onda sonora, come sempre, giunge ad entrambe le orecchie ma il cervello lavora differentemente per l’una e per l’altra manipolazione. Quando in queste frasi cantate la distorsione riguardava la parte melodica i partecipanti allo studio manifestavano un'attività cerebrale di processamento soprattutto nell'emisfero destro del cervello, mentre quando veniva manipolata la parte ritmica, o comunque più temporale, è stata evidenziata un'attivazione dell'emisfero sinistro del cervello. Il cervello quindi sembra proprio che divida tra i due emisferi: l'elaborazione dell'informazione temporale (elaborata a sinistra) e dell'informazione frequenziale (elaborata a destra)". 

I ricercatori hanno infatti verificato che le distorsioni di carattere temporale potevano pregiudicare la comprensione semantica del testo, ma non avevano un impatto sul riconoscimento della melodia. Al contrario, la manipolazione delle caratteristiche spettrali comprometteva la percezione della melodia, ma non la decodificazione semantica del testo. Le scansioni cerebrali, ottenute grazie alla risonanza magnetica cerebrale funzionale effettuata sui volontari, hanno consentito anche di visualizzare le aree cerebrali che si attivano durante la decodifica dei diversi input acustici.

Secondo il docente del dipartimento di Psicologia dell'università di Padova un ulteriore aspetto interessante che i filoni di ricerca dedicati alla musica potrebbero esplorare in profondità riguarda gli aspetti culturali della produzione sonora e la decodificazione di tipologie di musica provenienti da aree del mondo diverse da quelle occidentali. "Come ricercatore di musica - conclude il professor Massimo Grassi - un elemento che, a mio avviso, offre ancora ampi margini di studio è quello legato alla percezione di tipologie di musica molto differenti da quelle che siamo soliti ascoltare nel mondo occidentale. Leggendo l’articolo sulla ricerca condotta dai neuroscienziati canadesi, come spesso si fa quando si parla di psicologia della musica, ho subito pensato a tutta quella musica africana che non ha alcuna componente melodica e che è solo di tipo temporale e ritmico". La riflessione quindi è relativa a "come viene processata una musica che viene da un altro mondo culturale rispetto al nostro e ha delle caratteristiche musicali specifiche e differenti. E’ vero che i ricercatori in qualche modo considerano, ed è una cosa che negli ultimi anni si è sempre più fatta, la cultura di provenienza dei partecipanti coinvolti nello studio. Per esempio, nella ricerca cui abbiamo fatto riferimento gli scienziati hanno utilizzato sia partecipanti e melodie cantate in francese, sia partecipanti e melodie cantate in inglese. Ovviamente però rientriamo sempre nella nostra cultura occidentale e ci stiamo sempre riferendo a musica di tipo occidentale. Quando parliamo di investigazioni e di ricerche attorno alla musica dobbiamo sempre tenere presente che ciò che è musica per noi e per le nostre orecchie, magari non lo è affatto per una popolazione diversa e che tante popolazioni nel mondo hanno costruito musiche che sono profondamente diverse da quelle che noi ascoltiamo quotidianamente". 

POTREBBE INTERESSARTI

© 2018 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012