Capire a suon di consonanti

Immaginiamo di ascoltare un discorso pronunciato in una lingua di cui non conosciamo una parola. È qualcosa di simile a quello che deve percepire un bambino molto piccolo, che ancora non ha imparato a distinguere i suoni e ad attribuirgli significato: un flusso continuo e indistinto di sillabe e fonemi che si rincorrono senza logica apparente. Il parallelismo non è casuale. Sappiamo che un bambino apprende le vocali e le consonanti della lingua materna in momenti distinti, ma da un punto di vista cognitivo, la distinzione rimane vera anche per un adulto. Secondo uno studio di psico-linguistica condotto, tra gli altri, dalla Sissa di Trieste e dall’Università di Ferrara, e pubblicato su Psychological Science, sarebbero le consonanti a permetterci di distinguere le varie parole nello scorrere di suoni della lingua parlata. Le vocali non riuscirebbero, invece, a veicolare questo tipo di informazione.Il cervello è in grado di compiere sofisticati calcoli statistici nell’apprendimento del lessico, basandosi sulla probabilità di transizione, ovvero la probabilità che a una sillaba segua un’altra sillaba. “Per esempio, se un bambino, o una persona straniera, sente LACASADIMARIO, non potrebbe sapere quale sequenza di sillabe individua una parola e quale no. Disponendo solo di questa frase, la probabilità che dopo ‘SA’ ci sia ‘DI’ è uguale alla probabilità che dopo ’ CA ci sia ‘SI’”, spiega Luca Bonatti, uno dei ricercatori della Sissa che ha partecipato al lavoro. “Ma incontrando un’altra espressione, come UNACASACHEMIPIACE, il bambino troverebbe di nuovo il gruppo sillabico CA-SA, e non troverebbe il gruppo SA-DI. Se fosse in grado di tenere a mente tutte le frasi che ascolta e riuscisse a calcolare la probabilità di transizione su tutte le sillabe, si renderebbe conto che la probabilità che dopo ‘CA’ segua ‘SA’ è più alta della probabilità che dopo ‘SA’ segua ‘DI’. Dunque, potrebbe rendersi conto che CASA è un buon gruppo sillabico, candidato a essere un elemento del lessico, mentre SADI non lo è”. Queste inattese abilità statistiche, che secondo alcuni studiosi sono di per sé sufficienti per imparare una lingua, presentano però anche dei limiti: vocali e consonanti sono oggetto, infatti, di calcoli differenti. Per indagare questa strada, gli scienziati hanno inventato delle microlingue inesistenti e hanno sintetizzato al computer una sequenza di 15 minuti di un’unica parola monotona. La successione di lettere, del tutto insignificante, è stata scelta in modo che la probabilità di transizione per alcuni gruppi di consonanti e per alcuni gruppi di vocali fosse alta. Hanno poi sottoposto al test decine di persone: queste, dopo aver ascoltato la sequenza, dovevano dire se una serie di sillabe apparteneva o meno alla lingua immaginaria. “Abbiamo osservato”, continua Bonatti, “che i soggetti scelgono le parole giuste, quando le relazioni di probabilità riguardano le consonanti, ma non riescono a farlo quando le stesse relazioni di probabilità sono fra vocali. In altre parole, la stessa operazione che si compie sulle consonanti è bloccata quando si trasferisce sulle vocali”.I ricercatori hanno suggerito una teoria che spiegherebbe la ragione di tale disparità di trattamento: “Da una serie di dati linguistici e fonologici, siamo portati a pensare che le vocali e le consonanti veicolino informazioni differenti: le prime servirebbero principalmente a identificare le parole, mentre le seconde porterebbero istruzioni grammaticali”. Insomma, chi deve imparare una lingua utilizzerebbe calcoli di probabilità per distinguere le parole fra di loro. Ma per le regole di grammatica, espresse all’interno delle parole, non c’è niente da fare: la statistica, lì, ha ben poco potere.

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here