Ricerca neuroscientifica rivoluziona gli apparecchi acustici con il controllo mentale e promette ascolto personalizzato
Apparecchi acustici che leggono l’attenzione: cosa cambia davvero
Un team di neuroscienziati guidato da Nima Mesgarani allo Zuckerman Institute della Columbia University ha dimostrato che un sistema di ascolto controllato dal cervello può migliorare in tempo reale la percezione della voce a cui un individuo presta attenzione.
Lo studio, pubblicato su Nature Neuroscience, è stato condotto negli Stati Uniti su pazienti con epilessia già portatori di elettrodi intracranici impiantati per motivi clinici.
Utilizzando la tecnologia di Auditory Attention Decoding (AAD), i ricercatori sono riusciti a identificare quale voce, tra due conversazioni simultanee, fosse seguita dall’ascoltatore e ad amplificarla selettivamente, riducendo il rumore concorrente.
La ricerca nasce per superare il limite degli attuali apparecchi acustici, che amplificano indiscriminatamente tutti i suoni, e punta a rivoluzionare il supporto per milioni di persone con perdita uditiva.
In sintesi:
- Sistema cervello-apparecchio acustico identifica e amplifica solo la voce seguita dall’ascoltatore.
- Test con elettrodi intracranici mostrano precisione tra 72% e 90,3% nell’attenzione uditiva.
- Incremento medio del rapporto segnale-rumore di 12 dB e minore sforzo cognitivo.
- Tecnologia promettente ma ancora invasiva: servono interfacce neurali non chirurgiche.
Come funziona il nuovo ascolto controllato dal cervello
La tecnologia AAD nasce da oltre un decennio di ricerca sulle interfacce cervello-macchina applicate all’udito.
Il sistema decodifica in tempo reale i segnali neurali della corteccia uditiva, ricostruendo a quale sorgente vocale è rivolta l’attenzione.
Per testarne l’efficacia, il team di Nima Mesgarani ha sfruttato gli elettrodi intracranici impiantati in pazienti con epilessia per localizzare le crisi, trasformandoli in sensori ad altissima risoluzione dell’attività cerebrale.
Durante l’esperimento, i partecipanti ascoltavano due conversazioni riprodotte da altoparlanti differenti; il sistema, in configurazione a ciclo chiuso, regolava automaticamente i livelli audio, aumentando il volume della voce seguita e attenuando l’altra.
La precisione nella decodifica dell’attenzione variava dal 72% al 90,3%, con un miglioramento medio del rapporto segnale-rumore di 12 decibel.
La riduzione dello sforzo cognitivo è stata documentata tramite la dilatazione pupillare, segno fisiologico di minore carico mentale nell’isolare la voce d’interesse.
Dalla sperimentazione clinica agli apparecchi acustici del futuro
I ricercatori hanno condotto tre esperimenti distinti: attivazione del sistema a metà prova, cambi di attenzione guidati da un segnale, cambi spontanei senza istruzioni.
In tutti gli scenari, il sistema ha seguito in modo affidabile gli spostamenti dell’attenzione.
Resta però un limite cruciale: gli attuali elettrodi intracranici sono dispositivi chirurgici, non pensati per l’uso di massa.
Questo studio definisce un benchmark massimo di prestazioni, mostrando cosa è possibile ottenere quando i segnali neurali vengono registrati con qualità ottimale.
Il passo successivo sarà trasferire questi risultati verso soluzioni meno invasive, basate ad esempio su cuffie EEG avanzate o sensori integrati in futuri apparecchi acustici “intelligenti”.
Con oltre 430 milioni di persone nel mondo affette da perdita uditiva invalidante, la prospettiva di protesi capaci di seguire automaticamente la voce desiderata rappresenta una potenziale svolta sociale e sanitaria.
Prospettive: neurotecnologie personalizzate per l’ascolto quotidiano
Se i risultati verranno replicati con interfacce non invasive, gli apparecchi acustici potrebbero diventare sistemi ibridi neuro-digitali, capaci di adattarsi in tempo reale al contesto sociale.
Un ristorante affollato, una riunione di lavoro, una conversazione in famiglia verrebbero filtrati in base alla sola intenzione attentiva dell’utente.
In prospettiva, combinare AAD, algoritmi di intelligenza artificiale e microfoni direzionali potrebbe consentire apparecchi “attentivi” personalizzati, aggiornabili via software, calibrati sui pattern neurali individuali.
La sfida etica e regolatoria sarà garantire sicurezza dei dati cerebrali e trasparenza degli algoritmi, preservando autonomia e privacy delle persone con deficit uditivo.
FAQ
Che cosa distingue questi sistemi dagli apparecchi acustici tradizionali?
Si distinguono perché non amplificano tutto, ma usano i segnali neurali per potenziare solo la voce seguita, riducendo il rumore concorrente.
La tecnologia AAD è già disponibile per i pazienti con ipoacusia?
No, attualmente è in fase sperimentale in contesti clinici. Servono interfacce non invasive e studi su larga scala prima della commercializzazione.
In quali ambienti quotidiani questa tecnologia sarebbe più utile?
Sarebbe particolarmente utile in ristoranti, riunioni, aule scolastiche, mezzi pubblici e situazioni con molte voci sovrapposte e rumore di fondo.
Quali rischi comportano gli elettrodi intracranici usati nello studio?
Comportano i rischi tipici di un intervento neurochirurgico; per questo oggi sono impiegati solo per necessità cliniche, non per apparecchi acustici.
Da quali fonti è stata ricavata e rielaborata questa notizia?
La notizia deriva da una elaborazione congiunta delle fonti ufficiali Ansa.it, Adnkronos.it, Asca.it e Agi.it, rielaborate dalla nostra Redazione.



