\\ Home Page : Articolo : Stampa
Ricercatori Usa sono riusciti a tradurre in suoni artificiali i segnali cerebrali innescati quando percepiamo la voce umana. Ma non chiamatela lettura nel pensiero.
By Admin (from 24/03/2012 @ 11:05:42, in it - Scienze e Societa, read 1514 times)

Non sarà certo questa la scoperta che ci permetterà di leggere i pensieri degli altri esseri umani, ma di sicuro è un grande passo in avanti verso la comprensione del linguaggio. Il merito va al team di ricerca guidato da Brian Pasley,neurologo dell' Helen Wills Neuroscience Institute di Berkeley, che ha decodificato alcuni stimoli cerebrali alla base dell'ascolto. In questo modo, un giorno forse sarà possibile riprodurre in modo artificiale le parole percepite nella testa delle persone.

Tuttavia, come spiega Scientific American, questo non significa che saremo in grado di leggere anche i pensieri elaborati dal cervello stesso. Per l'esattezza, lo studio pubblicato su PLoS Biology dall'equipe di Pasley riguarda un algoritmo capace di tradurre in suoni gli stimoli cerebrali innescati dalle parole percepite da 15 volontari. Il test prevedeva di sottoporli all'ascolto di brevi parole – a volte inventate – come “ jazz”, “ cause” e “ fook” e vedere quali parti del loro cervello si attivassero.

Per registrare l'attività cerebrale, Pasley ha sfruttato elettrodi connessi direttamente alla superficie della corteccia uditiva. Si tratta di una procedura molto sofisticata resa possibile dal fatto che tutti i partecipanti dovevano comunque sottoporsi a interventi neurochirurgici per il trattamento di epilessia o tumori. Ogni volta che un volontario percepiva una parola, il computer registrava i segnali percepiti dal cervello e li elaborava nel tentativo di convertirli in un suono simile.

Ebbene, dai ripetuti esperimenti è emerso che esistono zone cerebrali deputate all'ascolto esclusivo di alcune frequenze sonore. Una sorta di mosaico neurale sensibile a uno spettro sonoro che va da 200 a 7.000 Hertz. Inoltre, sembra che per adesso l'algoritmo del team di Pasley sia in grado di riprodurre con più facilità suoni vocalici molto semplici. Così, prima di arrivare a sviluppare uno strumento di ascolto più sofisticato, i ricercatori dovranno valutare quali sono i contributi di altre aree che entrano in gioco nel momento in cui il cervello percepisce le parole.

Infatti, nonostante i volontari fossero perfettamente in grado di comprendere i suoni uditi durante i test, i dati estrapolati dalla corteccia uditiva non sono stati sufficienti a crearne una copia perfetta. Dopo tutto, come hanno dimostrato diversi studi condotti durante il coma farmacologico indotto dall' anestesia, le zone del cervello che percepiscono e codificano il significato delle parole agiscono in modo indipendente tra loro. In una prospettiva futura, studi simili a quelli di Pasley potrebbero riuscire a completare il mosaico e stabilire qual è la soglia di coscienza nelle persone che hanno subito danni cerebrali.

Fonte: Wired.it