Suoni trasformati in immagini: così i ciechi potranno “vedere”
BRUXELLES - Viene dall’Università ebraica di Gerusalemme una novità che potrà forse permettere, fra qualche anno, alle persone non vedenti di “vedere” attraverso i suoni. E’ un programma al computer che cerca di educare l’orecchio dei ciechi a ricostruire nel cervello una serie di immagini. In un articolo del sito Sciencemag, si spiega come il progetto parta da lontano, dal 1992, quando l’ingegnere olandese Peter Meijer ha creato un algoritmo chiamato vOICE, che convertiva semplici immagini su una scala di grigio in melodie sonore. Per esempio, una retta diagonale da sinistra a destra e dall’alto in basso viene trasformata in una serie di beep , partendo dai più acuti e andando verso i più gravi, che vengono da sinistra verso l’orecchio destro. Una persona che siede su una sedia, invece, è convertita in una serie di rumori molto ma molto più complicata, che però può essere ricostruita da un non vedente dopo un opportuno addestramento.
box Così nel 2007, Amir Amedi e i suoi colleghi all’Università ebraica di Gerusalemme hanno ripreso l’idea iniziando un progetto con il quale, dopo sole settanta ore di allenamento, delle persone non vedenti passavano dall’ascoltare semplici punti e linee al vedere vere e proprie immagini come facce e angoli di strade, a una risoluzione di 4500 pixel. Per dare un’idea, il gioco Mario Bross, della Nintendo, aveva una risoluzione di 192 pixel.
I soggetti che hanno partecipato all’esperimento, con una telecamera sulla testa che scattava foto a un intervallo di secondi, collegata a un computer e a delle cuffie, riuscivano a muoversi autonomamente in ambienti a loro sconosciuti.
Uno dei partecipanti al progetto, come riportato su Current Biology, è stato persino in grado di scattare delle foto, aiutandosi con i suoni per mettere bene a fuoco. Inoltre dieci ore sono state dedicate al riconoscimento dei profili umani rappresentati da suoni, e i soggetti sono riusciti a replicare l’esatta postura dei modelli utilizzati.
E il progetto di Amedi potrebbe rappresentare una svolta nella comprensione di come il cervello utilizza i nostri sensi: fino a ora, si credeva generalmente che l’area riservata alla vista venisse usata dai ciechi per acuire ad esempio il loro udito e supplire alla mancanza della vista. Ma i ricercatori dell’università di Gerusalemme hanno dimostrato invece che, quando venivano prodotti i suoni che generavano le immagini, era proprio la parte della corteccia cerebrale responsabile della vista ad attivarsi. Secondo Amedi e il suo team, il modello tradizionale con cui la scienza ha finora studiato i sensi non può spiegare questo fenomeno, e bisogna passare da un modello che considera il cervello un organo con aree apposite destinate a ogni senso a una macchina che invece si comporta in maniera funzionale a seconda degli input che gli vengono dati.
A confermare questa teoria è la neuroscienziata Ione Fine, dell’università di Washington Seattle, che non ha partecipato al progetto: “L’idea che l’organizzazione del cervello delle persone cieche sia la stessa di quella dei vedenti è estrema ma affascinante. Se le ipotesi fatte da Amedi saranno confermate, e non c’è per ora motivo per dubitarne, avremo una conoscenza molto più approfondita su come lavora il cervello umano”.
Il team di Amedi ha recentemente messo online un’app per Iphone, chiamata Eyemusic, che produce una serie armoniosa di suoni per replicare le immagini e può dare anche informazioni sui colori, un successore dell’olandese vOICE. Secondo Amedi e i suoi colleghi, Eyemusic e le prossime creature del loro progetto serviranno a migliorare di gran lunga la vita dei non vedenti. (Maurizio Molinari)