Dean Cercone (Pittsburgh, PA, Usa - Contemporary) - Inside a painter’s brain
Deep learning e la digitalizzazione della vita
di Simone Fubini
Nel mio articolo di un anno fa “Computer, Robots, Intelligenza Artificiale” accennavo a una possibilità del tutto fantasiosa che un giorno sarebbe stato possibile il download del contenuto di un cervello in qualche computer o robot. Oggi possiamo dire che l’ipotesi non è più del tutto irrealizzabile.
In effetti, se da una parte le tecniche sempre più perfezionate di editing del DNA supportate dall’informatica permettono già oggi di modificare nelle catene del DNA la presenza o no di un gene, e la genetica molecolare permette di conoscere sempre di più il ruolo delle proteine nella fisiologia dell’uomo fornendo elementi per evitare o affrontare malattie oggi non curabili, dall’altra negli ultimi anni la conoscenza del funzionamento del cervello ha fatto passi da gigante, con grandi investimenti in molte università e istituti tecnologici in Europa, Israele, Cina e Stati Uniti.
Lo “scanning cerebrale” sulle sequenze di accensione dei neuroni realizzato attraverso le strumentazioni di “Magnetic Resonance Imaging” (MRI) con la possibilità di interpretare i big data delle immagini con algoritmi basati sul Deep Learning, hanno permesso di realizzare eccezionali esperimenti.
Il Research Center for Brain Inspired Intelligence di Pechino tramite l’algoritmo chiamato dal MIT di Boston Deep Generative Multiview Model è riuscito, partendo dall’analisi della sequenza di accensione dei neuroni di una persona (trasformando le immagini tridimensionali in segnali digitali), a riprodurre le lettere su cui essa concentrava lo sguardo. Esperienze analoghe sono state condotte negli Stati Uniti sui suoni che l’individuo “test” ascoltava.
Questi ultimi esperimenti possono essere la base di una tecnologia per ridare voce a chi l’ha persa per qualche incidente o malattia.
Più in generale, con la combinazione di uno scanning MRI ad alta risoluzione e l’utilizzo di algoritmi basati su un deep learning sempre più sofisticato, le immagini dell’attività cerebrale in risposta a specifici stimoli esterni viene trasformata in segnali digitali interpretabili da uomini, robots, protesi, ecc.
Un’altra notizia è relativa all’investimento che Elon Musk (CEO di Tesla) ha realizzato nella startup Neurolink. Questa società ha avviato una ricerca per arrivare con tecniche che probabilmente partono da quanto descritto precedentemente a connettere digitalmente il cervello con robots o protesi con cui interagire.
Siamo quindi alla soglia della lettura digitale, non del pensiero, ma per lo meno di alcune attività cerebrali che interagiscono con stimoli sensoriali esterni, individuando gradualmente i meccanismi della comunicazione cerebrale e definendo il funzionamento delle principali interfacce sensoriali del cervello.
Senza lo sviluppo e l’utilizzo di algoritmi basati sul deep learning, capaci di interpretare i big data derivanti dall’attività cerebrale basata su miliardi di connessioni tra miliardi di neuroni, ciò non sarebbe possibile.
Si apre così la strada alla soluzione di una serie di gravi infermità da perdite sensoriali (vista, voce, udito, tatto, ecc.), a perdite traumatiche di arti, recuperando una facile e completa funzionalità delle protesi.