La macchina che apprende

    Ventisette neuroni connessi tra loro a formare 351 sinapsi: è Lann27, un circuito elettronico fatto di normali resistenze e condensatori. Che però ha una particolarità: è in grado di selezionare e memorizzare gli stimoli esterni, o distinguere un oggetto da un altro, proprio come un cervello. Realizzata da un gruppo di fisici dell’Università La Sapienza di Roma, coordinato dal teorico Daniel Amit, Lann27 è probabilmente il primo passo verso la costruzione di una macchina capace di apprendere.

    La ricerca nasce in un nuovo settore dal nome un po’ ostico: “hardware neuromorfo”. Un settore che interessa non solo i fisici ma anche i biologi, i neurobiologi, gli esperti di elettronica e gli psicologi. L’obiettivo non è quello simulare con un software il comportamento di una rete neuronale, ma piuttosto di costruirne direttamente una artificiale, partendo solo dai componenti hardware, per osservarne poi il comportamento. Naturalmente, per costruire Lann27 i ricercatori hanno dovuto semplificare al massimo le caratteristiche del singolo neurone o delle sinapsi. Ma questi componenti elettronici, pur essendo molto diversi dai corrispettivi biologici, hanno mostrato un comportamento collettivo sorprendente. Quando la si sottopone a stimoli, la rete elettronica manifesta delle proprietà emergenti: in altre parole, i suoi comportamenti nascono dalle connessioni tra i singoli componenti, proprio come avviene per le reti neuronali biologiche.

    L’esperimento dei fisici romani è solo l’ulteriore tappa di un lungo lavoro di ricerca che nasce diversi anni fa. Uno dei primi esperimenti di successo in questo campo, infatti, fu realizzato nel 1991 dai fisici Carver Mead e Misha A. Mahonwald del Cns al Caltech in California. Gli americani avevano costruito una piastrina di silicio che generava in tempo reale segnali simili a quelli della retina umana. I loro risultati chiarirono la natura del “calcolo” biologico, molto diverso da quello digitale, e aprirono la strada a una serie di ricerche al confine tra neurobiologia e scienza dell’informazione. Grazie a queste ricerche divenne più chiara anche la potenza dei sistemi analogici collettivi nel risolvere problemi non affrontabili con i metodi digitali tradizionali. Ma la retina al silicio, pur facendo parte di quei sistemi primari visivi molto reattivi, era ancora priva di memoria.

    L’obiettivo di Lann27 è invece più ambizioso: “La nostra macchina vuole riprodurre le dinamiche di apprendimento e di memorizzazione della corteccia infratemporale, ossia lo stadio di connessione tra la retina e il cervello”, spiega il Stefano Fusi, ricercatore nel laboratorio dell’Infn.

    Ma in cosa consiste allora il processo di memorizzazione? I neuroni comunicano tra loro attraverso le sinapsi: queste connessioni costituiscono la cosiddetta matrice sinaptica, in continuo cambiamento. La memoria, secondo la definizione del neurofisiologo Donald Hebb, è un processo che crea strutture stabili nella dinamica della matrice sinaptica : se una A viene presentata ripetutamente alla rete neuronale, questa raggiungerà uno stato stabile, cioè la rappresentazione interna della A, al quale tendere ogni volta che riconosce questo stimolo.

    Un buon modello teorico per questo processo è quello ideato dal fisico John Hopfield negli anni Ottanta e migliorato dallo stesso Amit. La dinamica della matrice sinaptica è analoga alla caduta di un grave in un paesaggio di valli e alture: ogni punto del territorio corrisponde a un particolare stato di attività e di energia della rete di neuroni. In questo senso, memorizzare qualcosa significa creare uno stato di fondovalle (altrimenti detto “attrattore”) in questo paesaggio.

    Quando ai neuroni di Lann27 vengono presentati stimoli della stessa classe, la rete raggiunge un attrattore, che diventa così la rappresentazione interna del prototipo di una classe. “Inizialmente la rete avrà sinapsi casuali – spiega Fusi – cioè una successione irregolare di valli e alture, completamente scollegata dagli stimoli. Ma per effetto di questi ultimi il paesaggio si modifica, cioè si scavano valli sempre più profonde in corrispondenza degli stimoli che si ripetono. E infatti, fornendo alla rete solo stimoli da memorizzare, abbiamo riscontrato la formazione degli attrattori, la capacità di dimenticare e quella di generalizzare”.

    Per rendere più realistico il processo di memorizzazione, i ricercatori hanno voluto inserire un’altra variabile, quella del “rumore”, che nel cervello biologico è rappresentato dalla normale attività elettrica dei neuroni, e che è in parte indipendente dalla presenza di stimoli esterni. In Lann27, il rumore avrebbe dovuto destabilizzare le piccole valli dovute agli stimoli occasionali. Tuttavia, per creare il rumore è stato necessario inserire nel circuito una sorgente elettronica, che ne ha aumentato le dimensioni. “Per fortuna, studiando l’attività biologica della nostra macchina, abbiamo visto che esiste un’attività spontanea dei neuroni, un rumore di fondo in assenza di sorgenti e stimoli esterni”. Commenta Fusi : “E’ proprio questa l’ultima novità : la nuova Lann27 presenta attività spontanea e selettiva. Non solo. La potenza di questa rete dinamica sta anche nella sua capacità di adattarsi a eventuali rotture delle sinapsi”.

    A conferma della buona intuizione dei fisici romani, ci sono i riscontri neurofisiologici provenienti dal gruppo di Marvin Miyashita, del Centro interdisciplinare per la computazione neuronale (Icnc) della Hebrew University in Israele. Gli esperimenti condotti su di una scimmia sottoposta a stimoli astratti e casuali, cioè che non sono parte del suo patrimonio conoscitivo, hanno confermato che il processo di apprendimento viene ben riprodotto dal modello elettronico della Lann27.

    Naturalmente, anche questa “macchina che apprende” ha dei limiti, dovuti al suo scarso numero di neuroni, alle sue eccessive dimensioni e alla sua bassa capacità di memoria. Ma la ricerca è in continua evoluzione, in un campo appena nato che coinvolge centri in tutto il mondo. Non ultimo il nuovo Istituto di Neuroinformatica di Zurigo, dove ci si occupa soprattutto di modelli per la retina e di robotica. Le applicazioni riguardano soprattutto problemi di elaborazione e di calcolo, non risolvibili con i normali calcolatori digitali. Ma quello che più affascina è senza dubbio la possibilità di comprendere sempre meglio il funzionamento del cervello.

    LASCIA UN COMMENTO

    Please enter your comment!
    Please enter your name here