Nella maglie della lingua

    Solo la lingua storico-naturale ci consente di avvicinarci in modo totalizzante al dicibile. Ne è convinto il linguista Tullio De Mauro che parla a Galileo della complessità e dell’utopia che si nasconde dietrol’aspirazione della costruzione di un linguaggio universale. E’ la scienza stessa ad insegnarci che è impossibile cristallizzare le cose neiconcetti e questo, secondo De Mauro, è ancora più impossibilefarlo attraverso la lingua, che è una rete di significati che moltiplicale sua maglie all’infinito. E’ questa mutazione, questa apertura della rete l’unica strategia possibile per avvicinarsi alle cose, per poterle esprimere. Cambiano le cose e anche le parole che, costantemente immobili nel tempo e nello spazio, con la pretesa di rispecchiare un’idea astratta, sarebbero soltanto vuote replicanti di se stesse.

    Dietro il progetto di una lingua perfetta c’è in qualche modol’aspirazione a voler riprodurre la realtà, nonostante non sembrino esserci dubbi sul carattere convenzionale di qualsiasilinguaggio, naturale o artificiale. In che senso una lingua convenzionalepuò avere una relazione ontologica con le cose di cui parla?

    Il pensiero scientifico moderno, da Galilei a contemporanei più acuti,ha corretto profondamente l’immagine che noi ci facciamo qualche volta,anche ai livelli culturali relativamente alti, di ciò che sia scientifico.Toraldo di Francia una volta ha scritto, giustamente, che le scienze nondanno certezze, ma insegnano a porsi domande circostanziate, alle qualiè possibile trovare una risposta approssimata. In questa prospettiva,che mi sembra la più adeguata, le scienze sono viste come una fontedi problemi, piuttosto che come ricettario di ciò che è certo.Alla base dell’idea di lingue perfette tout court ci sono due presupposti.ll primo è un’immagine della scienza come luogo di definizione, unavolta per sempre, di presunti rapporti reali fra le cose di cui la scienzastessa cerca i sistemi. Un’immagine perciò un po’ chiusa rispettoalle modalità reali con cui procedono le scienze che insegnano, invece,a sconvolgere le certezze, a scorgere nuova problematicità nellecose, in modo che questa problematicità possa trovare un luogo diulteriori sistemazioni.
    Il secondo presupposto, che era poi alla radice dei sogni di una linguaperfetta, è l’esperienza di linguaggi che io provo a chiamare “post-verbali”.Rispetto ad altri linguaggi gestuali, della corporeità, questi linguaggipresuppongono l’acquisizione, il possesso e il controllo di una lingua storico-naturale.Si tratta linguaggi convenzionalizzati all’interno di una o più linguestorico-naturali, che funzionano molto bene nel loro ambito, fortementespecifico.

    A quali linguaggi allude, in particolare?

    Per esempio, a quel potente linguaggio della nomenclatura numerica, delleoperazioni elementari, che è ormai l’albero, la foresta dei linguaggimatematici. Si può pensare, però, anche alla simbologia chimica.Noi abbiamo dei linguaggi che nascono all’interno della lingua storico-naturale.Le procedure attraverso le quali esse si costruiscono, per la prima volta,sono state accuratamente descritte da Leibniz. Egli ha mostrato come, nell’ambitodi queste lingue, scegliendo alcuni primitivi, si costruiscono assiomi definitoridei termini e una rete di teoremi e di discorsi dicibili in un certo campodi discorso. Si tratta di un’esperienza preziosa. La nomenclatura chimicae il linguaggio chimico, per esempio, ci consentono la copertura, per quelche ne sappiamo, di tutto l’universo e ciò mostra come sia grandela potenza referenziale di questo linguaggio. Ma quello stesso linguaggioperò, ci dice assai poco di tante altre relazioni e di tanti altrifatti importanti di questo mondo, attraversati certamente anch’essi da fenomenichimici, ma che non sono riducibili ad essi. Si tratta, perciò, diun’esperienza molto positiva, che ci consente di potere operare con simbolinumerici come su insiemi reali di cose, a condizione che questi insiemisiano riducibili a quantità numerabili. Questo straordinario potere,però, è pagato con la più drastica mutazione dei pianidi contenuto di questi linguaggi. Quest’ultimo aspetto è stato spessotrascurato e, infatti, in questo senso forse hanno ragione Russell e i filosofianalitici quando dicono che tanti problemi filosofici nascono da un cattivouso del linguaggio. Quando si dice di volere un immagine della realtà,ci si riferisce alla realtà in generale. Che cos’è, però,la realtà? E’ una somma indeterminata di esperienze, di piani possibilidi esperienze. Ciò viene assunto come qualche cosa di ovvio, comese ciò che io chiamo “realtà” fosse qualcosa a portatadi mano. Si crede perciò che basti avere un linguaggio post-verbalecome quello delle matematiche, dell’aritmetica e della chimica per poterottenere anche un linguaggio che abbracci interamente questa realtà.

    Possiamo dire, oggi, che questa è un’illusione, che nessuna linguapotrà mai catturare, non solo la realtà, ma nemmeno l’ordine delle cose?

    La sensazione dell’importanza del funzionamento di questi linguaggi post-verbaliha dato l’impressione di poter costruire un linguaggio che fosse capacedi parlare non solo delle relazioni numeriche o spaziali come in geometriao, per esempio, dei rapporti chimici tra le sostanze, ma ha suggerito l’ideadi tentare la strada di una lingua che inglobi tutti i possibili piani diesperienza. Ma questa lingua, che esiste, è una qualsiasi linguastorico-naturale. Noi non siamo in grado di escludere quali sono i pianidi esperienza di cui, attraverso l’uso di una lingua storico-naturale, nonsi può a priori parlare. Questa possibilità nasce peròproprio grazie all’indeterminatezza e alla flessibilità dei suoisignificati. In virtù della sua permanente disponibilità eapertura, la presunzione di poter chiudere una volta per tutte la listadi primitivi in base a cui costruire una lingua capace di aggancio in qualsiasitipo di realtà è una pretesa contradditoria. Tuttavia la coscienzadi una diversa immagine della scienza, un po’ alla volta, si è affermatapersino presso i filosofi. Una simile consapevolezza ha definitivamentemostrato il carattere velleitario della pretesa di costruire una linguache sostituisca tutte le altre lingue del mondo così come sono, conle loro aperture indefinite, con il loro continuo divenire. Sembra, infatti,che non circolino più proposte di una lingua universale.

    E l’esperanto?

    L’esperanto è nato in una prospettiva diversa, quella di una linguaausiliaria, che credo sia l’unica perseguibile. A una possibilitàdi questo genere ci avevano pensato addirittura grandi logici come Peano.Personalmente non ho alcuna difficoltà a pensare all’utilizzo diuna lingua artificiale in ambiti molto determinati, per esempio, nell’ambitodella redazione di testi legislativi. Io sono un fautore dell’idea che l’UnioneEuropea piuttosto che tormentarsi con una legislazione che immagina di essererispettosa della pluralità linguistica, e che sta creando grandidifficoltà, farebbe bene a porgere il suo pensiero all’esperanto.Con la nuova normativa europea, per esempio, qualsiasi norma di legge, qualsiasidirettiva, in una qualunque delle lingue della Unione, fa testo in qualsiasipaese del mondo. Giudici e avvocati in Portogallo possono trovarsi a discuteredi una lite tra un Finlandese e un Italiano che si appellano alla redazionefiamminga di un testo della direttiva. Sappiamo che le traduzioni sono necessariamenteopere di approssimazioni, molto divergenti, da una lingua all’altra. Credo,perciò che ci sia bisogno, nel caso in cui l’Unione Europea andràavanti, di indicare in caso di controversie un testo unico di riferimento.Questo in un clima di tolleranza potrebbe tranquillamente trovare una soluzione,si potrebbe adottare l’inglese o indicare di volta in volta il testo diriferimento. Però i nazionalismi persistenti e i puntigli diplomaticirendono impossibile questa cosa semplice. La proposta dunque di tradurrequalsiasi norma europea in esperanto è legittima e più chelegittimo, in questo caso specifico, l’uso di una lingua artificiale che,anzi, credo sia auspicabile. Quello che non si può chiedere néall’esperanto, né a nessun’altra lingua, è di restare immobile,uguale a se stessa attraverso il tempo, rinunciando ad adattandosi al mutaredelle esigenze comunicative. Questo implica una contraddizione: o si vuoleuna lingua immota o, perlomeno capace di lungua durata e, allora dobbiamobloccare i piani di esperienza a cui questa lingua si può riferire,oppure si vuole una lingua capace di fornire strumenti per lottare control’inesprimibile, capace sempre di darci modo di parlare di qualcosa di radicalmentenuovo che possa emergere nella nostra consapevolezza. In quest’ultimo caso,allora, queste lingue devono adattarsi, ed essere dotate di quella indeterminatezzadel significato che è propria delle lingue storico-naturali.

    Era, soprattutto la grammatica uno dei principali imputati. Essa eraaccusata di non riuscire a strutturare realmente la lingua. Di lasciarespazio ad eccezioni e irregolarità. La grammatica, poi, nei secoli, non era riuscita ad evitare la “corruzione” del tempo, a dettareregole immutabili e capaci di domare i processi di trasformazione linguistica. Come se la grammatica, insomma, non riuscisse a ordinare, una volta pertutte, una lingua.

    La grammatica non ha questa funzione normativa. Si possono anche immaginaredelle grammatiche normative, ma esse incidono su ceti particolari e perusi particolari della lingua. Per il resto, ciò che domina la grammaticadelle lingue è ciò che chiamiamo grammatica vissuta, irriflessa.E’ la grammaticalità a cui ogni parlante liberamente fa ricorso,dotata essa stessa di un alto grado di indeterminatezza funzionale per capiregli altri e farsi capire.

    Ma qual era l’idea di grammatica che circolava nel 600?

    Un’idea di garmmatica universale a maglie molto fitte che veniva dalla tradizionescolastica, medievale, latina. Ma quest’idea è stata abbandonatain questa forma. Anche i parametri universali di cui oggi parla una parteimportante della linguistica teorica di ispirazione chomskyana sono deiparametri molto larghi rispetto al costituirsi non delle singole regolegrammaticali, ma addirittura degli interi corpi grammaticali. Dentro questiparametri vi è un’immensa possibilità di variazione. Non èquesta, quindi, l’idea di grammatica universale che avevano avuto nel 500e 600, ma piuttosto era l’idea di una “grammaticalizzabilità”di qualsiasi tipo di espressione all’interno della costruzione di una linguauniversale.

    Prima di progettare una lingua universale, per gli scopi a cui essa eradestinata, bisognava classificare il mondo, ritagliarlo. Le cose e le nozionidovevano corrispondere ai segni. Come in un’enciclopedia, appartenere aquesta o a quella categoria generale. Questo lavoro preliminare non spostava,forse, il problema dell’arbitrarietà a monte, invece che nel linguaggio,nell’attribuzione delle cose a una categoria piuttosto che a un’altra?

    Assolutamente. Ma essi non avvertivano il carattere arbitrario di questoritaglio, credevano che avesse una sua legittimazione assoluta, data unavolta per tutte. Naturalmente, questo è ridicolo. Basta pensare comesia il mondo cosmico sia il mondo subatomico sia quello della fisiologiaanimale sfuggissero pressoché completamente all’osservazione, allaconsapevolezza. Sono tanti i piani di realtà importante che abbiamoimparato a controllare con linguaggi speciali e con l’aiuto delle linguestorico-naturali.

    Nonostante fosse paradossale ciò però significava che,almeno allora, nella costruzione di questa rete linguistica ideale era lascienza a dettare le regole della lingua, o quantomeno l’ontologia che daessa derivava.

    Certo. L’idea era che la determinazione di una tale lingua fosse possibileall’interno di un universo chiuso e strutturato definitivamente e di cuila lingua era lo specchio. Naturalmente non sempre le cose andarono così,anche all’interno dello stesso periodo storico: il caso più clamorosoè quello di Port Royal. Paradossalmente proprio nella Logiqueou art de penser, troviamo una concezione logicizzante non riduttivama molto attenta alla variabilità e all’indeterminatezza del significatoche non è presente nella Grammaire di Port Royal, la qualerispecchia, invece, l’idea di un’universalità della grammatica. E’la Grammaire, infatti, e non la Logique a creare i presuppostiper poter pensare a una grammatica universale. La Logique, invece,molto più attenta alla dinamica storica dei significati delle parole,introduce la nozione importante di connotazione come insieme floudi caratteristiche del significato che fanno la forza della lingua. Quindi,Port Royal è tutt’altro che compatto. I testi di Port Royal sullatradizione, reperiti e pubblicati da Luigi De Nardis, sono carichi di uninteressantissima percezione del carattere aperto e, di conseguenza, divergentedelle singole tradizioni linguistiche, agli antipodi di quello che, pensandoalla Grammaire chiamiamo “portorealismo”. Ma la Grammaire,per quanto importante, è solo uno dei testi di Port Royal.

    Questa riflessione sulle caratteristiche universali del linguaggio indottadal progetto della lingua perfetta, cosa ha suggerito agli studi successivisu questi temi, quanto ha pesato in modo positivo?

    Non c’è dubbio che ci sia un rapporto tra il progetto Leibnizianodi un ars characteristica universalis, la simbologia logico-formalee i linguaggi logico-simbolici. Quindi la “logica modernorum”la logica matematizzante, moderna, nasce con Leibniz ma ridimensionandoradicalmente il progetto di costruire un apparato simbolico capace di parlaredi qualunque cosa. Da un’altra parte credo che in questo ci sia anche unadiscontinuità. Quando oggi parliamo di forze universali, di parametriuniversali, di limitazioni universali dell’ arbitraire, parliamodi qualche cosa che si riferisce strettamente a ciò che noi possiamoricavare dallo studio delle lingue nella loro molteplicità e variabilità.Anche se le presentazioni di Chomsky, specie quelle più divulgative,sono velate di qualche allusione aprioristica, non c’è dubbio chele presentazioni più tecniche che Chomsky ha fatto di reperimentodi tratti universali mostrano il carattere aposteriori e il carattere costruttivodel reperimento delle limitazioni dell’arbitrario di carattere universale.

    Ma, tornando al 600, in quest’ansia di ricerca di “caratteri universali”,c’è in qualche tratto che accomuna i progetti di queste lingue, ildesiderio di parlare un linguaggio divino?

    In alcuni momenti della lunga storia dei sogni di lingua perfetta ci possonoessere state non solo generiche componenti religiose ma componenti teologicheche però mi sembrano minoritarie rispetto a altre componenti chehanno fatto sognare l’idea di una lingua perfetta.

     

    Lefrontiere
    dell’intelligenza

    di Simone Gozzano

    Il modello delle reti che simulano i processi stessi del cervellosi sta imponendo come un nuovo paradigma di ricerca. Tra gli obiettivi nonlontani, la costruzione di macchine in grado di imparare

    Probabilmente gli ultimi cinquantanni di questo secolo sarannosalutati, nel settore delle ricerche sulla simulazione dei processi cognitivi,come l’età dell’oro. A far partire la corsa sono stati i calcolatori,ma a dirigerla le teorie. E di teorie, e conseguenti metodi, per simularel’intelligenza umana, questi cinquantanni ne hanno prodotti sostanzialmentedue: il modello simbolico, dell’intelligenza artificiale classica, e quelloparallelo e subsimbolico, delle reti neurali.
    Due metodi a confronto: da un lato l’intelligenza artificiale classica,la “IA”, simula i risultati dell’attività del cervello,ossia i processi mentali astratti, non tenendo in eccessivo conto il modoin cui questi risultati sono raggiunti. E infatti le macchine, grosso modo,hanno una grande memoria passiva e un unico processore, che esegue i calcoli.Dall’altro le reti neurali simulano i processi stessi del cervello, tramitei quali si arriva ai risultati cognitivi complessi. E per farlo simulanola struttura stessa del cervello umano, strutturate come sono con diversiprocessori, ossia esecutori di calcoli, altamente interconnessi fra di loroe in cui la programmazione consiste nel migliorare le connessioni “giuste”a discapito di quelle sbagliate. L’approccio “dall’alto” dell’IAcontro quello “dal basso” delle reti.
    Ma l’incontro nelle “terre di mezzo” ancora non c’è stato:al contrario, le due strategie di ricerca sono spesso andate riottosamentein disaccordo. I due metodi si sono infatti scontrati negli anni ‘60 e adaverne la peggio sono state le reti. Nel libro Perceptrons, Marvin Minskye Seymour Papert mostravano in dettaglio come le reti proposte allora daFrank Rosenblatt non avrebbero mai potuto rendere conto della variabilitàe della complessità cognitiva umana. Ma il Requiem ha smesso le suecupe note alla fine degli anni ‘70.
    A quel punto un gruppo di ricercatori, tra cui John Anderson, J.A. Feldmane Dana Ballard, proposero una serie di rimedi ai primi modelli di rete.Mentre i percettroni di Rosenblatt, attaccati da Minsky e Papert, prevedevanosolo due strati di unità computazionali, come fossero due soli stratidi neuroni, uno per gli input e l’altro per gli output, essi sottolinearonol’importanza di un nuovo strato di “unità nascoste”.
    Per usare una metafora biologica, si verificò il passaggio dai riflessispinali, che non arrivano ad attivare il cervello, alle reazioni cerebro-spinalio del tutto centrali, tramite le quali vengono compiute elaborazioni piùcomplesse. Ma anche a livello di reti a due strati Stephen Grossberg, conil modello ART (Adaptive Resonance Theory), aveva proposto un metodoper generare un circolo informativo che garantiva la stabilità deipattern appresi, un approccio piu’ “biologico” che molta fortunaha in questi giorni.
    A quel punto le reti potevano uscire dall’ostracismo. In base al modellodelle reti, le macchine che produrranno intelligenza dovranno assomigliarefisicamente al cervello, dovranno essere composte da un numero elevato ealtamente interconnesso di unità semplici. Per collegare le varieunità ci sono delle connessioni, veri e propri assoni e dendridiartificiali sul modello del nostro sistema nervoso centrale. Queste hannodiversi “pesi”, ossia diverse sensibilità di attivazione,che si modificano sulla base di una regola neurofisiologica, postulata daDonald Hebb già negli anni ‘50, secondo cui ogni qualvolta due unità(naturali o artificiali) vengono attivate assieme, la connessione tra loroandrà rinforzata, aumentando il valore relativo. Sono stati questigli elementi che hanno dato nuova forza teorica e applicativa alle retineurali, consentendo al modello di riemergere dalle ceneri, anche con nominuovi come “connessionismo” o “processi paralleli distribuiti,PDP”.
    La “Bibbia” del connessionismo compie oggi dieci anni: nel 1986:James McClelland e David Rumelhart raccoglievano, in due volumi pubblicatidalla MIT Press, i principi teorici e tecnici del nuovo approccio. Allorasi potevano contare sulle dita i ricercatori impegnati sulle reti nei varipaesi, le riviste dedicate alla simulazione artificiale guardavano con uncerto curioso sospetto il riemergere di un approccio messo all’indice dallavoce imperiosa del “guru” Minsky e i fondi di ricerca erano esiguie marginali. Adesso il nuovo settore appare più che maturo: decinedi riviste specializzate, migliaia di ricercatori sparsi in tutto il mondo,società internazionali e nazionali che riuniscono studiosi e ricercatoriper favorire lo scambio di informazioni e dati sulla nuova frontiera dell’intelligenza.E non solo la ricerca teorica: Daniel Hillis iniziò a rompere gliindugi sul piano ingegneristico realizzando calcolatori basati su migliaiadi piccoli processori che eseguono operazioni elementari, al contrario deinormali calcolatori basati sull’architettura seriale impostata da John vonNeumann, dando vita alla prima Connection Machine.
    Da lì il passo verso la commercializzazione è stato breve.I biologi e i neurologi hanno iniziato a scambiare idee e informazione coni connessionisti, pregustando la rivincita del riduzionismo neurobiologicoa discapito di quella strana forma di dualismo che passava tra le magliedell’IA classica, che ammetteva l’intelligenza al di fuori del mondo delcarbonio. Accanto all’hardware, anche il software ha subìto una profondaevoluzione: non solo si è trattato di ripensare i programmi per macchinecon una architettura completamente diversa, ma servivano tecniche per gestirei risultati che esse fornivano.
    Un passo in avanti lo si è compiuto “andando all’indietro”,con la “back propagation”. Un punto di forza delle reti èla loro capacità di apprendere dagli esempi. Ma per far questo unarete non usa ricette preconfezionate da qualche programmatore, o almenonon del tutto. Il principio, infatti, è che la rete viene sottopostaa una serie di cicli ripetuti su un medesimo compito. Al ricercatore toccamodificare i pesi sulle connessioni di modo che il valore in uscita si approssimisempre di più a quello desiderato. Il problema, però, èche ogni connessione ha un ruolo nel determinare questo valore, e le connessionisono troppe per un gruppo di ricercatori, per non parlare di uno solo. Inoltreci sono le fondamentali unità nascoste. Ecco allora che Rumelhart,Geoffrey Hinton e altri ricercatori hanno messo a punto, una decina di annifa, la “back propagation”. Questa tecnica consente di individuarequal è il ruolo che ogni singola unità sta giocando nel fornirequel valore, e quindi di modificare i pesi sulle connessioni in manieraconseguente.
    Questa è la breve storia, dunque. Adesso le reti si stanno imponendocome un vero e proprio nuovo “paradigma di ricerca” come diceDomenico Parisi, il responsabile italiano della ricerca sulle reti per ilConsiglio Nazionale delle Ricerche. Esse stanno cambiando il panorama dellacollaborazione fra le varie discipline che si occupano della mente e dell’intelligenza.In effetti, mentre con l’IA classica i referenti tradizionali, concettualementeparlando, erano i filosofi, gli psicologi e i linguisti, e questo perchéuna delle nozioni centrali è quella di “simbolo”, l’approccioconnessionista guarda verso altri settori di ricerca. “Oggi la collaborazionepiù forte – dice Domenico Parisi – è con i neuroscienziati,i biologi, i fisici che si occupano di termodinamica e con i matematici.Ma naturalmente, sapere con quali discipline vengono fatti i collegamenticoncettuali dipende dal tipo di connessionismo”. Da una parte c’èinfatti il modello PDP, cui abbiamo già fatto cenno, dall’altro cisono studi ad ancor più vasto raggio che simulano processi di biologiadi popolazione, e che danno i fondamenti alle ricerche sulla vita artificiale.
    “In questo secondo caso – nota ancora Parisi – entrano in scena i teoricidell’evoluzione, gli antropologi, gli economisti e coloro che in generalestudiano i sistemi complessi”. Insomma l’interdisciplinarietànon è assolutamente passata in secondo piano. Al contrario, notaMark Plumbey del Centre for Neural Networks presso il Department of Electronicand Electrical Engineering del King’s College di Londra, “Mentre lereti neurali possono differire dall’IA Classica per quanto concerne i concettifondamentali, l’approccio interdisciplinare e’ tuttavia ancora molto importante.Per esempio, qui al King’s College di Londra, il nostro centro comprendestudiosi di informatica, di ingegneria elettronica, di matematica, di fisicae di filosofia. Per quanto mi riguarda, l’interazione tra gli aspetti biologici,teorici e orientati all’applicazione pratica delle reti neurali rappresentaproprio uno degli aspetti piu’ piacevoli! ”
    Anche per quel che concerne gli aspetti piu’ applicativi i legami sono mutati:”La ricerca non e’ piu’ isolata ma si e’ fusa con altri campi di ‘softcomputing’ (metodi evolutivi e fuzzy logic) e parzialmente con l’IA simbolica”dice Lutz Prechelt, dell’Institut fuer Programmstrukturen und Datenorganisation,dell’Università di Karlsruhe, in Germania. La divisione, anche senon così netta, passa dunque per la nozione di “simbolo”:un primitivo sul quale vengono eseguite le computazioni per i teorici dell’IAclassica, una nozione che “emerge” razie all’interazione di diversiprocessi che simbolici non sono. “Cio’ rappresenta nel contempo unpunto di forza e un punto di debolezza: un punto di forza perche’ rendei sistemi connessionisti piu’ flessibili, adattabili e potenti; e un puntodi debolezza perche’ li rende piu’ complessi anche per i compiti piu’ semplici”sottolinea Prechelt.
    Questa divisione si riflette anche a livello filosofico: studiosi piùinteressati alla nozione di simbolo e rappresentazione esplicita, come JerryFodor, guardano con sospetto al connessionismo mentre chi attacca il modellolinguistico e la nozione di rappresentazione, come Paul e Patricia SmithChurchland, è incline a pensare che il connessionismo saràla base per la nuova “neurofilosofia”.
    Ma c’è un secondo aspetto che mostra quanto le ricerche sulle retisi stanno imponendo: soldi. “Gli investimenti per la ricerca (formativae non-applicata) relativa alle reti neurali era quasi del tutto inesistenteprima del 1986” dice Alexander Parlos, professore associato pressoil dipartimento di ingegneria elettronica della Texas A&M University,dove per piu’ di 5 anni sono state condotte numerose ricerche sulle retineurali grazie a dei finanziamenti statali.
    “Poiche’ prima del 1986 tale campo era del tutto inesplorato gran partedegli investimenti e’ stata effettuata negli ultimi 10 anni. E’ dunque moltodifficile identificare con precisione dei numeri relativi a tale fenomenodato che in ambito didattico esso e’ diffuso tra la scuola ingegneristica,la scuola scientifica (matematica per informatici e neuroscienza) e la scuolaeconomica. Ritengo tuttavia che esso si sia notevolmente ampliato nell’arcodei dieci anni scorsi (negli ultimi cinque pare infatti essersi quintuplicato),e oggigiorno si aggira intorno a cifre pari a decine di milioni di dollari”.Naturalmente, anche l’industria ha fiutato l’affare, anche se in questocaso il dato è più frammentario e va distinto tra aspettisoftware e hardware. “Nonostante verso la meta’ e la fine degli anni’80 abbiano avuto luogo ingenti investimenti nel campo dell’hardware dellereti neurali, negli ultimi 3-5 anni tale fenomeno pare essersi arrestato”afferma Parlos. “Cio’ e’ principalmente dovuto agli alti costi associatiallo sviluppo di un hardware specialistico e al fatto che gli strumentidi calcolo generici stanno diventando molto potenti e a buon prezzo. Ilvero aumento negli investimenti relativi alle reti neurali si e’ verificatonel campo del software (e delle applicazioni). Anche in questo caso e’ altrettantodifficile produrre dei numeri poiche’ gran parte dei prodotti e dei serviziattualmente offerti riguarda le reti, nonostante queste siano invisibiliagli occhi dei clienti (e molti di essi utilizzino gli algoritmi neuraliancorche’ siano considerati informazioni esclusive delle ditte). L’aumentodell’utilizzo delle reti puo’ invece essere inferito (o, piu’ semplicemente,ipotizzato) dal tipo di persone che le societa’ tendono a impiegare. Unsignificativo aumento negli investimenti e’ stato rilevato dal settore finanziario(quello dell’ingegneria finanziaria, come viene oggi definito, rappresentanello specifico uno dei principali utenti delle reti neurali). Vorrei dunquesottolineare ancora una volta che gli investimenti sono cresciuti considerevolmentenegli ultimi cinque anni, duplicandosi o quintuplicandosi, e che si trattadi decine di milioni di dollari.”.
    Una situazione sostanzialmente analoga a quella europea, un caso per tutti:l’Inghilterra. “Negli ultimi dieci anni le reti neurali sono cresciutee oggi rappresentano un campo importante della scienza” afferma MarkPlumbey. Nell’ingegneria dell’informazione esse vengono sempre piu’ applicatea problemi di difficile soluzione i cui dati sono disponibili ma di cuirimane oscura la struttura. Probabilmente esistono ancora delle aree daesplorare, in particolare quelle relative alle sperimentazioni sulle retineurali effettuate quando la tecnologia stava ancora muovendo i primi passicon conseguente disappunto dei ricercatori per l’impossibilita’ di risolveredeterminati problemi. Ora che e’ stata raggiunta una maggiore maturita’,gli investimenti relativi ai proggetti per l’attuazione e per la ricercasono conseguentemente aumentati: in Gran Bretagna, per esempio, il dipartimentoper il commercio e l’industria sta portando a termine un programma da 5,75milioni di sterline volto a migliorare la consapevolezza nell’industriadelle reti neurali. L’Engineering and Physical Sciences Research Councilha recentemente stanziato dei fondi per una dozzina di progetti finalizzatialla soluzione dei “Quesiti fondamentali” posti dall’applicazionedelle reti neurali ai problemi reali”.
    Dopo dieci anni quindi grandi promesse e qualche delusione. L’obiettivodel prossimo futuro sembra quello di produrre applicazioni su tecnologiedi uso comune e macchine in grado di simulare apprendimento. A ben vedereè un piano in due tempi dallo scopo ultimo assai chiaro. Molta dellaIA classica si è infatti arenata sul cosiddetto “ragionamentodi senso comune” (common sense reasoning). E molti, dopo avercostruito macchine in grado di realizzare compiti complessi come dimostrareteoremi (theorems proving) o giocare a scacchi, sono giunti a pensare cheproprio nelle forme semplici del ragionamento quotidiano si celi il misterodell’intelligenza umana. In effetti tutti sanno individuare la richiestaimplicita in “sa dirmi l’ora?”, ossia che ore sono e non se siè in grado di leggere l’orologio, mentre sono in pochi a saper risolvereun teorema. Riuscire allora a produrre macchine abili sui problemi quotidianivorrà dire grandi guadagni di mercato e una giustificazione scientificaper aver risolto la simulazione dell’intelligenza naturale.
    “La presenza delle reti e’ gia’ evidente nella nostra (degli USA) vita quotidiana nonostante la maggior parte delle persone non se ne renda conto” afferma Parlos. “Per esempio, un gran numero tra le principali ditteproduttrici di carte di credito (e anche di carte telefoniche) ha elaboratodei sistemi anti-frode per ciascuna transazione. Tali schemi utilizzanole reti neurali. Ma gli esempi di questo tipo sono oggigiorno numerosissimi.Personalmente ritengo quindi che nei prossimi 10-25 anni le reti neuralipenetreranno all’interno della nostra vita quotidiana sempre piu’ sottoforma di prodotti di consumo, come per esempio il sistema di gestione energeticoe il settore automobilistico”.
    Queste sono dunque le ipotesi, gli auspici e le speranze. Poca fantasia?Non è detto. Un aiuto può provenire proprio da Internet. “Sipotrebbe paragonare Internet a un cervello e, quindi, in seconda istanza,a una rete” immagina Domenico Parisi. “Esistono zone di pensierointeressanti e zone piene di sciocchezze, e l’interruzione di un collegamentonon necessariamente impedisce il raggiungimento di un sito, come nel cervelloe nelle reti. Per ora è una analogia del tutto vaga, ma potrebbeessere interessante lavorarci sopra”. Nella rete, insomma, si potrebberotrovare altre idee o trovare lo spazio da riempire con nuove proposte. Almomento, per verificare questa analogia che vuole essere fantasiosa, nonc’è che un modo: fare un giro su Internet e vedere come rispondela nostra rete neurale naturale.

    LASCIA UN COMMENTO

    Please enter your comment!
    Please enter your name here