Grid, dai laboratori al mercato

    Il “grid computing”, la tecnologia che permette la condivisione della potenza di calcolo di migliaia di computer sparsi in ogni angolo della Terra, esce dai laboratori ed entra nelle stanze delle grandi aziende. Un progetto che lega le tecnologie base del Web con questa risorsa, finora usata in maniera quasi esclusiva dagli organismi di ricerca pubblici, è stato presentato all’assemblea del Global Grid Forum, massimo organismo di standardizzazione e armonizzazione internazionale in materia, che si è svolta a Toronto il 19 e il 20 febbraio scorso.

    L’interesse delle grandi aziende per il grid computing è andato crescendo negli ultimi anni. A partire dal progetto Seti@home, che utilizza i tempi morti di migliaia di computer messi a disposizione da navigatori della Rete per codificare segnali catturati dal radiotelescopio di Arecibo e ottenere così prove dell’esistenza di un’intelligenza extraterrestre. “Ci sono molte imprese che condividono dati con i propri partner o tra divisioni interne che si trovano in luoghi geograficamente lontani. Accedere a quei dati ed elaborarli significa compiere delle operazioni computazionali, che sono tanto più rapide quanto più grande è la capacità di calcolo di cui si dispone”, spiega Charlie Cattlet, presidente del Global Grid Forum. “Quello che lo studio presentato a Toronto propone”, continua Cattlet, “è una maggiore efficienza e funzionalità del calcolo distribuito, rendendolo appetibile per le aziende”. Per esempio, sarà possibile conoscere quasi in tempo utile le probabilità di comportamento di un cliente, correlando tra loro i dati statistici che fotografano l’andamento delle vendite di determinati prodotti. Insomma: dalle previsioni delle strutture di molecole di impiego farmacologico (uno degli ultimi successi di computing distribuito è stato quello che ha visto partecipare un milione di persone alla ricerca di un vaccino per l’antrace) a come si possono vendere i farmaci realizzando il massimo profitto.

    Se i mezzi per effettuare tali previsioni erano fino a qualche anno fa appannaggio quasi esclusivo del mondo della ricerca pubblica, oggi la situazione è ben altra: “Anche se quella realtà è sempre uno o due passi in avanti”, afferma Cattlett, “negli ultimi dieci anni molte aziende si sono dotate di tecnologie di network computing. Per fare un esempio, i sistemi che verranno utilizzati per avere previsioni del tempo con la massima accuratezza e affidabilità nelle quattro ore dal calcolo saranno il frutto di implementazioni di progetti di ricerca da parte di compagnie aeree”. Soldi sicuramente ben spesi quelli dei vari partner pubblici del Global Grid Forum, ovvero l’Argonne National Laboratori, la National Science Foundation, il Cern, la Nasa, oltre a varie università, tra cui quella di Pisa. E nell’elenco delle società private che fanno parte del Forum si trova la Microsoft, che ha sposato la causa fin dall’inizio.

    Ma non sono solo rose e fiori. Non fosse altro perché le regole con le quali si può partecipare al Grid Forum, o per lo meno a una parte di essi, potrebbero essere indigeste per il business. Il progetto presentato a Toronto è basato sul concetto di “open source”, ovvero sulla possibilità da parte di ognuno dei partecipanti, e non solo, di poter conoscere i più intimi segreti della tecnologia. Filosofia che ai big dell’industria mondiale dell’informatica, vedi Microsoft, non sembra la più adatta per fare affari. Ma Cattlet è di un altro parere: “Sposare la filosofia open source non è assolutamente un problema per il business. Già per Linux si pensava che ci potessero essere dei problemi da parte delle grandi corporation, ma ora tutti i grandi dell’informatica investono sul quel sistema operativo”. Per sapere se questo ottimismo è fondato basterà aspettare ancora poco: i primi successi di applicazioni commerciali di grid computing sono attesi già nel 2002, quando i primi prototipi costruiti su modelli di ricerca daranno i loro frutti.

    LASCIA UN COMMENTO

    Please enter your comment!
    Please enter your name here