L’intelligenza artificiale di Google batte il campione europeo di Go

Go
(Immagine: Wikimedia Commons)

10 febbraio 1996. Deep Blue, un supercomputer messo a punto da Ibm, batte, per la prima volta al mondo, il campione del mondo di scacchi Garri Kasparov, segnando una pietra miliare nel campo dell’intelligenza artificiale.

Oggi, quasi vent’anni dopo, è stata Google a bissare: un software sviluppato da DeepMind, la divisione di Big G specializzata, per l’appunto, nella scrittura di algoritmi di intelligenza artificiale, ha sconfitto il campione europeo di Go, un antico gioco da tavolo cinese.

A svelarlo è la stessa Google, in un post pubblicato sul suo blog ufficiale: il traguardo, oltre alla sua indubbia importanza scientifica, rappresenta anche un velato sberleffo diretto a Facebook, che pochi giorni fa aveva annunciato di essere “andato vicino”, con i propri algoritmi di intelligenza artificiale, a sconfiggere un essere umano nel gioco di Go.

Si tratta di un’impresa, se possibile, ancora più importante di quella di Deep Blue, dal momento che le dinamiche di gioco di Go sono più profonde rispetto a quelle degli scacchi, il che rende la sfida computer-essere umano ancora più difficile. Tanto per darvi un’idea, una partita di Go prevede  1,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,000, 000, 000,000,000,000,000,000,000,000,000,000,000,000,000,000,000,
000,000, 000,000,000,000,000,000,000,000,000,000,000,000,
000,000,000, 000, 000, 000,000,000, 000,000,000 possibili posizioni. Un googol di volte in più rispetto a quelle permesse nel gioco degli scacchi.

Il gioco, per chi non lo conoscesse, funziona così: i due giocatori pongono le loro pedine (bianche e nere) sulle caselle vuote di una scacchiera di dimensioni 19×19. Se un giocatore riesce a circondare con le pedine del proprio colore una pedina o un gruppo di pedine dell’avversario, le cattura e si impossessa di quel territorio. Nonostante le regole siano piuttosto semplici, come ricorda la Bbc, è difficile, anche per gli esseri umani, capire chi sta vincendo, e molte delle mosse sono dettate dall’istinto.

“I computer, finora”, racconta Google, lanciando una frecciatina a Facebook, “riuscivano a giocare a Go da dilettanti. I metodi tradizionali di intelligenza artificiale, che prevedono di costruire un albero che analizzi tutte le possibili mosse, non hanno alcuna speranza di vincere il gioco”, in virtù del fatto che, come abbiamo visto, il numero di possibili mosse è troppo alto. “Abbiamo, quindi, esplorato un altro approccio: abbiamo messo a punto un sistema, che si chiama AlphaGo e che combina un algoritmo Monte Carlo con l’approccio delle reti neurali profonde [deep neural networks]. Queste reti neurali prendono in input lo stato della scacchiera di Go e lo elaborano tramite 12 reti che contengono milioni di connessioni, simili a quelle tra i neuroni. Una di queste reti sceglie la mossa da giocare. Un’altra, invece, predice chi sta vincendo il gioco”.

Il software si è allenato analizzando 30 milioni di mosse relative a partite giocate da esseri umani: mossa dopo mossa, ha iniziato a memorizzare quali sequenze sono cattive e quali sequenze portano alla vittoria. In seguito, ha giocato contro se stesso milioni e milioni di volte, continuando nell’apprendimento e imparando dai propri errori, e poi ha sfidato i suoi simili, battendoli 499 volte su 500.

Alla fine è arrivato il momento del confronto con gli esseri umani: l’ottobre scorso, gli ingegneri di DeepMind hanno invitato Fan Hui, campione europeo di Go, a sfidare il loro software. Tutte le partite sono state vinte dal computer. Il prossimo obiettivo, spiega Google, è battere Lee Sidol, campione mondiale del gioco. L’appuntamento è previsto per marzo, a Seoul. Che vinca il migliore.

Via: Wired.it
Credits immagine: Wikimedia Commons

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here