Dopo aver sconfitto l'uomo a scacchi e alla dama cinese, l’intelligenza artificiale batte il 99.8% degli avversari umani nel popolare videogioco StarCraft II, finendo tra i migliori giocatori del mondo. E' stato possibile grazie al nuovo algoritmo AlphaStar che, con il suo addestramento pari a 200 anni di partite, non conosce rivali e si propone come una palestra unica per le future auto a guida autonoma o per i robot industriali.
Descritto sulla rivista Nature, l’algoritmo è stato messo a punto dagli informatici guidati da Oriol Vinyals, dell’azienda DeepMind di Google, la stessa che ha insegnato ai sistemi di intelligenza artificiale a giocare a Go e a poker, a risolvere il cubo di Rubik, nonché ad affrontare la versione semplificata di un gioco semplice come 'Rubabandierà. "Questo è un sogno diventato realtà: AlphaStar ha raggiunto il livello di Gran Maestro. Sono stato un giocatore di StarCraft piuttosto serio 20 anni fa e sono affascinato dalla complessità del gioco» ha rilevato Vinyals. Questo, ha aggiunto, «ci mostra che l’apprendimento attraverso l’imitazione può ottenere risultati migliori di quanto immaginato e non vedo l’ora di iniziare a esplorare i modi in cui possiamo applicare queste tecniche alle sfide del mondo reale».
Creare algoritmi in grado di affrontare giochi che richiedono strategie complesse apre infatti a molte applicazioni: «dalla guida autonoma, all’ambiente industriale dove c'è da sviluppare un processo, fino agli assistenti vocali, in modo che siano in grado di rispondere efficacemente alle domande degli utenti», hanno detto all’ANSA gli esperti della Scuola Superiore Sant'Anna di Pisa, l’ingegnere informatico Tommaso Cucinotta e l'informatico Marco Vannucci. In quest’ottica StarCraft II è un’ottima 'palestrà per l’intelligenza artificiale perché è un gioco di fantascienza molto complesso in cui i giocatori competono l’uno contro l’altro per controllare tre razze aliene.
Precedenti giocatori artificiali non sono riusciti a competere con i campioni umani, neanche quando sono state semplificate le regole del gioco. Gli informatici di Google ci sono riusciti grazie all’algoritmo di apprendimento AlphaStar, in cui diversi giocatori virtuali, competono l’uno contro l’altro, generando una serie di strategie in continuo adattamento. L’algoritmo si è allenato a imitare i giocatori più bravi: «è stato addestrato - hanno detto Cucinotta e Vannucci - su circa un milione di partite con l’uomo, in cui il giocatore virtuale ha imparato a imitare le mosse dei migliori giocatori. Quindi ha imparato a non fare le mosse di chi si trova a perdere ed è riuscito a sconfiggere molti avversari umani imparando la strategia migliore e mettendola in campo». Nel complesso, l’algoritmo è stato addestrato per l'equivalente di 200 anni di partite e «va detto - hanno concluso i due esperti - che un’esperienza di gioco così lunga non ce l’ha nessun giocatore umano».
Caricamento commenti
Commenta la notizia