Le capacità dell'intelligenza artificiale diventano ogni giorno più sorprendenti, anche se a volte il sensazionalismo ci spinge a immaginare che siano più avanzate di quanto in realtà non sono. Sicuramente l'AI è in grado di cimentarsi in giochi in cui sono sottesi degli schemi riproducibili, come per esempio gli scacchi, e lo fa anche raggiungendo altissimi livelli.
Ma cosa succede quando la componente umana e imprevedibile è la parte più pregnante del gioco? Se l'è chiesto un gruppo di studiosi che ha provato a costruire una macchina in grado di giocare a Diplomacy, un gioco che non si basa su schemi fissi ma su una strategia non sempre prevedibile, e che implica un alto numero di variabili dovute alle scelte dei vari giocatori, che come se non bastasse si influenzano l'uno con l'altro.
Il risultato, piuttosto sorprendente, è stato pubblicato su Science.
L'intelligenza artificiale è stata messa più volte alla prova su un sito in cui altre persone giocavano a questo gioco, e le sue performance sono state non solo credibili, ma spesso anche superiori a quelle degli esseri umani.
Certo, come abbiamo detto, già da molti anni si può sfidare il computer: un esempio è Dominion online, un gioco di strategia in cui si devono combinare una serie di carte per poter fare delle azioni e acquistare dei territori. Lo stesso discorso vale per Risiko e un'infinità di altri giochi di strategia. La differenza, in questo caso, è che il linguaggio ha un ruolo fondamentale, perché durante le partite di Diplomacy è necessario stringere alleanze e fare degli accordi con gli altri giocatori. Come può una macchina interagire con gli esseri umani a questo livello? Lo abbiamo chiesto a Luca Zorloni, giornalista e coordinatore di Wired.it ed esperto di AI.
Servizio di Anna Cortelazzo e montaggio di Barbara Paknazar
Cicerone, così è stata chiamata l'AI che si è cimentata nella sfida, in 40 partite ha ottenuto più del doppio del punteggio medio degli esseri umani, dimostrando di saper effettivamente pianificare una strategia di gioco e di poter cooperare e impostare trattative con gli altri giocatori, usando un linguaggio naturale che fosse anche persuasivo, anche alla luce del fatto che gli altri giocatori non erano al corrente di misurarsi con un computer.
"Ci sono due ordini di problemi - chiarisce Zorloni - il primo è quello di prevedere una serie di situazioni alle quali l'intelligenza artificiale dovrà rispondere, come farebbe un chatbot con le funzioni di call center che deve fornire una risposta a seconda della richiesta dell'utente. Gli scenari possibili sono schematizzabili, e si costruiscono quindi delle alberature che consentano di orientare l'intelligenza artificiale in modo che possa dare la risposta corretta in base agli scenari che si trova davanti spesso. Per quanto riguarda il linguaggio, tutti noi diamo spesso per scontate alcune informazioni di contesto, e l'intelligenza artificiale deve essere aiutata a ricostruire queste informazioni. Un altro problema nel caso di Diplomacy è che c'è gente che vuole fregarti e quindi ti dà informazioni false. La complessità maggiore è stata proprio quella di immaginare, attraverso calcoli previsionali, quali potessero essere i contesti in cui il giocatore usava strategie e quindi cercare di depistare l'avversario, in questo caso l'algoritmo, anziché dargli delle indicazioni giuste".
Relativamente al linguaggio naturale, c'è anche da dire che i 292 messaggi inviati in media in ogni partita dovevano essere corretti fin da subito, perché altrimenti ci sarebbero state due possibili conseguenze sfavorevoli a Cicerone: da una parte gli altri giocatori potevano pensare a un troll, o a qualcuno che non possedeva le abilità necessarie al gioco, e quindi avrebbero potuto ignorarlo alleandosi con gli altri, isolandolo e facendogli perdere la partita. Dall'altra, se anche avessero avuto un afflato di buona volontà, avrebbero chiesto a Cicerone di spiegare i suoi errori, cosa che difficilmente sarebbe stato in grado di fare, perché non era programmato per questo.
Alla fine Cicerone è stato invece così credibile che, anche se i giocatori affrontati in 40 partite sapevano che esisteva la possibilità di confrontarsi con un AI su quel sito, solo uno di loro in una chat post partita ha avanzato l'ipotesi che non fosse un essere umano. I partecipanti, comunque, sono stati avvisati alla fine dell'esperimento.
Diplomacy ha poi delle componenti molto aleatorie: un giocatore può stringere un patto con un avversario, ma questo non è vincolante, e durante il suo turno di gioco può non rispettarlo. Per questo motivo, oltre a spiazzare Cicerone, gli altri giocatori possono anche non fidarsi di lui, che deve quindi convincerli che rispetterà gli accordi. E, a differenza degli umani, li ha rispettati veramente: Cicerone non è stato programmato per bluffare o per essere disonesto, è stato anzi sempre collaborativo con i suoi avversari, e più volte è riuscito a far cambiare loro la strategia, proponendo delle modifiche vantaggiose per entrambi.
Considerando il livello di dinamicità del gioco, programmare il comportamento strategico di Cicerone non era facile: "In questo caso - spiega Zorloni - sono state utilizzate delle variabili, cioè moltissimi schemi di gioco precedenti, nell'ordine delle migliaia, e si è provato a individuare le tattiche che erano state di volta in volta utilizzate. Attraverso quelle tattiche è stata fornita all'intelligenza artificiale tutta una serie di informazioni su come usualmente si muovono i giocatori all'interno di questi schemi e anche una serie di conversazioni, perché parliamo di un gioco di negoziazione, quindi ci si siede a un tavolo e si tratta per cercare di trovare alleati. Questa è stata la base della programmazione, ed è una base se vogliamo anche abbastanza tradizionale. La difficoltà è stata metterla in pratica in un contesto in cui qualcuno giocava dicendo cose che non erano vere e in più bisognava far sì che l'interazione non sembrasse meccanica ai giocatori umani dall'altra parte. È un processo che prevede l'allenamento, il cosiddetto machine learning: diamo in pasto tantissimi dati di un certo tipo che servono alla macchina per imparare a distinguere tutta una serie di elementi, e man mano si con questi dati si allena l'algoritmo".
Andando avanti, questa tecnologia potrà avere delle applicazioni anche in ambiti più critici: Zorloni fa l'esempio di un call center da chiamare in caso di reclami, con l'AI che sopporta le nostre lamentele senza reagire male ma dando spiegazioni esaurienti, quindi c'è da dire che per ora Cicerone se l'è passata piuttosto bene giocando a Diplomacy e che poteva andargli peggio. Temiamo però che non sia stato programmato per divertirsi come un essere umano, e un pochino ci dispiace per lui!