SOCIETÀ

Sovrumano di Nello Cristianini nella cinquina finalista del Premio Galileo

“È possibile che una macchina sia più intelligente di un essere umano?” questa è la domanda “scomoda” che si pone Nello Cristianini, professore di intelligenza artificiale all’Università di Bath, nel suo ultimo libro Sovrumano. Oltre i limiti della nostra intelligenza (il Mulino 2025). L’autore, finalista al Premio Galileo per il secondo anno di seguito, si interroga sui limiti dell’intelligenza umana e di quella artificiale tra passato, presente e futuro, con una prospettiva che mescola scienza e cultura.

Se l’AI è intelligente per definizione, resta aperta un’altra questione: lo è più di noi? La risposta che ci viene spesso istintiva – dovuta, secondo l’autore, a un misto di inguaribile ottimismo e tracotanza antropocentrica – è: “certo che no”. Per questo motivo, Cristianini prova a guidarci alla ricerca di una risposta alternativa, stavolta basata su fatti, dati e tutto ciò che la storia dell’AI può insegnarci, accettando allo stesso tempo la possibilità di restare scottati o, quantomeno, delusi.

Le circa 150 pagine dell’opera indagano così le origini dei diversi tipi di Intelligenza Artificiale – come sono nati, a che scopo e con quali limiti ancora da superare –, i futuri traguardi che gli sviluppatori di questa tecnologia intendono raggiungere e i principali muri che sarà necessario abbattere, per riuscirci.

Questa storia comincia dalle Artificial Narrow Intelligence (ANI), specificamente progettate per svolgere un solo, specifico compito con prestazioni nettamente superiori a quelli raggiungibili da qualsiasi essere umano. È il caso del celebre AlphaGo, che nel 2016 sconfisse il campione mondiale di Go Lee Sedol, costringendo il dibattito pubblico e scientifico a confrontarsi con la possibilità che un giorno (neanche tanto lontano) gli esseri umani avrebbero dovuto competere con delle macchine capaci di batterli al loro stesso gioco. Umano contro sovrumano, appunto.

Una sconfitta relativamente semplice da accettare finché si tratta, come dicevamo, di AI che “restano al loro posto”, capaci cioè di svolgere un solo compito e di superarci solo in quello: giocare a Go, analizzare i risultati delle mammografie, guidare un’automobile o prevedere la forma di una proteina.

La posta in gioco diventa invece più alta quando si inizia a parlare di Artificial General Intelligence (AGI): sistemi più flessibili e adattivi, capaci di affrontare diversi tipi di problemi, tenendo conto del contesto di riferimento e con la capacità di migliorare nel tempo. Stiamo parlando di AI come ChatGPT, Gemini o Claude, che ormai fanno parte del nostro utilizzo quotidiano. Come spiega Cristianini, le AGI non sono agenti superspecializzati in una singola materia, bensì modelli pensati per cimentarsi con un’ampia varietà di sfidesebbene non sempre con risultati perfetti. Proprio come noi.

Cosa accade, però, nel momento in cui un’unica AI diventa più performante di noi da tanti – o da tutti – i punti di vista? Ma soprattutto, come capire se ciò sia davvero avvenuto? In altre parole, come si misura l’intelligenza generale?

Per rispondere, l’autore ricostruisce i diversi metodi sviluppati finora per allenare e misurare l’intelligenza delle AGI e testare i loro limiti, spesso basandosi sugli stessi criteri utilizzati per valutare le abilità cognitive umane, dalla comprensione alla memoria di lavoro, alla capacità numerica, al ragionamento, e così via. 

In questo contesto ha preso il via una vera e propria sfida tra gli sviluppatori che addestrano i modelli, cercando di far ottenere loro i “voti in pagella” più alti possibili in tutti i compiti cognitivi, e gli esaminatori, che si occupano di valutare la loro intelligenza e individuare i loro punti deboli, con lo scopo ultimo di ideare un test che per un’AI sia impossibile da superare.

Mentre competono, i due antagonisti stanno tracciando insieme la mappa dei confini ultimi della nostra intelligenza, e di quella artificiale, e delle impervie terre di nessuno che li circondano, ancora inesplorate Nello Cristianini, "Sovrumano. Oltre i limiti della nostra intelligenza"

Attraverso questa competizione continua, sono nate macchine in grado di conversare e di ragionare. Più lontani, almeno per il momento, sono i tre obiettivi futuri che si cercheranno di raggiungere negli anni a venire. Il prossimo passo, infatti, sarà sviluppare macchine intelligenti in grado di agire (intraprendere azioni per conto dell’utente), innovare (concepire qualcosa che prima non c’era) e operare in modo analogo a quanto farebbe un’organizzazione di persone.

Cristianini arriva così a descrivere un terzo e ultimo tipo di Intelligenza Artificiale: l’Artificial Super Intelligence (ASI), ipoteticamente in grado di superare l’essere umano da ogni punto di vista, dalla creatività, alla risoluzione di problemi, alla capacità di acquisire conoscenze.

Fantascienza? Basta seguire l’argomentazione dell’autore per rendersi conto che il sorpasso – e poi il distacco – dell’AI sugli umani non solo è possibile, ma addirittura inevitabile. D’altronde, anche la nostra, così come tutte le forme di intelligenza, ha dei limiti, che possono quindi essere superati da altre entità intelligenti. Come per un gatto, riflette l’autore, sarebbe impossibile comprendere la meccanica statistica, allo stesso modo noi non siamo capaci di prevedere l’arrivo del postino o percepire la presenza di topi in fondo al giardino, così come di riconoscere un prodotto dal suo codice a barre.

La mente umana non è universale e non è insuperabile [...] Sospetto che giungeremo presto ai confini di ciò che possiamo conoscere, lì ci fermeremo, e forse vedremo le nostre macchine fare qualche passo in più. Che effetto ci farà? Nello Cristianini, "Sovrumano. Oltre i limiti della nostra intelligenza"

Cosa ci resta, allora, di insuperabilmente umano nel momento in cui il sovraumano è in grado di leggere più libri di quanti ne potremmo sfogliare nella nostra vita, memorizzare una quantità abnorme di dati e informazioni e individuare connessioni e associazioni logiche per noi invisibili?

Rimangono l’emozione, la volontà, il libero arbitrio, la capacità di comprendere qualcuno che non parla la nostra stessa lingua. Aspetti che – almeno per il momento – non sono prerogative delle macchine. A questi, l’autore aggiunge anche quello strano connubio, contraddittorio e profondamente umano, tra l’atavico desiderio di realizzare qualcosa più grande di noi e l’infondata convinzione di essere insuperabili. Si torna, quindi, proprio a quell’inguaribile ottimismo di cui si parlava all’inizio, che ci spinge a illuderci che in fondo, per quanto avanzate, le macchine non potranno mai davvero superarci. Anche quando, forse, hanno già iniziato a farlo.

© 2025 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012